Un saluto a tutti.
Mi chiedevo che fine fanno i pixel "non usati" quando si scatta a risoluzione media. Ad esempio la D80 in Large utilizza tutti i 10 Mpx a disposizione e in Medium solo 5,6 Mpx. Non trattandosi di un crop visto che l'area inquadrata non cambia, come vengono neutralizzati o utilizzati gli altri 4,6 Mpx? Sopratutto che influenza "passiva" hanno sulla qualità dell'immagine?
Saluti
Umberto
P.S.
da libretto di istruzioni
Large (3872×2592/10,0 M)(predefinito)3.872×2.592
Medium (2896×1944/5,6 M) 2.896×1.944
Mi chiedevo che fine fanno i pixel "non usati" quando si scatta a risoluzione media. Ad esempio la D80 in Large utilizza tutti i 10 Mpx a disposizione e in Medium solo 5,6 Mpx. Non trattandosi di un crop visto che l'area inquadrata non cambia, come vengono neutralizzati o utilizzati gli altri 4,6 Mpx? Sopratutto che influenza "passiva" hanno sulla qualità dell'immagine?
Saluti
Umberto
P.S.
da libretto di istruzioni
Large (3872×2592/10,0 M)(predefinito)3.872×2.592
Medium (2896×1944/5,6 M) 2.896×1.944
Me lo sono chiesto anch'io una volta...e la risposta che mi sono dato è che i pixel vengono comunque usati tutti, quelli del sensore, è poi il processore d'immagine che elabora una "compressione" e salva il file in dimensioni inferiori all'"originale".
Ma è solo una mia intuizione, mai supportata da un riscontro scientifico. Quindi chi ne sà effettivamente qualcosa mi corregga.
Ma è solo una mia intuizione, mai supportata da un riscontro scientifico. Quindi chi ne sà effettivamente qualcosa mi corregga.
Ciao,
può essere come dici tu. Quello che mi vorrei capire é questo:
qualitativamente quanto influisce la minor risoluzione e inoltre se é migliore, a parità di risoluzione e di ottica utlizzata, una foto scattata con un sensore nativo da 5,6 Mpx, una scattata a 10 Mpx e ridotta su PC a 5,6 Mpx oppure quella scattata settando la D80 (é un esempio) a 5,6 Mpx.
Per migliore qualità non intendo limitarmi alla sola risoluzione a ma tutti i parametri, quindi anche contrasto, sfumature, ecc...
Speriamo in qualche tecnico che ci illumini.
Saluti
Umberto
può essere come dici tu. Quello che mi vorrei capire é questo:
qualitativamente quanto influisce la minor risoluzione e inoltre se é migliore, a parità di risoluzione e di ottica utlizzata, una foto scattata con un sensore nativo da 5,6 Mpx, una scattata a 10 Mpx e ridotta su PC a 5,6 Mpx oppure quella scattata settando la D80 (é un esempio) a 5,6 Mpx.
Per migliore qualità non intendo limitarmi alla sola risoluzione a ma tutti i parametri, quindi anche contrasto, sfumature, ecc...
Speriamo in qualche tecnico che ci illumini.
Saluti
Umberto
E' una domanda che mi sono posto più volte
Sto pensando alla D90, ho la D70 e 6 Mp mi sono del tutto sufficienti mentre desidero più dinamica e, di conseguenza, migliori risultati ad alti ISO.
Peccato che lo staff Nital non intervenga più su questi aspetti tecnici.
Ma appunto, perché sono spariti? Mi riferisco a Maio in particolare
Sto pensando alla D90, ho la D70 e 6 Mp mi sono del tutto sufficienti mentre desidero più dinamica e, di conseguenza, migliori risultati ad alti ISO.
Peccato che lo staff Nital non intervenga più su questi aspetti tecnici.
Ma appunto, perché sono spariti? Mi riferisco a Maio in particolare
E' una domanda che mi sono posto più volte
Sto pensando alla D90, ho la D70 e 6 Mp mi sono del tutto sufficienti mentre desidero più dinamica e, di conseguenza, migliori risultati ad alti ISO.
Peccato che lo staff Nital non intervenga più su questi aspetti tecnici.
Ma appunto, perché sono spariti? Mi riferisco a Maio in particolare
Sto pensando alla D90, ho la D70 e 6 Mp mi sono del tutto sufficienti mentre desidero più dinamica e, di conseguenza, migliori risultati ad alti ISO.
Peccato che lo staff Nital non intervenga più su questi aspetti tecnici.
Ma appunto, perché sono spariti? Mi riferisco a Maio in particolare
Se si seleziona una risoluzione inferiore tutti i pixel del sensore vengono usati. L'immagine viene fatta passare per un filtro interpolatore (passa basso anti-aliasing) digitale, che cancella le alte frequenze non registrabili nel formato minore secondo il teorema di Nyquist e sue estensioni, e poi decimata nei campioni per ridurre la dimensione del quadro.
Il risultato è migliore che registrare l'immagine con un sensore più piccolo dietro un filtro passa-basso ottico. Si filtra anche parte del rumore digitale. Per questo motivo è la soluzione preferita negli scanner ad alta risoluzione (5400-7200-8000 dpi) e nell'audio digitale.
A presto
Elio
Grazie Elio,
ma io non mi riferivo a un sensore più piccolo, almeno non come dimensioni, ma a un sensore con meno pixel, come ad esempio al D50 che ho e che mi da immagini stupende.
Secondo te é meglio il risultato con il metodo che hai descritto oppure scattando comunque a 10 Mpx e poi riducendo in P.P.?
Saluti
Umberto
ma io non mi riferivo a un sensore più piccolo, almeno non come dimensioni, ma a un sensore con meno pixel, come ad esempio al D50 che ho e che mi da immagini stupende.
Secondo te é meglio il risultato con il metodo che hai descritto oppure scattando comunque a 10 Mpx e poi riducendo in P.P.?
Saluti
Umberto
Ciao,
può essere come dici tu. Quello che mi vorrei capire é questo:
qualitativamente quanto influisce la minor risoluzione e inoltre se é migliore, a parità di risoluzione e di ottica utlizzata, una foto scattata con un sensore nativo da 5,6 Mpx, una scattata a 10 Mpx e ridotta su PC a 5,6 Mpx oppure quella scattata settando la D80 (é un esempio) a 5,6 Mpx.
Per migliore qualità non intendo limitarmi alla sola risoluzione a ma tutti i parametri, quindi anche contrasto, sfumature, ecc...
Speriamo in qualche tecnico che ci illumini.
Saluti
Umberto
può essere come dici tu. Quello che mi vorrei capire é questo:
qualitativamente quanto influisce la minor risoluzione e inoltre se é migliore, a parità di risoluzione e di ottica utlizzata, una foto scattata con un sensore nativo da 5,6 Mpx, una scattata a 10 Mpx e ridotta su PC a 5,6 Mpx oppure quella scattata settando la D80 (é un esempio) a 5,6 Mpx.
Per migliore qualità non intendo limitarmi alla sola risoluzione a ma tutti i parametri, quindi anche contrasto, sfumature, ecc...
Speriamo in qualche tecnico che ci illumini.
Saluti
Umberto
Credo che a monitor la differenza non sia poi così tanta, sulle stampe...credo che la differenza si faccia sentire dall'A4 in su....
Sto pensando anche che scattando in DX con una D3/D700 (5.1mpx) si ottengano cmq risultati migliori di una D80 a piena risoluzione. Questo perchè le caratteristiche del sensore (gamma dinamica, latitudine di posa) prescindono dalla risoluzione.
Sto pensando anche che scattando in DX con una D3/D700 (5.1mpx) si ottengano cmq risultati migliori di una D80 a piena risoluzione. Questo perchè le caratteristiche del sensore (gamma dinamica, latitudine di posa) prescindono dalla risoluzione.
Ciao, questo non lo metto in dubbio, però parliamo di un sensore con pixel più grandi essendo un FF di "soli" 12 Mpx, però é un po come paragonare le foto che faccio l'altra macchina che ho, la D50 da 6 mpx, con quelle della compatta P50 da 8 mpx che non le si avvicina come qualità neanche per scherzo.
Chiaro che le mie considerazione sono a parità di sensori, in questo caso i DX di Nikon.
Saluti
Umberto
cut...
Peccato che lo staff Nital non intervenga più su questi aspetti tecnici.
Ma appunto, perché sono spariti? Mi riferisco a Maio in particolare
Peccato che lo staff Nital non intervenga più su questi aspetti tecnici.
Ma appunto, perché sono spariti? Mi riferisco a Maio in particolare
Infatti... è da un bel pò che mancano.. peccato..
Cmq non mi ero mai posto la domanda (perche scatto sempre in RAW o JPG a massima risoluzione).. cmq la cosa mi interessa e non poco..
Se si seleziona una risoluzione inferiore tutti i pixel del sensore vengono usati. L'immagine viene fatta passare per un filtro interpolatore (passa basso anti-aliasing) digitale, che cancella le alte frequenze non registrabili nel formato minore secondo il teorema di Nyquist e sue estensioni, e poi decimata nei campioni per ridurre la dimensione del quadro.
Il risultato è migliore che registrare l'immagine con un sensore più piccolo dietro un filtro passa-basso ottico. Si filtra anche parte del rumore digitale. Per questo motivo è la soluzione preferita negli scanner ad alta risoluzione (5400-7200-8000 dpi) e nell'audio digitale.
A presto
Elio
Il risultato è migliore che registrare l'immagine con un sensore più piccolo dietro un filtro passa-basso ottico. Si filtra anche parte del rumore digitale. Per questo motivo è la soluzione preferita negli scanner ad alta risoluzione (5400-7200-8000 dpi) e nell'audio digitale.
A presto
Elio
esatto, tutto questo è vero e si attiene allo schema di Bayer.
A tal proposito mi viene in mente un test che avevo fatto tempo fa, che mi ha lasciato veramente di stucco... se si dovesse fare un confronto tra una foto scattata con sensore bayer da 10 megapixel e una scattata con sensore foveon da 4,1 megapixel, il discorso cambierebbe.
Sarebbe utile spiegare che tutti o quasi i sensori delle macchine digitali si basano sullo schema di Bayer e cioè ogni 4 pixel catturati, 2 vengono utilizzati per registrare il colore verde, uno per il blu e un altro per il rosso. Interpolando questo campionamento a mosaico l'immagine viene ricostruita e ad ogni pixel viene assegnato un valore RGB quando convertiamo la nostra foto in un formato diverso dal RAW, ad esempio il tiff, il jpeg ecc.
+
+
=
Quindi , in teoria, se il processore che interpola il mosaico di tre colori lavora bene, un'immagine da 8 megapixel ricavata da un 10-12 megapixel avrà entro un certo limite più dettagli di quest'ultima a parità di megapixel.
Se vi volete divertire e fare una prova prendete i file della SIGMA DP1 oppure della SIGMA SD 14 da 4 megapixel e interpolateli con un programma tipo Photozoom oppure Genuine Fractals, otterrete dei file da 12 megapixel che hanno lo stesso dettaglio o quasi dei file che escono da i sensori che hanno 12 megapixel che seguono lo schema di bayer, e questo perchè ad ogni pixel viene assegnato durante il campionamento il valore di RGB che ha realmente.
+
+
=
Ciao!
Quindi , in teoria, se il processore che interpola il mosaico di tre colori lavora bene, un'immagine da 8 megapixel ricavata da un 10-12 megapixel avrà entro un certo limite più dettagli di quest'ultima a parità di megapixel.
Ciao!
Ciao!
Ciao,
grazie della spiegazione ma scusa la mia difficoltà. Quindi se ho ben capito con la mia D80 se scatto a 5,6Mpx potrei avere più dettaglio che scattando a 10 mpx? E per quanto riguarda la scala tonale e gamma dinamico avrei dei vantaggi?
Grazie
Umberto
Ciao,
grazie della spiegazione ma scusa la mia difficoltà. Quindi se ho ben capito con la mia D80 se scatto a 5,6Mpx potrei avere più dettaglio che scattando a 10 mpx? E per quanto riguarda la scala tonale e gamma dinamico avrei dei vantaggi?
Grazie
Umberto
grazie della spiegazione ma scusa la mia difficoltà. Quindi se ho ben capito con la mia D80 se scatto a 5,6Mpx potrei avere più dettaglio che scattando a 10 mpx? E per quanto riguarda la scala tonale e gamma dinamico avrei dei vantaggi?
Grazie
Umberto
no, lo escludo, da 10 a 5,6 è troppo, secondo me perderesti informazioni, ma non so quantificarti quante e soprattutto per quantificarle si dovrebbe conoscere il tipo esatto di interpolazione che applica il processore della macchina.
Considera che un elaboratore molto potente, interpolando un file da 4 megapixel per ottenerne 12 e utilizzando l'algoritmo s-pline impiega anche 1 minuto, questo per dirti che il filtro di interpolazione applicato dalle reflex è molto meno complesso e quindi molto meno preciso, anche se non ci si deve basare su questo esempio perchè i processori delle macchine digitali sono DEDICATI..
Comunque, il processo di interpolazione si arricchisce, a seconda del tipo, di un sacco di variabili, compreso un algoritmo che è alla base della generazione dei frattali... curve, cerchi, linee vengono quindi ricreate anche attraverso calcoli molto complessi...
Il mio modesto consiglio, essendo da tempo che studio questa cosa, è quello di scattare alla risoluzione nativa della macchina, cioè al massimo, nel caso dei sensori nikon, perchè in ogni caso il file che ne esce fuori andrà nuovamente interpolato per ottenere stampe di dimensioni 20x30 o 30x45 ad una risoluzione di 300 dpi che risulta essere lo standard...
tanto per fare un ripassino un 30 x 45 a 300 dpi necessita di un lato maggiore di 5315 pixel e quindi di una risoluzione di 18,83 megapixel... quindi come fare a stampare un ingrandimento del genere partendo da un file di 6-8-10-12 megapixel??
Attraverso l'interpolazione... ma qui si va OT
ciao!
Questa domanda non me la sono mai posta... ma sono contento di sapere la risposta ora!
@ Attraverso l'interpolazione... ma qui si va OT
no no, niente OT
in fondo doppiamo capire cosa succede quando si interpola
1 - col full resolution lo storage degli scatti non interpolati (diciamo 4000x3000 invece che 2000x1500) è quattro volte più pesante (in teoria), pensa un viaggio in cui scatti 3-4.000 foto, cosa faccio io col mio povero ArgosY HD182?
2 - vedo che sei addentro alla problematica e quindi potersti dirci quale è la reale (visibile) differenza tra un file interpolato su PS e uno interpolato al meglio, insomma cosa si noterebbe al 200% o giù di lì?
Grazie mille
no no, niente OT
in fondo doppiamo capire cosa succede quando si interpola
1 - col full resolution lo storage degli scatti non interpolati (diciamo 4000x3000 invece che 2000x1500) è quattro volte più pesante (in teoria), pensa un viaggio in cui scatti 3-4.000 foto, cosa faccio io col mio povero ArgosY HD182?
2 - vedo che sei addentro alla problematica e quindi potersti dirci quale è la reale (visibile) differenza tra un file interpolato su PS e uno interpolato al meglio, insomma cosa si noterebbe al 200% o giù di lì?
Grazie mille
Dunque:parte pratica a intuito,parte software per esperienza
Dato che la tua fotocamera è progettata per mettere a fuoco l'immagine nell'area del sensore, è ragionevole pensare che venga comunque usato tutto il sensore,dato che il viceversa presupporrebbe alterare l'assetto dell'ottica(ossia variare a parità di coordinata di piano di messa a fuoco l'area dell'immagine),del mirino, dell'esposimetro.
La macchina quindi scatta a risoluzione full e poi comprime a 5,6MPx..
Piccola considerazione teorica:quando si trattano dati, perderne alcuni non è mai un problema nè di prestazioni nè di risultato finale, ma se invece si vogliono ricreare dati che non si ha,allora saltano fuori i problemi.
Consideriamo una riduzione di 1:4 come esempio,ho una matrice A di 2x2 pixel e devo trovare la matrice B di 1x1 pixel corrispondente:
A =[2 1]
___[3 2]
A questo punto l'elaborazione è semplice (nel caso di rapporti non interi è meno semplice,ma la base è la stessa): qual è la media dei 4 punti?
B = [(2+1+3+2)/4] = [2]
Se invece parto da B e devo ricostruire A per fare un buon lavoro dovrò tenere conto dei pixel adiacenti al bordo di A, e il mio risultato sarà un'approssimazione(l'informazione originale l'ho persa in ogni caso) tanto migliore tanto quanto considero più punti adiacenti e relazioni più complesse tra di loro. Tradotto, evitando di calcolarci il grado di complessità computazionale ma andando a buon senso,"mi serve più potenza di calcolo".
Ecco quindi che diventa estremamente dispendioso in termini di processore utilizzato, buffer e consumo di batteria mettere in una reflex lo stesso algoritimo che può usare Ps o meglio ancora un suo plugin specializzato in quello.
Dall'altra parte, per ridurre, richiedo una potenza/memoria relativamente bassa gestibile senza problemi da ogni reflex, e dovendo ridurre l'informazione potenza di calcolo in più o in meno non fa differenza alcuna.
Corollario 1:Se da 10Mpx passo a 5,6Mpx ho:
-meno risoluzione della foto da 10MPx,
-meno dettagli/qualità che ho nella foto da 10MPx,
-un filo in più di qualità della stessa foto fatta da un sensore da 5,6MPx,questo perchè si presume che un sensore da 10MPx "catturi" meglio l'immagine.
Corollario 2:
Esistono casi degeneri in cui quasi tutti gli algoritmi hanno problemi,ad esempio:
-Moirè:se con 10MPx riesco a fotografare un cancello senza Moirè,se scalo a 5,6MPx posso trovarmelo tra i piedi,
-Riscalate Dario Argento:quando si riscala a una risoluzione inferiore,controllare sempre che la dimensione finale non sia molto vicina a quella iniziale, ad esempio il caso peggiore è A(NxN) B(N-1xN-1).
In questo caso l'algoritmo è obbligato a fare una media tra tutti i pixel e a ridisporla su una matrice che è quasi identica all'originale, e tanti più dettagli e contrasto ci sono in A tanto peggiore risulterà B, con effetti come righe doppie,righe scomparse,aberrazioni su una riga,blur ovunque..
Messaggio modificato da Aerospace il Sep 8 2008, 08:16 PM
Dato che la tua fotocamera è progettata per mettere a fuoco l'immagine nell'area del sensore, è ragionevole pensare che venga comunque usato tutto il sensore,dato che il viceversa presupporrebbe alterare l'assetto dell'ottica(ossia variare a parità di coordinata di piano di messa a fuoco l'area dell'immagine),del mirino, dell'esposimetro.
La macchina quindi scatta a risoluzione full e poi comprime a 5,6MPx..
Piccola considerazione teorica:quando si trattano dati, perderne alcuni non è mai un problema nè di prestazioni nè di risultato finale, ma se invece si vogliono ricreare dati che non si ha,allora saltano fuori i problemi.
Consideriamo una riduzione di 1:4 come esempio,ho una matrice A di 2x2 pixel e devo trovare la matrice B di 1x1 pixel corrispondente:
A =[2 1]
___[3 2]
A questo punto l'elaborazione è semplice (nel caso di rapporti non interi è meno semplice,ma la base è la stessa): qual è la media dei 4 punti?
B = [(2+1+3+2)/4] = [2]
Se invece parto da B e devo ricostruire A per fare un buon lavoro dovrò tenere conto dei pixel adiacenti al bordo di A, e il mio risultato sarà un'approssimazione(l'informazione originale l'ho persa in ogni caso) tanto migliore tanto quanto considero più punti adiacenti e relazioni più complesse tra di loro. Tradotto, evitando di calcolarci il grado di complessità computazionale ma andando a buon senso,"mi serve più potenza di calcolo".
Ecco quindi che diventa estremamente dispendioso in termini di processore utilizzato, buffer e consumo di batteria mettere in una reflex lo stesso algoritimo che può usare Ps o meglio ancora un suo plugin specializzato in quello.
Dall'altra parte, per ridurre, richiedo una potenza/memoria relativamente bassa gestibile senza problemi da ogni reflex, e dovendo ridurre l'informazione potenza di calcolo in più o in meno non fa differenza alcuna.
Corollario 1:Se da 10Mpx passo a 5,6Mpx ho:
-meno risoluzione della foto da 10MPx,
-meno dettagli/qualità che ho nella foto da 10MPx,
-un filo in più di qualità della stessa foto fatta da un sensore da 5,6MPx,questo perchè si presume che un sensore da 10MPx "catturi" meglio l'immagine.
Corollario 2:
Esistono casi degeneri in cui quasi tutti gli algoritmi hanno problemi,ad esempio:
-Moirè:se con 10MPx riesco a fotografare un cancello senza Moirè,se scalo a 5,6MPx posso trovarmelo tra i piedi,
-Riscalate Dario Argento:quando si riscala a una risoluzione inferiore,controllare sempre che la dimensione finale non sia molto vicina a quella iniziale, ad esempio il caso peggiore è A(NxN) B(N-1xN-1).
In questo caso l'algoritmo è obbligato a fare una media tra tutti i pixel e a ridisporla su una matrice che è quasi identica all'originale, e tanti più dettagli e contrasto ci sono in A tanto peggiore risulterà B, con effetti come righe doppie,righe scomparse,aberrazioni su una riga,blur ovunque..
Messaggio modificato da Aerospace il Sep 8 2008, 08:16 PM
Dunque:parte pratica a intuito,parte software per esperienza
Dato che la tua fotocamera è progettata per mettere a fuoco l'immagine nell'area del sensore, è ragionevole pensare che venga comunque usato tutto il sensore,dato che il viceversa presupporrebbe alterare l'assetto dell'ottica(ossia variare a parità di coordinata di piano di messa a fuoco l'area dell'immagine),del mirino, dell'esposimetro.
La macchina quindi scatta a risoluzione full e poi comprime a 5,6MPx..
Piccola considerazione teorica:quando si trattano dati, perderne alcuni non è mai un problema nè di prestazioni nè di risultato finale, ma se invece si vogliono ricreare dati che non si ha,allora saltano fuori i problemi.
Consideriamo una riduzione di 1:4 come esempio,ho una matrice A di 2x2 pixel e devo trovare la matrice B di 1x1 pixel corrispondente:
A =[2 1]
___[3 2]
A questo punto l'elaborazione è semplice (nel caso di rapporti non interi è meno semplice,ma la base è la stessa): qual è la media dei 4 punti?
B = [(2+1+3+2)/4] = [2]
Se invece parto da B e devo ricostruire A per fare un buon lavoro dovrò tenere conto dei pixel adiacenti al bordo di A, e il mio risultato sarà un'approssimazione(l'informazione originale l'ho persa in ogni caso) tanto migliore tanto quanto considero più punti adiacenti e relazioni più complesse tra di loro. Tradotto, evitando di calcolarci il grado di complessità computazionale ma andando a buon senso,"mi serve più potenza di calcolo".
Ecco quindi che diventa estremamente dispendioso in termini di processore utilizzato, buffer e consumo di batteria mettere in una reflex lo stesso algoritimo che può usare Ps o meglio ancora un suo plugin specializzato in quello.
Dall'altra parte, per ridurre, richiedo una potenza/memoria relativamente bassa gestibile senza problemi da ogni reflex, e dovendo ridurre l'informazione potenza di calcolo in più o in meno non fa differenza alcuna.
Corollario 1:Se da 10Mpx passo a 5,6Mpx ho:
-meno risoluzione della foto da 10MPx,
-meno dettagli/qualità che ho nella foto da 10MPx,
-un filo in più di qualità della stessa foto fatta da un sensore da 5,6MPx,questo perchè si presume che un sensore da 10MPx "catturi" meglio l'immagine.
Corollario 2:
Esistono casi degeneri in cui quasi tutti gli algoritmi hanno problemi,ad esempio:
-Moirè:se con 10MPx riesco a fotografare un cancello senza Moirè,se scalo a 5,6MPx posso trovarmelo tra i piedi,
-Riscalate Dario Argento:quando si riscala a una risoluzione inferiore,controllare sempre che la dimensione finale non sia molto vicina a quella iniziale, ad esempio il caso peggiore è A(NxN) B(N-1xN-1).
In questo caso l'algoritmo è obbligato a fare una media tra tutti i pixel e a ridisporla su una matrice che è quasi identica all'originale, e tanti più dettagli e contrasto ci sono in A tanto peggiore risulterà B, con effetti come righe doppie,righe scomparse,aberrazioni su una riga,blur ovunque..
Dato che la tua fotocamera è progettata per mettere a fuoco l'immagine nell'area del sensore, è ragionevole pensare che venga comunque usato tutto il sensore,dato che il viceversa presupporrebbe alterare l'assetto dell'ottica(ossia variare a parità di coordinata di piano di messa a fuoco l'area dell'immagine),del mirino, dell'esposimetro.
La macchina quindi scatta a risoluzione full e poi comprime a 5,6MPx..
Piccola considerazione teorica:quando si trattano dati, perderne alcuni non è mai un problema nè di prestazioni nè di risultato finale, ma se invece si vogliono ricreare dati che non si ha,allora saltano fuori i problemi.
Consideriamo una riduzione di 1:4 come esempio,ho una matrice A di 2x2 pixel e devo trovare la matrice B di 1x1 pixel corrispondente:
A =[2 1]
___[3 2]
A questo punto l'elaborazione è semplice (nel caso di rapporti non interi è meno semplice,ma la base è la stessa): qual è la media dei 4 punti?
B = [(2+1+3+2)/4] = [2]
Se invece parto da B e devo ricostruire A per fare un buon lavoro dovrò tenere conto dei pixel adiacenti al bordo di A, e il mio risultato sarà un'approssimazione(l'informazione originale l'ho persa in ogni caso) tanto migliore tanto quanto considero più punti adiacenti e relazioni più complesse tra di loro. Tradotto, evitando di calcolarci il grado di complessità computazionale ma andando a buon senso,"mi serve più potenza di calcolo".
Ecco quindi che diventa estremamente dispendioso in termini di processore utilizzato, buffer e consumo di batteria mettere in una reflex lo stesso algoritimo che può usare Ps o meglio ancora un suo plugin specializzato in quello.
Dall'altra parte, per ridurre, richiedo una potenza/memoria relativamente bassa gestibile senza problemi da ogni reflex, e dovendo ridurre l'informazione potenza di calcolo in più o in meno non fa differenza alcuna.
Corollario 1:Se da 10Mpx passo a 5,6Mpx ho:
-meno risoluzione della foto da 10MPx,
-meno dettagli/qualità che ho nella foto da 10MPx,
-un filo in più di qualità della stessa foto fatta da un sensore da 5,6MPx,questo perchè si presume che un sensore da 10MPx "catturi" meglio l'immagine.
Corollario 2:
Esistono casi degeneri in cui quasi tutti gli algoritmi hanno problemi,ad esempio:
-Moirè:se con 10MPx riesco a fotografare un cancello senza Moirè,se scalo a 5,6MPx posso trovarmelo tra i piedi,
-Riscalate Dario Argento:quando si riscala a una risoluzione inferiore,controllare sempre che la dimensione finale non sia molto vicina a quella iniziale, ad esempio il caso peggiore è A(NxN) B(N-1xN-1).
In questo caso l'algoritmo è obbligato a fare una media tra tutti i pixel e a ridisporla su una matrice che è quasi identica all'originale, e tanti più dettagli e contrasto ci sono in A tanto peggiore risulterà B, con effetti come righe doppie,righe scomparse,aberrazioni su una riga,blur ovunque..
giuste considerazioni, io credo però che tutto parta da come i dati vengono campionati...
purtroppo , come detto sopra , ogni 4 pixel vengono raccolte le informazioni dei 3 colori e quindi il risultato dell'immagine è , gia da subito un'interpolazione....
Secondo me partendo da un file da 12 megapixel "Bayer" si potrebbe scendere tramite un downsampling e non perdere dettaglio, di quanto non so calcolarlo ... dico questo perchè dopo vari test ho potuto verificare che da file di 4 megapixel e spiccioli ottenuto con il massimo del dettaglio (Foveon) di ottengono file da 12 megapixel strabilianti....
Questa discussione oggi mi ha portato a scrivere un minitest con una prova che testimonia quello che dico... sarebbe interessante sviluppare questa discussione... vediamo un po'
Certo che sarebbe bello e sopratutto istruttivo se partecipassero al forum anche persone come l'ing. Maio o V. Franchini (eccezionale il suo intervento su sensori e rumore).
Intanto ringrazio tutti quelli che sono intervenuti sino ad ora.
Quello che mi sfugge più di tutto é non tanto il fattore nitidezza, quanto l'influenza che può avere o meno la riduzione da 10mpx a 5,6mpx sulle tonalità dei colori ed eventualmente sulla latitudine d'esposizione del sensore, oltre che sul rumore.
Se il rumore si riducesse potrei optare per una risoluzione minore ma con rumore più basso operando a sensibilità estreme?
Cioa e buona giornata a tutti
Umberto
Intanto ringrazio tutti quelli che sono intervenuti sino ad ora.
Quello che mi sfugge più di tutto é non tanto il fattore nitidezza, quanto l'influenza che può avere o meno la riduzione da 10mpx a 5,6mpx sulle tonalità dei colori ed eventualmente sulla latitudine d'esposizione del sensore, oltre che sul rumore.
Se il rumore si riducesse potrei optare per una risoluzione minore ma con rumore più basso operando a sensibilità estreme?
Cioa e buona giornata a tutti
Umberto
Certo che sarebbe bello e sopratutto istruttivo se partecipassero al forum anche persone come l'ing. Maio o V. Franchini (eccezionale il suo intervento su sensori e rumore).
Intanto ringrazio tutti quelli che sono intervenuti sino ad ora.
Quello che mi sfugge più di tutto é non tanto il fattore nitidezza, quanto l'influenza che può avere o meno la riduzione da 10mpx a 5,6mpx sulle tonalità dei colori ed eventualmente sulla latitudine d'esposizione del sensore, oltre che sul rumore.
Se il rumore si riducesse potrei optare per una risoluzione minore ma con rumore più basso operando a sensibilità estreme?Cioa e buona giornata a tutti
Umberto
Intanto ringrazio tutti quelli che sono intervenuti sino ad ora.
Quello che mi sfugge più di tutto é non tanto il fattore nitidezza, quanto l'influenza che può avere o meno la riduzione da 10mpx a 5,6mpx sulle tonalità dei colori ed eventualmente sulla latitudine d'esposizione del sensore, oltre che sul rumore.
Se il rumore si riducesse potrei optare per una risoluzione minore ma con rumore più basso operando a sensibilità estreme?Cioa e buona giornata a tutti
Umberto
Esatto
ma non ho mai trovato uno straccio di risposta in merito
Certo che sarebbe bello e sopratutto istruttivo se partecipassero al forum anche persone come l'ing. Maio o V. Franchini (eccezionale il suo intervento su sensori e rumore).
Intanto ringrazio tutti quelli che sono intervenuti sino ad ora.
Quello che mi sfugge più di tutto é non tanto il fattore nitidezza, quanto l'influenza che può avere o meno la riduzione da 10mpx a 5,6mpx sulle tonalità dei colori ed eventualmente sulla latitudine d'esposizione del sensore, oltre che sul rumore.
Se il rumore si riducesse potrei optare per una risoluzione minore ma con rumore più basso operando a sensibilità estreme?
Cioa e buona giornata a tutti
Umberto
Intanto ringrazio tutti quelli che sono intervenuti sino ad ora.
Quello che mi sfugge più di tutto é non tanto il fattore nitidezza, quanto l'influenza che può avere o meno la riduzione da 10mpx a 5,6mpx sulle tonalità dei colori ed eventualmente sulla latitudine d'esposizione del sensore, oltre che sul rumore.
Se il rumore si riducesse potrei optare per una risoluzione minore ma con rumore più basso operando a sensibilità estreme?
Cioa e buona giornata a tutti
Umberto
Dai ragazzi fatevi avanti .
Proprio non c'é nessun tecnico che ci può chiarire la questione ?
Umberto
....quanto l'influenza che può avere o meno la riduzione da 10mpx a 5,6mpx sulle tonalità dei colori ed eventualmente sulla latitudine d'esposizione del sensore, oltre che sul rumore.
Se il rumore si riducesse potrei optare per una risoluzione minore ma con rumore più basso operando a sensibilità estreme?
....
Se il rumore si riducesse potrei optare per una risoluzione minore ma con rumore più basso operando a sensibilità estreme?
....
Ciao
Non ho capito in tutta questa discussione quale è il problema.
Se usate una risoluzione inferiore del JPEG la macchina usa sempre tutto il sensore ma ricampiona l'immagine riducendola ad un numero inferiore di pixel per lato. Lo stesso che fareste in Photoshop. La qualità della riduzione dipende dall'algoritmo usato. Di solito è comunque inferiore a quella di una riduzione eseguita in postproduzione via software (partendo da un RAW).
Quindi qualsiasi perdita di qualità è solo dovuta al ricampionamento e influenza relativamente poco sia le tonalità che altro. Il rumore percepito potrebbe essere minore ma solo perchè l'immagine contiene meno pixel e quindi è meno dettagliata ed inoltre l'algoritmo di riduzione può mascherare il rumore.
Considerate che anche la qualità del file JPEG come compressione influenza parecchio il tutto.
Il rumore fa parte dell'acquisizione del sensore. Qualsiasi tentativo di ridurlo a posteriori (non usando tecniche come il dark frame) sull'immagine porta ad uno scadimento di dettaglio.
Saluti
Ciao
Non ho capito in tutta questa discussione quale è il problema.
Se usate una risoluzione inferiore del JPEG la macchina usa sempre tutto il sensore ma ricampiona l'immagine riducendola ad un numero inferiore di pixel per lato. Lo stesso che fareste in Photoshop. La qualità della riduzione dipende dall'algoritmo usato. Di solito è comunque inferiore a quella di una riduzione eseguita in postproduzione via software (partendo da un RAW).
Quindi qualsiasi perdita di qualità è solo dovuta al ricampionamento e influenza relativamente poco sia le tonalità che altro. Il rumore percepito potrebbe essere minore ma solo perchè l'immagine contiene meno pixel e quindi è meno dettagliata ed inoltre l'algoritmo di riduzione può mascherare il rumore.
Considerate che anche la qualità del file JPEG come compressione influenza parecchio il tutto.
Il rumore fa parte dell'acquisizione del sensore. Qualsiasi tentativo di ridurlo a posteriori (non usando tecniche come il dark frame) sull'immagine porta ad uno scadimento di dettaglio.
Saluti
Non ho capito in tutta questa discussione quale è il problema.
Se usate una risoluzione inferiore del JPEG la macchina usa sempre tutto il sensore ma ricampiona l'immagine riducendola ad un numero inferiore di pixel per lato. Lo stesso che fareste in Photoshop. La qualità della riduzione dipende dall'algoritmo usato. Di solito è comunque inferiore a quella di una riduzione eseguita in postproduzione via software (partendo da un RAW).
Quindi qualsiasi perdita di qualità è solo dovuta al ricampionamento e influenza relativamente poco sia le tonalità che altro. Il rumore percepito potrebbe essere minore ma solo perchè l'immagine contiene meno pixel e quindi è meno dettagliata ed inoltre l'algoritmo di riduzione può mascherare il rumore.
Considerate che anche la qualità del file JPEG come compressione influenza parecchio il tutto.
Il rumore fa parte dell'acquisizione del sensore. Qualsiasi tentativo di ridurlo a posteriori (non usando tecniche come il dark frame) sull'immagine porta ad uno scadimento di dettaglio.
Saluti
Ciao,
no io mi sto riferendo comunque al raw, visto il jpeg in ripresa non lo uso.
Umberto
Ciao
Non mi risultava che il RAW possa essere salvato a risoluzioni differenti.
Saluti
Non mi risultava che il RAW possa essere salvato a risoluzioni differenti.
Saluti
OPS!!!
Hai ragione
Dal che si intuisce che non ho ancora provato ad usare una risoluzione inferiore.
Ti spiego allora il perché, oltre alla pura curiosità e voglia di imparare (cosa di cui non stancherò mai anche se sono quasi in pensione) a volte mi capita di scattare foto a compleanni o a feste scolastiche dove poi si faranno le classiche stampine 10 X 15 e dove tanta risoluzione é inutile. La questione rumore invece mi interessa di più in quanto, se non ho capito male da quanto letto anche altrove, potrebbe essere minore riducendo da 10 a 5,6 i mpx.
Ciao
Umberto
...La questione rumore invece mi interessa di più in quanto, se non ho capito male da quanto letto anche altrove, potrebbe essere minore riducendo da 10 a 5,6 i mpx.
...
...
Ciao
Per il rumore nel JPEG come già detto non ci fai nulla. Il rumore può apparire minore solo e semplicemente perchè l'immagine è stata ricampionata a dimensione inferiore e quindi rielaborata e compressa in JPEG ma il rumore originale è invariato. Quindi...
Se vuoi ridurre il rumore realmente devo usare la funzione di NX/ACR apposita oppure un filtro o plugin di PS.
Saluti
Ciao
Per il rumore nel JPEG come già detto non ci fai nulla. Il rumore può apparire minore solo e semplicemente perchè l'immagine è stata ricampionata a dimensione inferiore e quindi rielaborata e compressa in JPEG ma il rumore originale è invariato. Quindi...
Se vuoi ridurre il rumore realmente devo usare la funzione di NX/ACR apposita oppure un filtro o plugin di PS.
Saluti
Per il rumore nel JPEG come già detto non ci fai nulla. Il rumore può apparire minore solo e semplicemente perchè l'immagine è stata ricampionata a dimensione inferiore e quindi rielaborata e compressa in JPEG ma il rumore originale è invariato. Quindi...
Se vuoi ridurre il rumore realmente devo usare la funzione di NX/ACR apposita oppure un filtro o plugin di PS.
Saluti
OK ti ringrazio.
Umberto