FORUM NIKONCLUB

Condividi le tue conoscenze, aiuta gli altri e diventa un esperto.

Chiudi
TITOLO*
DOMANDA*
AREA TEMATICA INTERESSATA*
Superrisoluzione. Superdettagli?
Test sulla superrisoluzione con Photoacute
Rispondi Nuova Discussione
piotr70
Messaggio: #1
Ciao a tutti,
prima di comprare la reflex usavo Photoacute per migliorare i dettagli delle foto che facevo con la Bridge. Photoacute è un programmino, a mio avviso molto ben fatto, che permette di fondere (stacking) più immagini per migliorarne alcuni aspetti, nel caso che interessa a me sono la risoluzione e i dettagli. La super-risoluzione permette di ottenere immagini da circa 61MP partendo da 9 (nel mio caso) immagini da 16 MP della D5100 (ne basterebbero 5). Applica algoritmi statistici che per ogni punto dell'immagine di base (una delle 9) esamina i dati dalle altre 8 immagini (qualche minima differenza c'è sempre, anche se scatti su cavalletto) e migliora il dettaglio in quel punto, riduce il rumore e aumenta la definizione. Processa sia RAW che JPEG. Io uso i RAW e Photoacute restituisce un altro RAW, in formato Adobe .dng, che si apre e si processa normalmente con ACR.
Non pensavo che con una reflex si ottenessero benefici, e infatti sono marginali, ma alla prova dell'ingrandimento al 100% (e oltre) l'occhio coglie le differenze. Inoltre, l'immagine in superrisoluzione risponde meglio alla maschera di contrasto, perchè i dettagli ci sono e sono più...definiti.
Allego tre immagini
La prima è il .dng ottenuto dalla fusione dei nove scatti. Aperto in ACR senza modifiche, passato in CS5, resized a 1000 punti, 8bit, sRGB e salvato in jpeg (ho rimosso un uccello che passava).
La seconda è il primo dei nove scatti fusi, quindi stessissima scena. Stessa procedura (l'uccello si vede).
La terza è lo screenshot di Photoshop, a finestre sovrapposte, che mostra lo stesso dettaglio dell'immagine in super-risoluzione portata al 100%. Da notare che per avere lo stesso dettaglio nell'immagine normale bisogna ingrandire a circa il 190%
Vedete che le linee sono molto più gentili, meno spezzate, e c'è di base più contrasto tra le luci? Inoltre (opzionale) ha ridotto, se non proprio rimosso, l'aberrazione cromatica.

Superrisoluzione:
IPB Immagine
Visualizza sul GALLERY : 526.1 KB

Normale:
IPB Immagine
Visualizza sul GALLERY : 564.5 KB

Dettaglio:
IPB Immagine
Visualizza sul GALLERY : 537.6 KB

Per ragioni di spazio non ho messo in galleria le immagini a dimensione piena. Se qualcuno è interessato mi faccia sapere che posso fornirla in qualche modo.

Commenti?

Ciao
Pietro
buzz
Staff
Messaggio: #2
L'unico commento che mi viene in mente è che quello che non c'è non lo puoi inventare.
a risoluzione nativa la si può prendere in giro, ingrandire una immagine anche di 100 volte, con programmi tipo genuine fractal o questo, ma se hai fotografato un giornale dove non distingui le lettere, non esisterà nessun programma in grado di ricostruirle e fartelo leggere.
Ovvio che in una foto con più risoluzione artificiosa non vedrai le linee spezzate, per il semplice motivo che gli spazi sono riempiti da pixel di c olore simile, calcolati in base a quelli adiacenti nelle 8 direzioni.
Ma ripeto, quello che non è stato catturato, non c'è e non ci sarà.
Clau_S
Messaggio: #3
QUOTE(pietro.toschi@gmail.com @ Aug 29 2012, 06:15 PM) *
Non pensavo che con una reflex si ottenessero benefici, e infatti sono marginali, ma alla prova dell'ingrandimento al 100% (e oltre) l'occhio coglie le differenze. Inoltre, l'immagine in superrisoluzione risponde meglio alla maschera di contrasto, perchè i dettagli ci sono e sono più...definiti.
Allego tre immagini
La prima è il .dng ottenuto dalla fusione dei nove scatti. Aperto in ACR senza modifiche, passato in CS5, resized a 1000 punti, 8bit, sRGB e salvato in jpeg (ho rimosso un uccello che passava).
La seconda è il primo dei nove scatti fusi, quindi stessissima scena. Stessa procedura (l'uccello si vede).


A meno che non scatti una foto dove il dettaglio è importante non credo faccia differenza se in una scena si veda un sassolino oppure no. Lo stesso, se non devi stampare grandi formati o croppare all'inverosimile, ti serve davvero questa super-risoluzione? A parte che concordo con quanto detto da Buzz (aumento di risoluzione non significa aumento di dettaglio), tra le due foto (che sarebbero da comparare entrambe al 100%) preferisco addirittura la seconda. Quella unita è molto più piatta di contrasto.

QUOTE(pietro.toschi@gmail.com @ Aug 29 2012, 06:15 PM) *
La terza è lo screenshot di Photoshop, a finestre sovrapposte, che mostra lo stesso dettaglio dell'immagine in super-risoluzione portata al 100%. Da notare che per avere lo stesso dettaglio nell'immagine normale bisogna ingrandire a circa il 190%
Vedete che le linee sono molto più gentili, meno spezzate, e c'è di base più contrasto tra le luci? Inoltre (opzionale) ha ridotto, se non proprio rimosso, l'aberrazione cromatica.
Commenti?


Questa è la scoperta dell'acqua calda! blink.gif
O ti sfugge la differenza tra dettaglio e risoluzione o non so che vuoi dimostrare. Il dettaglio di un'immagine si giudica al 100% di ingrandimento. Se lo superi non aumeniti il dettaglio ma solo l'ingrandimento di visione ed è normale che qualsiasi fattore oltre il 100% di zoom ti renda evidenti i pixel. Non è che le linee sono più spezzate, semplicemente sono visualizzate oltre la loro risoluzione. Ingrandisci l'altra immagine al 190% e le trovi spezzate pure lì. Come dire che un liquido al microscopio è più batterico che a occhio nudo rolleyes.gif

Messaggio modificato da Clau_S il Aug 29 2012, 10:31 PM
rolubich
Messaggio: #4
QUOTE(Clau_S @ Aug 29 2012, 11:30 PM) *
A meno che non scatti una foto dove il dettaglio è importante non credo faccia differenza se in una scena si veda un sassolino oppure no. Lo stesso, se non devi stampare grandi formati o croppare all'inverosimile, ti serve davvero questa super-risoluzione? A parte che concordo con quanto detto da Buzz (aumento di risoluzione non significa aumento di dettaglio), tra le due foto (che sarebbero da comparare entrambe al 100%) preferisco addirittura la seconda. Quella unita è molto più piatta di contrasto.

Questa è la scoperta dell'acqua calda! blink.gif
O ti sfugge la differenza tra dettaglio e risoluzione o non so che vuoi dimostrare. Il dettaglio di un'immagine si giudica al 100% di ingrandimento. Se lo superi non aumeniti il dettaglio ma solo l'ingrandimento di visione ed è normale che qualsiasi fattore oltre il 100% di zoom ti renda evidenti i pixel. Non è che le linee sono più spezzate, semplicemente sono visualizzate oltre la loro risoluzione. Ingrandisci l'altra immagine al 190% e le trovi spezzate pure lì. Come dire che un liquido al microscopio è più batterico che a occhio nudo rolleyes.gif


L'esigenza di avere una risoluzione maggiore è una cosa soggttiva, per stampare a grandi dimensioni serve molto, altrimenti non ci sarebbero così tante D800 in giro e Nikon non avrebbe fatto la versione D800E che fornisce un'aumento di risoluzione veramente minimo, molto minore della differenza fra le due immagini a confronto.

Hai ragione a dire che vedere un'immagine a monitor oltre il 100% non ha molto senso, però se riducessi la foto con più risoluzione e le guardassi entrambe al 100% quella con più risoluzione originaria sarebbe più nitida.


QUOTE(buzz @ Aug 29 2012, 10:30 PM) *
L'unico commento che mi viene in mente è che quello che non c'è non lo puoi inventare.
a risoluzione nativa la si può prendere in giro, ingrandire una immagine anche di 100 volte, con programmi tipo genuine fractal o questo, ma se hai fotografato un giornale dove non distingui le lettere, non esisterà nessun programma in grado di ricostruirle e fartelo leggere.
Ovvio che in una foto con più risoluzione artificiosa non vedrai le linee spezzate, per il semplice motivo che gli spazi sono riempiti da pixel di c olore simile, calcolati in base a quelli adiacenti nelle 8 direzioni.
Ma ripeto, quello che non è stato catturato, non c'è e non ci sarà.


Bisogna tenere in conto però che, in un'immagine prodotta con un sensore con matrice Bayer, i 2/3 delle informazioni dei pixel vengono desunte e non sono direttamente misurate, sono quindi quasi inventate.

E' per questo che la tecnica della super-risoluzione mediante elaborazione di più immagini fornisce risultati apprezzabili, perchè nell'immagine finale tutte le informazioni dei pixel saranno misurate.
E' un po' la stessa cosa che ridurre un file D800 alle dimensioni di una D700, il primo avrà più dettaglio.

Non è solo una questione di non vedere le linee spezzate, la risoluzione effettiva finale effettivamente aumenta e quindi c'è la possibilità di registrare un dettaglio che nella foto singola non c'è.

Chiaramente il grosso limite è che la tecnica può essere usata con soggetti statici e cavalletto, anche se il programma riesce a gestire piccole zone in movimento (per esempio una zona con fronde di un albero mosse dal vento) non applicando in quella zona la fusione degli scatti.

Altra applicazione del programma è la fusione di più scatti per ridurre il rumore.
buzz
Staff
Messaggio: #5
QUOTE(rolubich @ Aug 30 2012, 09:13 AM) *
Bisogna tenere in conto però che, in un'immagine prodotta con un sensore con matrice Bayer, i 2/3 delle informazioni dei pixel vengono desunte e non sono direttamente misurate, sono quindi quasi inventate.


In una matrice di bayer, ad essere desunti sono i colori. Le informazioni sulla "luminanza" ovvero sul dettaglio di immagine vengono riprodotte da tutti i pixel, indipendentemente dal colore del filtro sovrapposto.
piotr70
Messaggio: #6
QUOTE(buzz @ Aug 29 2012, 10:30 PM) *
L'unico commento che mi viene in mente è che quello che non c'è non lo puoi inventare.

Ma la realtà i dettagli li contiene eccome. E' il complesso sensore+lente+software che se li perde!
QUOTE(buzz @ Aug 29 2012, 10:30 PM) *
a risoluzione nativa la si può prendere in giro, ingrandire una immagine anche di 100 volte, con programmi tipo genuine fractal o questo, ma se hai fotografato un giornale dove non distingui le lettere, non esisterà nessun programma in grado di ricostruirle e fartelo leggere.

beh, no! Esiste eccome. Photoacute ed altri fanno proprio questo, usano più scatti per ricostruire i dettagli persi a causa dell'interpolazione e del LPF basandosi sul fatto che quello che non c'è in uno scatto POTREBBE essere presente in un altro scatto della stessa scena. Con questa tecnica si può anche ridurre il rumore senza perdere dettaglio. Di fatto quello che fanno è correggere l'errore indotto dall'interpolazione necessaria per l'uso del filtro di bayern e quindi riducono anche l'effetto del conseguente filtro passa basso. Nella D800E Nikon ha potuto togliere l'LPF perchè la risoluzione è così alta che il suo uso è meno necessario, ma comunque capita che qualche errore nella ricostruzione dei dettagli molto fini te lo becchi lo stesso.
QUOTE(buzz @ Aug 29 2012, 10:30 PM) *
Ovvio che in una foto con più risoluzione artificiosa
Perchè artificiosa? E' questo che ti sfugge: non è artificiosa. Si tratta di dettagli effettivamente catturati da uno degli scatti!
QUOTE
non vedrai le linee spezzate, per il semplice motivo che gli spazi sono riempiti da pixel di c olore simile, calcolati in base a quelli adiacenti nelle 8 direzioni.
Ma ripeto, quello che non è stato catturato, non c'è e non ci sarà.


Max Lucotti
Messaggio: #7
Ciao, io sono uno di quelli che, ogni tanto usano photoacute, quando la situazione lo permette.

Ad esempio, in questa
Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.

fatta con una d90 sul trepiede, 9scatti, è stata stampata 150 x 100.... wink.gif

Oltre a una pulizia di immagine notevole, senza alcun rumore, noto a fortissimi ingrandimenti (200%) un migliore microcontrasto e un leggero aumento della nitidezza, naturalmente se si fanno le cose per bene nei 9 scatti.
Temo che gli amici coni commenti che fanno non lo abbiano mai provato, il vero limite è che tutto deve essere assolutamante fermo, se no dove qualcosa si è mosso rischi che la superrisoluzione si riduca ad una risoluzione più bassa di un unico scatto (mi è capitato) e in quel caso è meglio accontentarsi dello scatto unico.

Ciao

Max
piotr70
Messaggio: #8
QUOTE(Clau_S @ Aug 29 2012, 11:30 PM) *
A meno che non scatti una foto dove il dettaglio è importante non credo faccia differenza se in una scena si veda un sassolino oppure no. Lo stesso, se non devi stampare grandi formati o croppare all'inverosimile, ti serve davvero questa super-risoluzione? A parte che concordo con quanto detto da Buzz (aumento di risoluzione non significa aumento di dettaglio), tra le due foto (che sarebbero da comparare entrambe al 100%) preferisco addirittura la seconda. Quella unita è molto più piatta di contrasto.
Questa è la scoperta dell'acqua calda! blink.gif
O ti sfugge la differenza tra dettaglio e risoluzione o non so che vuoi dimostrare.
...che si può migliorare la resa dei dettagli aumentando la risoluzione con una tecnica che corregge in parte gli errori indotti dall'interpolazione e i dettagli tagliati dall'LPF.
QUOTE
Il dettaglio di un'immagine si giudica al 100% di ingrandimento. Se lo superi non aumeniti il dettaglio ma solo l'ingrandimento di visione ed è normale che qualsiasi fattore oltre il 100% di zoom ti renda evidenti i pixel. Non è che le linee sono più spezzate, semplicemente sono visualizzate oltre la loro risoluzione. Ingrandisci l'altra immagine al 190% e le trovi spezzate pure lì. Come dire che un liquido al microscopio è più batterico che a occhio nudo rolleyes.gif

Su questo hai ragione, avrei dovuto lasciare l'immagine normale al 100% e confrontarla con quella in superrisoluzione al 50% o giuù di lì. Magari ci riprovo...
piotr70
Messaggio: #9
QUOTE(buzz @ Aug 30 2012, 10:55 AM) *
In una matrice di bayer, ad essere desunti sono i colori. Le informazioni sulla "luminanza" ovvero sul dettaglio di immagine vengono riprodotte da tutti i pixel, indipendentemente dal colore del filtro sovrapposto.


Per costruire il dettaglio con fedeltà non ti basta la luminanza, ti serve il colore, altrimenti perdi in fedeltà (che perdi comunque per l'intepolazione e per il filtro).
piotr70
Messaggio: #10
QUOTE(Max Lucotti @ Aug 30 2012, 11:20 AM) *
Ciao, io sono uno di quelli che, ogni tanto usano photoacute, quando la situazione lo permette.

Ad esempio, in questa
Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.

fatta con una d90 sul trepiede, 9scatti, è stata stampata 150 x 100.... wink.gif

Oltre a una pulizia di immagine notevole, senza alcun rumore, noto a fortissimi ingrandimenti (200%) un migliore microcontrasto e un leggero aumento della nitidezza, naturalmente se si fanno le cose per bene nei 9 scatti.
Temo che gli amici coni commenti che fanno non lo abbiano mai provato, il vero limite è che tutto deve essere assolutamante fermo, se no dove qualcosa si è mosso rischi che la superrisoluzione si riduca ad una risoluzione più bassa di un unico scatto (mi è capitato) e in quel caso è meglio accontentarsi dello scatto unico.

Ciao

Max



Concordo al 100%: panorami, oggetti, tutto quello che sta fermo. Non serve a tutti, non risolve i problemi di tutti, ha un utilizzo limitato in queste poche situazioni. Trovo però che aumenti la nitidezza anche a dimensioni "normali" e consente di non utilizzare la solita maschera di contrasto che secondo me fa più danni che benefici.
rolubich
Messaggio: #11
QUOTE(buzz @ Aug 30 2012, 10:55 AM) *
In una matrice di bayer, ad essere desunti sono i colori. Le informazioni sulla "luminanza" ovvero sul dettaglio di immagine vengono riprodotte da tutti i pixel, indipendentemente dal colore del filtro sovrapposto.


E se hai dei fili d'erba tutti sul verde pensi non ci sia un vantaggio?

Se HASSELBLAD, che non è proprio l'uiltima arrivata, usa on-camera questa tecnica per produrre un file da 200MP con un sensore da 50MP vorrà pur dire qualcosa, o no? O pensi che abbiano messo sul mercato una fotocamera che sposta il sensore di 1,5 px ad ogni scatto (che non dev'essere proprio una cosa ne' semplice ne' poco costosa) per produrre un'immagine da 200MP che ha la stessa qualità di una ottenuta da interpolazione?

http://www.hasselbladusa.com/products/h-sy.../h4d-200ms.aspx

Che poi le applicazioni pratiche siano molto limitate sono perfettamente d'accordo.
buzz
Staff
Messaggio: #12
Distinguiamo l'acutanza apparente dalla presenza o meno di dettagli reali.
La caratteristica del digitale è che per quanto il campione sia accurato è un termine "finito", numerico, fatto da un numero finito di informazioni, al contrario dell'analogico nel quale in teoria le informazioni sono infinite.
Partendo da questo presupposto, se in un fotosito, che è il termine minimo di campionamento, non appare un dettaglio, non lo farai comparire con un colpo di bacchetta magica. Il dato è un pixel, avrà il suoc olore giusto o sbagliato, avrà la sua luminanza giusta o sbagliata, ma è quella e niente altro che quella.
se poi il programma utilizza una serie di scatti (ho visto fino a 9) basandosi sul normale errore per micromovimento, che riesce a catturare da uno degli scatti un dettaglio non presente in un altro, il discorso è diverso. Parliamo di "possibilità" e opportunità.
Per ottenere invece una mmagone pulta con alta sensazione di nitidezza, un uso sapiente della USM magari usata su diversi livelli, fa moltissimo, e credo sia l'uovo di colpmbo di questi programmi.

Per farmi capire meglio propongo un esempio: una foto al cielo stellato, una stella occupa 1/4 di un pixel. Questa verrà riprodotta come un punto di grigio di 1/4 di luminosità complessiva,grande un intero pixel, in quanto il singolo pixel non è in grado di spaccarsi in 4. E non ci sarà programma al mondo che conosce la realtà e farà diventare 1/4 quello che è rappresentato dall'intero. Semplicemente perchè non lo sa.

che poi il programma sia bello e restituisca una bella sensazione, non ne dubito, ma i principi della fisica difficilmente sono aggirabili.
Max Lucotti
Messaggio: #13
QUOTE(buzz @ Aug 30 2012, 12:04 PM) *
Distinguiamo l'acutanza apparente dalla presenza o meno di dettagli reali.
La caratteristica del digitale è che per quanto il campione sia accurato è un termine "finito", numerico, fatto da un numero finito di informazioni, al contrario dell'analogico nel quale in teoria le informazioni sono infinite.
Partendo da questo presupposto, se in un fotosito, che è il termine minimo di campionamento, non appare un dettaglio, non lo farai comparire con un colpo di bacchetta magica. Il dato è un pixel, avrà il suoc olore giusto o sbagliato, avrà la sua luminanza giusta o sbagliata, ma è quella e niente altro che quella.
se poi il programma utilizza una serie di scatti (ho visto fino a 9) basandosi sul normale errore per micromovimento, che riesce a catturare da uno degli scatti un dettaglio non presente in un altro, il discorso è diverso. Parliamo di "possibilità" e opportunità.
Per ottenere invece una mmagone pulta con alta sensazione di nitidezza, un uso sapiente della USM magari usata su diversi livelli, fa moltissimo, e credo sia l'uovo di colpmbo di questi programmi.

Per farmi capire meglio propongo un esempio: una foto al cielo stellato, una stella occupa 1/4 di un pixel. Questa verrà riprodotta come un punto di grigio di 1/4 di luminosità complessiva,grande un intero pixel, in quanto il singolo pixel non è in grado di spaccarsi in 4. E non ci sarà programma al mondo che conosce la realtà e farà diventare 1/4 quello che è rappresentato dall'intero. Semplicemente perchè non lo sa.

che poi il programma sia bello e restituisca una bella sensazione, non ne dubito, ma i principi della fisica difficilmente sono aggirabili.


..forse ti converrebbe provarlo, perchè non c'entra nulla con la USM (che dopo il processo viene comunque passata al solito) . link wink.gif
maxiclimb
Messaggio: #14
QUOTE(buzz @ Aug 30 2012, 12:04 PM) *
se poi il programma utilizza una serie di scatti (ho visto fino a 9) basandosi sul normale errore per micromovimento, che riesce a catturare da uno degli scatti un dettaglio non presente in un altro, il discorso è diverso. Parliamo di "possibilità" e opportunità.
.....

che poi il programma sia bello e restituisca una bella sensazione, non ne dubito, ma i principi della fisica difficilmente sono aggirabili.


Francesco, il programma funziona su un principio diverso dalla USM, e non aggira nessun principio fisico, anzi li sfrutta.
Sono proprio i tanti scatti diversi a permettere la cattura di informazioni leggermente differenti che vengono integrate tra di loro.
Io l'ho provato e in alcuni casi c'è una differenza notevole tra quello che si può fare con un semplice ricampionamento con Photoshop e invece usando questo software. Il limite è poterlo usare solo su soggetti statici, ma su quelli funziona bene.
Inoltre riduce drasticamente il rumore.

piotr70
Messaggio: #15
QUOTE(buzz @ Aug 30 2012, 12:04 PM) *
Distinguiamo l'acutanza apparente dalla presenza o meno di dettagli reali.
La caratteristica del digitale è che per quanto il campione sia accurato è un termine "finito", numerico, fatto da un numero finito di informazioni, al contrario dell'analogico nel quale in teoria le informazioni sono infinite.
Partendo da questo presupposto, se in un fotosito, che è il termine minimo di campionamento, non appare un dettaglio, non lo farai comparire con un colpo di bacchetta magica. Il dato è un pixel, avrà il suoc olore giusto o sbagliato, avrà la sua luminanza giusta o sbagliata, ma è quella e niente altro che quella.
se poi il programma utilizza una serie di scatti (ho visto fino a 9) basandosi sul normale errore per micromovimento, che riesce a catturare da uno degli scatti un dettaglio non presente in un altro, il discorso è diverso. Parliamo di "possibilità" e opportunità.

Si tratta esattamente di questo, ma non è causato (solo) dal micromovimento ma dall'opportunità (e non possibilità) che il sensore stesso non si trova mai nelle stesse identiche condizioni. E' molto probabile che lo stesso fotodiodo catturi informazioni diverse per lo stesso punto in ogni scatto. Tra uno scatto e l'altro, anche in una raffica veloce, sono così tante le cose che cambiano tra l'oggetto e il sensore: la temperatura del sensore, i movimenti e la temperatura dell'aria (e quindi il suo indice di rifrazione) la temperatura delle lenti, la temperatura dell'oggetto (e quindi il modo in cui riflette la luce), i micromovimenti. Se consideri che anche un solo fotone di differenza può cambiare la tensione restituita dal fotodiodo.... Quello che secondo me tu non comprendi è che la foto non rappresenta la realtà (e come potrebbe), ma una sua particolare configurazione in quel momento a meno di tutta una serie di errori di "campionamento". E' accademia che più campioni hai più accurata sarà la ricostruzione del segnale.
QUOTE(buzz @ Aug 30 2012, 12:04 PM) *
Per ottenere invece una mmagone pulta con alta sensazione di nitidezza, un uso sapiente della USM magari usata su diversi livelli, fa moltissimo, e credo sia l'uovo di colpmbo di questi programmi.

Guarda secondo me qui ti sbagli di grosso. La USM è una alterazione a posteriori dell'immagine tesa ad ingannare l'occhio. Distrugge dettagli fini per esaltare quelli più grossolani. Personalmente preferirei non dovervi ricorrere. Al contrario la Superrisoluzione trova quei dettagli fini che un solo scatto non poteva, per i limiti che abbiamo detto, trovare.
QUOTE(buzz @ Aug 30 2012, 12:04 PM) *
Per farmi capire meglio propongo un esempio: una foto al cielo stellato, una stella occupa 1/4 di un pixel. Questa verrà riprodotta come un punto di grigio di 1/4 di luminosità complessiva,grande un intero pixel, in quanto il singolo pixel non è in grado di spaccarsi in 4. E non ci sarà programma al mondo che conosce la realtà e farà diventare 1/4 quello che è rappresentato dall'intero. Semplicemente perchè non lo sa.

che poi il programma sia bello e restituisca una bella sensazione, non ne dubito, ma i principi della fisica difficilmente sono aggirabili.
Guarda che quello che dici non ha senso. L'affermazione "una stella occupa 1/4 di un pixel" che cosa significa?
Una stella emette luce, che giunge al sensore attraversando lo spazio, l'atmosfera, l'obiettivo. Passa per le microlenti bayer e alla fine colpisce il sensore e uno o più fotodiodi con una certa intensità (numero di fotoni) e il fotodiodo trasforma questa intensità luminosa in una corrente in uscita che un circuito di conversione trasforma in un numero a 14 bit facendo, in questo, una approssimazione (errore di campionamento). Il numero verrà registrato come valore di uno dei tre colori RGB per quel punto dell'immagine nel file RAW, assieme ad altre informazioni. L'algoritmo di interpolazione dedurrà il valore degli altri due colori su base statistica e produrrà una immagine in cui in quel punto del media di output c'è quella tripletta RGB. Quanti punti siano necessari per riprodurre quella stella dipende dalla risoluzione del sensore (quanti fotodiodi) e dalla risoluzione del media di output (quanti punti per pollice e quanti punti in totale).
buzz
Staff
Messaggio: #16
Proverò questo programma di sicuro, Ho capito che (purtroppo) per dare efficienza devo effettuare diversi scatti uguali della stessa scena, per cui non potrò applicarlo alle immagini già fatte ma devo scattare pensando di applicarlo.
buzz
Staff
Messaggio: #17
QUOTE(pietro.toschi@gmail.com @ Aug 30 2012, 03:05 PM) *
Guarda che quello che dici non ha senso. L'affermazione "una stella occupa 1/4 di un pixel" che cosa significa?
Una stella emette luce, che giunge al sensore attraversando lo spazio, l'atmosfera, l'obiettivo. Passa per le microlenti bayer e alla fine colpisce il sensore e uno o più fotodiodi con una certa intensità (numero di fotoni) e il fotodiodo trasforma questa intensità luminosa in una corrente in uscita che un circuito di conversione trasforma in un numero a 14 bit facendo, in questo, una approssimazione (errore di campionamento). Il numero verrà registrato come valore di uno dei tre colori RGB per quel punto dell'immagine nel file RAW, assieme ad altre informazioni. L'algoritmo di interpolazione dedurrà il valore degli altri due colori su base statistica e produrrà una immagine in cui in quel punto del media di output c'è quella tripletta RGB. Quanti punti siano necessari per riprodurre quella stella dipende dalla risoluzione del sensore (quanti fotodiodi) e dalla risoluzione del media di output (quanti punti per pollice e quanti punti in totale).



Probabilmente non mi sono saputo spiegare, magari dovrei usare dei disegni per essere più chiaro, cerco di fare un altro esempio:

Il discorso è teorico per cui dimentichiamoci la risoluzione delle ottiche e l'aria, ma parliamo di risoluzione del sensore.
Per comodità supponiamo un sensore con pixel di dimensioni di 10 micron, per cui in un millimetro ne avremo 100, capaci di risolvere teoricamente quindi 50 linee per millimetro. Se le linee bianche e nere cadono esattamente entro il confine dei fotositi, avremo una nitidezza eccellente, ma se le linee non fossero 50 ma 40 (quindi tepricamente risolvibili) o cadessero a metà tra un fotosito e l'altro, dovrebbe intervenire il calcolo per stabilirne la posizione, e le sbavature, in questo caso, sarebbero sicure. Sono proprio queste sbavature che generano la scarsa nitidezza.
Un programma di ricostruzione non sa se quello che è stato catturato dai fotositi sia una riga netta o una sequenza di linee grigio chiaro o grigio scuro, perchè non ha punti di riferimento certi, in quanto il fotosito adiacente non ha un colore bianco puro, ma anche lui cadendo in mezzo tra due righe avrà una tonalità di grigio non meglio definita. Allo stesso modo la stella che proiettata sul sensore occupa un quarto di fotosito, verrà vista come un ountino che lo illumina TUTTO, per cui il sensore la risolverà grossa come un fotosito e non piccola come un quarto di esso. Il colore e la luminosità sarà un calcolo con i pixel adiacenti, ma sempre partendo dalla minima unità che è appunto il fotosito.

spero di essere stato più chiaro, in caso porterò degli esempi che ho trovato anni fa in rete, che spiegavano il difetto, parlando della applicazione quasi d'obbligo della USM nelle foto, per compensarlo.

l'autore del trattato si chiama john bighelow, e nella prima pagina spiega con esempi e disegni cosa succede.


del resto, a conferma di quanto dico, basta vedere la scalettatura di una linea obliqua rappresentata con i pixel, quando si ingrandisce. Mica una linea obliqua è in quel modo, ma la risoluzione "finita" di un sensor non può che rappresentarla in quel modo.
 
Discussioni simili Iniziata da Forum Risposte Ultimo messaggio