FORUM NIKONCLUB

Condividi le tue conoscenze, aiuta gli altri e diventa un esperto.

Chiudi
TITOLO*
DOMANDA*
AREA TEMATICA INTERESSATA*
4 Pagine: V  < 1 2 3 4 >  
B&W con D200
Bianconero di luminanza sensore ?
Rispondi Nuova Discussione
Fabio Pianigiani
Messaggio: #26
Grazie per queste perle.
Utente cancellato
DEREGISTRATO
Messaggio: #27
QUOTE(Giuseppe Maio @ Sep 18 2006, 08:36 PM) *

...Il bianonero di "luminanza" amplifica ogni singolo pixel per equipararlo anche in base al fattore d'assorbimento del filtro ed in un dedicato algoritmo...

Gli altri metodi di conversione, invece, ...

Secondo me non è così (... e mo' mi censura un'altra volta... biggrin.gif ).

Innanzitutto per un sensore NON monocromatico, ma con matrice filtri colore, non si può parlare di "file luminanza" o "canale luminanza".
Il termine luminanza ha due accezioni: una fotometrica e una definita dal CIE.
In questo caso non soddisfa nè l'una, nè l'altra.

Se, ad esempio, fotografiamo un giallo puro, i pixel con filtro blu di un sensore ideale registreranno il valore zero.
Dovremmo dire che il soggetto in quei punti ha luminanza zero???

Se poi moltiplichiamo per il fattore correttivo del filtro, avremmo sempre 0*X=0, quindi il giallo in quei punti viene sempre nero puro e la foto assume un aspetto puntellato. Una ipotetica amplificazione correttiva, caso mai, aumenterebbe di molto il rumore.
Ne consegue che il BN non può essere ricavato il quel modo.

Faccio presente che, in qualsiasi sistema colore, la luminanza (Y o L) è sempre la combinazione lineare dei tre colori primari, sia che si ottenga durante la conversione RAW, sia che si ottenga dopo.
fenderu
Messaggio: #28
QUOTE(Giuseppe Maio @ Sep 20 2006, 02:37 PM) *
... una conversione BW fatta costruendo il canale che privilegia il dettaglio di luminanza è "superiore" in gamma, ha "meno" rumore e può risultare più "nitida" se fatta on-camera da una Nikon o se ottenuta da una trattazione RAW/NEF di Capture NX dall'apposita funzione di Modo Colore. Qualunque altro metodo applicato DOPO la costruzione RGB di demosaicizzazione implica degrado proporzionale alle variabili...

gnam gnam....mi si è accesa una lampadina in testa; Lampadina.gif

grazie.gif
fenderu
Messaggio: #29
ricordo una vecchia discussione con un amico sul bianco e nero digitale;

questi (è un utende del forum, mannaggia non ricordo il nome) continuava a scattare usando i filtri colorati anche sul digitale; questo perchè (non si stancava mai di ricordarmelo) il successivo uguale intervento in post produzione (parlo del prefiltro colorato) avrebbe comportato una "perdita di dati" che invece non c'è usando il filtro direttamente in ripresa;

mi sembra di poter dire che adesso, con la soluzione offerta da Capture NX scattando in RAW, i filtri colorati siano stati perfettamente sostituiti, anche e sopratutto in merito al discorso "perdita di dati";

esatto? hmmm.gif
Giuseppe Maio
Nital
Messaggio: #30
QUOTE(StefanoBonfa @ Sep 22 2006, 12:13 PM) *

Secondo me non è così (... e mo' mi censura un'altra volta... biggrin.gif ).

Anche secondo me non è come l'hai intesa

In realtà aspetto ancora di sapere quale sensore monta la Sony Alfa...

Nikon DSLR e la Concorrenza...

Quindi potremmo analizzare le errate interpretazioni fatte anche in questa.
Sulla base del concetto di base che resta coerente potresti approfondire.

G.M
Utente cancellato
DEREGISTRATO
Messaggio: #31
QUOTE(Giuseppe Maio @ Sep 22 2006, 03:16 PM) *

In realtà aspetto ancora di sapere quale sensore monta la Sony Alfa...

Nikon DSLR e la Concorrenza...

Quindi potremmo analizzare le errate interpretazioni fatte anche in questa.
Sulla base del concetto di base che resta coerente potresti approfondire.

Dipende:
quello di cui Sony ha a suo tempo divulgato le foto e che ancora si vedono su alcuni siti,
oppure quello che in seguito ha realmente montato in fase di produzione di massa ?
In questo secondo caso avevo spiegato come si poteva risolvere ogni dubbio biggrin.gif

Riguardo a quel "... canale di luminanza in "esclusiva" a pochi software", vorrei fare un esempio pratico, visto che il mio software è tra gli eletti. wink.gif

Prendiamo un NEF postato nel Forum: questa foto di Matteo Ganora è particolarmente istruttiva perchè ha dei fiori gialli su fondo grigio


Decodifico il NEF e costruisco l'immagine BN direttamente con i dati RAW, senza effettuare alcuna demosaicizzazione.
Ecco un dettaglio dei fiori ingrandito:


Come ho detto in precedenza, noterete che il giallo dei fiori è diventato puntellato di scuro in corrispondenza dei pixel col filtro blu, mentre il grigio è alquanto omogeneo.
Ovviamente siamo in un caso reale ed i puntini scuri non raggiungono il nero puro (cioè con valore nullo).
Facendo la media sui fiori gialli, noto che il valore del blu è circa sei volte inferiore al verde.
Provo a compensare livellando i valori verde-blu, ed ecco cosa succede:


Il giallo è diventato mediamente più omogeneo, ma di conseguenza si altera vistosamente il grigio, che da omogeneo diventa a quadri.

Come volevasi dimostrare. rolleyes.gif
Giuseppe Maio
Nital
Messaggio: #32
QUOTE(StefanoBonfa @ Sep 22 2006, 03:38 PM) *

Dipende:
quello di cui Sony ha a suo tempo divulgato le foto e che ancora si vedono su alcuni siti, oppure quello che in seguito ha realmente montato in fase di produzione di massa ?

Il sensore non è stato cambiato in corsa ma è sempre stato quello.
Abbiamo infatti sempre ipotizzato si trattasse di un errore "volontario" o "involontario" nella divulgazione dell'immagine errata ma...
QUOTE(StefanoBonfa @ Sep 22 2006, 03:38 PM) *

Riguardo a quel "... canale di luminanza in "esclusiva" a pochi software", vorrei fare un esempio pratico, visto che il mio software è tra gli eletti. wink.gif

Ciò è ovvio, tra noi come rappresentato anche nel manuale a corredo della Nikon D80 Nital...
...dovremmo semmai parlare del dedicato algoritmo che opera preservando i dettagli di luminanza...
Questa discussione nasce con richieste che riguardano i diversi metodi di ottenimento BN e questo ad oggi non era mai stato sottolineato anche se già supporrtato da tempo con il Nikon Capture 4.4.
Entrare poi nei dettagli della specifica costruzione penso interessi principalmente "noi".
Prova a prendere lo stesso RAW/NEF e convertirlo in Capture NX con il modo colore oggetto di questa discussione, quindi proponi anche le altre variabili ottenute dalla lavorazione RGB più o meno complessa.
Avremo così modo di valutare visivamente gli effetti su rumore, dettaglio e gamma.

G.M

PS: Se desideri ottimizzare il testo e le immagini dell'allegato sarà per me un piacere raccogliere elementi concreti... anche se mi pare descriva quanto da te sopra citato.
File allegati
File Allegato  Filtratura_Bayer.pdf ( 716.72k ) Numero di download: 123
 
Giuseppe Maio
Nital
Messaggio: #33
QUOTE(fenderu @ Sep 22 2006, 12:48 PM) *

...questo perchè (non si stancava mai di ricordarmelo) il successivo uguale intervento in post produzione (parlo del prefiltro colorato) avrebbe comportato una "perdita di dati" che invece non c'è usando il filtro direttamente in ripresa...
Sul principio dell'eventuale "perdita di dati" espresso si potrebbe asserire che, su sensori a matrice con filtratura colore, è vero proprio il "contrario"...

Per la massima qualità di ripresa si cerca di ottenere il massimo segnale elettrico comunque poi mediato nella soglia Noise.
Scattare senza filtri colorati montati in ripresa sull'obiettivo, permette di ottenere il massimo segnale luminoso di registrazione. Il filtro infatti, altro non fa' che tagliare parte dello spettro. Per la fotografia BN è quindi possibile asserire che si potrà ottenere lo stesso effetto agendo, in PP sulla densità dei tre canali colore e dei rispettivi complementari.
Diverso è invece dover o voler tagliare con precisione specifiche lunghezze d'onda. In questi casi usare filtri specifici permette i risultati voluti con maggiore facilità anche se dobbiamo calcolare l'interferenza con le specifiche lunghezze d'onda comunque tagliate diero dal filtro low-pass e dalla filtratura Bayer.

G.M
paolo.torrielli@tiscali.it
Messaggio: #34
Comunque chi è davvero interessato a fare il BN digitale ha un modo semplice per vedere cosa gli conviene...provare trattare lo stesso file con vari programmi (Capture 4.4, NX...etc) stamparlo e giudicare quello che gli piace di più o che ha caratteristiche migliori di dettaglio etc... wink.gif
Detto da uno che odia la teoria e adora le sperimentazioni pratiche...
Ma questa discussione ora si incentra sul metodo con cui Capture arriva a dare l'immagine BN, vi dico una cosa, siete tutti molto preparati, ma voglio essere onesto, non capisco veramente un tubo in quello che dite, e nemmeno è molto importante perchè ho il metodo sperimentale per scegliere che tipo di sistemi usare in fotografia...

P.S.
Ho dedotto che è indifferente utilizzare l'opzione BW prima o dopo la ripresa...giusto? wink.gif
earlybird
Messaggio: #35
La Luminanza esprime la pura somma dei canali R+G+B.
A riprova, alcune tecniche di ripresa utilizzano file separati ( L,R,B ) per ottenere il canale G, che è pari a G= L-(R+B ) (oppure B=L-(G+R) o R=L-(B+G). Certamente, per misure fotometriche scientifiche, non esiste nulla di meglio del puro sensore B/W, ma, in ogni caso, i risultati non si discostano di molto.
A patto, però, che tassativamente siano state o osservate o tenute in conto le regole del campionamento, perché, altrimenti, l'algoritmo di traduzione della matrice Bayer fornirà risultati errati: per spiegarmi, se il più piccolo punto risolvibile dall'obiettivo si diffonde esattamente sulla matrice di 4 pixel...
RG
GB
i calcoli della luminanza saranno esatti.
Se si diffonde su una matrice tipo...
BGBG
GRGR
BGBG
GRGR
avremo la matrice centrale RGGB, circondata da elementi singoli di matrici limitrofe. Come si regola un software "normale" in questo caso? Continuando a leggere esclusivamente la matrice centrale ed attribuendo alle matrici periiferiche valori che non appartengono loro; matrici periferiche che, a loro volta, influenzano la lettura della matrice centrale.

Tradurre una matrice di Bayer senza sapere quale sia stata l'accoppiata apertura-focale produrrà sempre risultati alterati: dove? Nei grigi in fase di demosaicizzazione.
Visti i risultati che si ottengono dal software proprietario, a differenza di altri programmi, anche professionali, sono certo che viene tenuto in gran conto il valore del campionamento, calcolandolo sui dati in arrivo dall'obiettivo.

Per fare un po' di prove basta riprendere a distanza il classico led bianco su fondo scuro ed applicare all'immagine il calcolo della PSF (point spread function) e della conseguente FWHM: se il 70% della luminosità si concentra su un'area di 2x2 pixel, apertura e focale dell'obiettivo sono perfette in rapporto alle dimensioni del pixel del sensore. Altrimenti siamo fuori campionamento ( sovra o sottocampionamento). In questo caso ci si allontana (o ci si avvicina) al led e si studiano i risultati ottenuti.
E' un metodo un po' empirico ma valido per poter poi sostituire al led un fiore e spremerne ogni minuto dettaglio: campionamento, luminanza e fuoco sono termini inscindibili ai fini dell'alta risoluzione.

E.F.
Utente cancellato
DEREGISTRATO
Messaggio: #36
QUOTE(Giuseppe Maio @ Sep 22 2006, 04:00 PM) *

Questa discussione nasce con richieste che riguardano i diversi metodi di ottenimento BN e questo ad oggi non era mai stato sottolineato...

Riguardo ai metodi posso dire il mio personale metodo.
Generalmente non passo mai alla bruta dal colore al BN.
Il passaggio dal colore al BN comporta una variazione delle caratteristiche percettive e di conseguenza una variazione dei parametri usati per costruire l'immagine.
Personalmente ho previsto la scelta di diverse opzioni: dal valore del gamma, alla correzione del WB, alla scelta se partire da dati RAW o da dati convertiti in uno spazio colore RGB, esposizione, etc.
Per far questo devo necessariamente partire dai dati RAW ed effettuare tutta una nuova conversione.

Non si può ricostruire la luminanza di un oggetto se si conosce solo un colore primario su tre: sarebbe proprio un miracolo...

La luminanza si ottiene moltiplicando i valori RGB per i rispettivi coefficienti. Il valore di questi coefficienti dipende dal tipo sistema in cui si opera e dal tipo di dati (cioè se prima o dopo l'inserimento in uno spazio colore con relativa correzione gamma).
Ad esempio, se i dati sono già in uno spazio colore, il canale luminanza Y si ottiene eseguendo per ogni pixel il seguente calcolo: Y=0.299*R+0.5876*G+0.114*B


Giuseppe Maio
Nital
Messaggio: #37
QUOTE(StefanoBonfa @ Sep 22 2006, 07:09 PM) *

Riguardo ai metodi posso dire il mio personale metodo.

Stefano, è evidente che cerchiamo due distinti fini nel partecipare a queste discussioni.
Io, con questo intervento intendevo solo presentare il metodo disponibile che come vedi nessuno adotta sebbene disponibile da tempo.
Non era mia intenzione entrare nel merito sul come nello specifico calcolo matematico d'algoritmo.
Tu, invece, entri subito nell'aspetto del calcolo di luminanza e con questo intento "travisi" le mie parole che sull'aspetto della stessa hanno ragione di entrarci, sebbene nella forma più pura possibile giustamente permessa solo da sensori privi di filtratura colore.

Trovo quindi utilissimi i tuoi interventi ma ci piacerebbe a questo punto "concretizzare" e sapere se conosci veramente l'algoritmo usato da Nikon per questa potenzialità che certamente offre risultati d'interesse.
È quindi importante mostrare le differenze visive dei diversi metodi e ciò su situazioni fotografiche e non meramente scientifiche come più volte hai fatto sulla compressione RAW/NEF senza perdita visiva percettibile (ovviamente escluse le improbabili esasperazioni).

In definitiva non mi hai detto se trovi il documento pdf corretto secondo i tuoi canoni.
Se affermativo potremmo procedere verificando i benefici di questo "metodo colore BN" e, se ci puoi o vuoi aiutare, capire quale algoritmo viene usato e quindi da dove derivano i benefici ritrovati a differenza anche delle lavorazioni RAW/NEF con variazioni WB ecc.
Il documento potrebbe così arricchirsi di informazioni concrete ed utilizzabili.
Strade diverse da quelle da me ipotizzate di certo porterebbero questa, come altre innumerevoli, all'inutile naufragio...

G.M
fenderu
Messaggio: #38
QUOTE(paolo.torrielli@tiscali.it @ Sep 22 2006, 05:16 PM) *

vi dico una cosa, siete tutti molto preparati, ma voglio essere onesto, non capisco veramente un tubo in quello che dite,


laugh.gif

in concreto:

bn prefiltro verde, contrasto MAX, EV +0.7, MAX Nitidezza;

(l'unico step è stato un leggerissimo crop);

ci può stare come bn di partenza a perdita zero? wink.gif

IPB Immagine


oops, pensavo ridimensionasse in automatico; adesso ridimensiono;

Messaggio modificato da fenderu il Sep 22 2006, 10:33 PM
Utente cancellato
DEREGISTRATO
Messaggio: #39
QUOTE(Giuseppe Maio @ Sep 22 2006, 08:35 PM) *

Stefano, è evidente che cerchiamo due distinti fini nel partecipare a queste discussioni.

Questo mi pare ovvio: l'oste deve beatificare il suo vino, il cliente... deve fare il cliente.

Sinceramente non credo ci sia molto da inventarsi su una banale conversione BN.
Gli algoritmi sono sostanzialmente identici perchè la definizione di luminanza è universalmente riconosciuta, si tratta solo di applicare una formula. In base alla struttura generale del programma può cambiare quando convertire in luminanza, ma il risultato finale deve essere pressocchè indentico. Generalmente si opera a lavoro di costruzione immagine finito e mi sembra che Capture segua questa norma.
Quello che invece può fare la differenza in termini pratici sono i controlli disponibili per costruire l'immagine BN finale.
Cambiare il bilanciamento colori, ad esempio, è un po' come simulare l'impiego dei filtri colore su una pellicola BN. Sono impostazioni non facilmente calcolabili a priori, e operare nello stesso ambiente di un convertitore (senza dover ricorrere ad editor esterni) consente l'instaurarsi di un meccanismo di feedback: l'utente vede il risultato ed istantaneamente decide le eventuali variazioni da apportare.

Riguardo al documento: a pag. 2 personalmente eviterei di parlare di file di luminanza per quanto ho detto sopra, ed anche di canali visto che si tratta di valori puntuali relativi a singoli pixel; l'inizio di pag. 1 contiene dei luoghi comuni che purtroppo si incontrano spesso. A rigore, un sensore non registra un'immagine in bianconero, ma un'immagine a colori con struttura a mosaico, dove ogni pixel registra un solo colore primario secondo lo schema di Bayer (per limitarci al nostro caso).
E' ovvio che si tratta di una codifica, gli elettroni ed i valori numerici non sono nè grigi nè di altro colore.
Questo è un crop dell'immagine RAW registrata dal sensore (provate ad ingrandire):

Giuseppe Maio
Nital
Messaggio: #40
QUOTE(StefanoBonfa @ Sep 23 2006, 10:10 AM) *

Questo mi pare ovvio: l'oste deve beatificare il suo vino, il cliente... deve fare il cliente.

Questo dimostra l'errato atteggiamento.
Quì nessuno voleava beatificare ma semplicemente trovare vantaggi in una specifica opzione.
Tu, fino a questo momento non ci hai ancora dato elementi per valutare benefici, svantaggi ne tantomeno raffronti su questo metodo di costruzione BN.
QUOTE(StefanoBonfa @ Sep 23 2006, 10:10 AM) *

Sinceramente non credo ci sia molto da inventarsi su una banale conversione BN.

Non è poi così banale questo metodo come molti altri offerti da altri software di costruzione RAW. Banale sarebbe forse se non producesse quanto ricercato.
QUOTE(StefanoBonfa @ Sep 23 2006, 10:10 AM) *

Generalmente si opera a lavoro di costruzione immagine finito e mi sembra che Capture segua questa norma.

Se così fosse il risultato ottenuto dalla conversione di Modo Colore sarebbe emulabile agendo in costruzione sulle regolazioni colore.

QUOTE(Giuseppe Maio @ Sep 22 2006, 08:35 PM) *

...In definitiva non mi hai detto se trovi il documento pdf corretto secondo i tuoi canoni. Se affermativo potremmo procedere verificando i benefici di questo "metodo colore BN" e, se ci puoi o vuoi aiutare, capire quale algoritmo viene usato e quindi da dove derivano i benefici ritrovati a differenza anche delle lavorazioni RAW/NEF con variazioni WB ecc.
Strade diverse da quelle da me ipotizzate di certo porterebbero questa, come altre innumerevoli, all'inutile naufragio...

Salvo la precisazione corretta sulle parole usate non trovo evoluzioni sintomo dell'ipotizzato naufragio... che potrai evitarci trattando i diversi algoritmi usati e quindi le differenze presenti rispetto ad una convenzionale conversione anche fatta con controlli WB e dei canali colore.

G.M

G.M
margior
Messaggio: #41
Leggo con interesse...

Mi viene da osservare che in Photoshop il metodo cosiddetto Lab che consente di lavorare sul canale della luminanza esiste da tempo.

Ho sempre supposto che la compensazione dell'esposizione fatta prima dell'apertura del raw in fondo non sia altro che "un agire sul canale della luminanza", quindi mi sono sempre chiesto se ci sono differenze tra l'operare prima (parlo sempre di photoshop, quindi camera raw o plugin) o dopo passando da rgb a lab e tornando poi a rgb.

Passare da rgb di un raw 16 bit a lab, lavorare sul canale della luminanza ed estrarre il canale permette appunto una "alternativa" conversione B/N ma non capisco se ci sono "sostanziali" differenze rispetto a quanto qui prospettato.
Utente cancellato
DEREGISTRATO
Messaggio: #42
QUOTE(Giuseppe Maio @ Sep 23 2006, 10:50 AM) *

Quì nessuno voleava beatificare ma semplicemente trovare vantaggi in una specifica opzione.

Ripeto: io non trovo niente di speciale, rientra tutto nella logica di Capture.
Capture applica sempre delle curve di contrasto seguendo una logica propria, non nota all'utente e quindi non prevedibile.
Spesso i risultati sono erratici e del tutto inaccettabili, non per niente molta gente si ritrova a dover schiarire non per correggere gli errori della macchina, ma per correggere gli errori di Capture.
Come lo fa per il colore, così lo fa per il BN, solo che il BN ha esigenze diverse, molto più semplici da soddisfare, così le curve applicate sono necessariamente diverse.
Che poi piacciano o meno dipende dal soggetto, dal gusto personale e dalle specifiche richieste.
Basta estrarre il canale luminanza dall'immagine a colori e poi confrontare i livelli con quelli del BN, noterete che sono alterati.

E poi, diamo a Cesare quel che è di Cesare... il BN con un sensore espressamente costruito per il colore... ma dai !
Per me è solo un gioco... niente a che vedere con il BN su sensori monocromatici e infinitamente lontano dal BN su pellicola. wink.gif



mikelinos
Messaggio: #43
Salve a tutti.
Scusate la mia ignoranza, ma vorrei capire l'atto pratico:

Apro il file raw con Capture 4.4
Aggiusto l'esposizione.
Faccio le modifiche sul colore ( livelli, tonalita', saturazione ecc.).
Converto in BN sempre con capture.
Aggiungo maschera di contrasto.
Riporto in colori e salvo.

E'giusto?
Giuseppe Maio
Nital
Messaggio: #44
QUOTE(mikelinos @ Sep 25 2006, 12:55 PM) *

...ma vorrei capire l'atto pratico...

In questa discussione si intendeva verificare le differenze offerte dalla conversione Bianco e Nero ottenuta dall'opzione di Modo Colore. Per i "puristi" anche valutando le differenze con l'opzione on-camera di D200 e D80.
L'intento è quindi quello di ottenere un file monocromatico BN e non a colori.
Della conversione si intendeva verificare le differenze di gamma (contrasti), nitidezza e rumore ed il tutto rapportato all'assenza di filtrature colore o con le filtrature volute ed attuate in gradazioni soggettive dal bilanciamento del bianco o dalla regolazione RGB-CMY.

Nel mio Messaggio 11 di questa discussione mostravo l'opzione di Capture NX comunque uguale a quella di Nikon Capture 4.4.2 allegata a questa.

Questo tipo di conversione offre potenzialità diverse da quelle "notoriamente" attuate.
Il Modo Colore specifico (mostrato in allegato) non pregiudica comunque le regolazioni di WB, di Variazione Filtri Colore dalla palette "Effetti Foto" così come Curve ecc...

Verifica il tuo normale modo operandis con il metodo oggetto di questa discussione e facci sapere.

G.M
Anteprima(e) allegate
Immagine Allegata

 
mikelinos
Messaggio: #45
QUOTE(Giuseppe Maio @ Sep 25 2006, 01:16 PM) *

In questa discussione si intendeva verificare le differenze offerte dalla conversione Bianco e Nero ottenuta dall'opzione di Modo Colore. Per i "puristi" anche valutando le differenze con l'opzione on-camera di D200 e D80.
L'intento è quindi quello di ottenere un file monocromatico BN e non a colori.
Della conversione si intendeva verificare le differenze di gamma (contrasti), nitidezza e rumore ed il tutto rapportato all'assenza di filtrature colore o con le filtrature volute ed attuate in gradazioni soggettive dal bilanciamento del bianco o dalla regolazione RGB-CMY.

Nel mio Messaggio 11 di questa discussione mostravo l'opzione di Capture NX comunque uguale a quella di Nikon Capture 4.4.2 allegata a questa.

Questo tipo di conversione offre potenzialità diverse da quelle "notoriamente" attuate.
Il Modo Colore specifico (mostrato in allegato) non pregiudica comunque le regolazioni di WB, di Variazione Filtri Colore dalla palette "Effetti Foto" così come Curve ecc...

Verifica il tuo normale modo operandis con il metodo oggetto di questa discussione e facci sapere.

G.M



Oppss! Scusa ma mi ero perso.
Provero' subito il metodo.
Saluti a tutti e buon click!
earlybird
Messaggio: #46
QUOTE(StefanoBonfa @ Sep 23 2006, 07:30 PM) *

E poi, diamo a Cesare quel che è di Cesare... il BN con un sensore espressamente costruito per il colore... ma dai !
Per me è solo un gioco... niente a che vedere con il BN su sensori monocromatici e infinitamente lontano dal BN su pellicola. wink.gif


Mettiamo da parte per un attimo Nikon, Capture, firmware ecc ecc.
Qual è la differenza tra un sensore monocromatico ed uno a colori?
La presenza del colore sulle microlenti, che ambedue posseggono.
Quando i sensori vengono letti, escono identici segnali elettrici, seppur di livello diverso, a parità di sorgente e di tempo di integrazione.
Il che significa che le immagini in questa fase apparirebbero in toni di grigio per ambedue i sensori. Quella proveniente dal sensore a colori mostrerebbe chiaramente la geometria del mosaico della matrice di Bayer (o altra): cosa fare?
Si può scegliere tra due possibilità:

a )- si possono applicare i correttivi dichiarati dal costruttore relativi alla perdita di efficienza quantica dei filtri colorati. La matrice di Bayer è semplice ed efficace: coordinate x,y pari= filtro R, coordinate dispari=filtro B, coordinate x pari e y dispari (e viceversa) = filtri G. In tal modo si può ricostruire con buona approssimazione il file luminanza. Dico buona perché non possiamo essere sicuri dello standard costruttivo su una serie di migliaia di esemplari di wafer.

b )- si applica sua maestà il Flat Field, creato con la stessa identica configurazione ottica, che fornirà la chiave dell'equalizzazione dell'efficienza quantica dei vari pixel. L'applicazione del flat ha il vantaggio, anche, di non creare "rumore", a differenza di qualunque altro metodo di "normalizzazione" del raw. Io sono sempre più meravigliato di quanto poco si parli in questo forum (e sulle riviste di settore) del Flat, che è il cardine imprescindibile della fotografia digitale.
Con il Flat non c'è alcun bisogno di "interpretare" la matrice di Bayer: ogni pixel un punto spaziale con un suo valore di grigio.

Lo svantaggio del sensore a colori è la sua minor effìcienza quantica rispetto al suo confratello monocromatico e, quindi, la necessità di un maggior tempo di integrazione per raccogliere lo stesso segnale.

Nelle fotocamere digitali astronomiche a colori, la conversione a colore è l'ultima fase del processo di post-produzione: prima si lavora solo sui segnali provenienti dai sensori, mono o a colori non fa alcuna differenza.
Addirittura esistono due fotocamere, le Starlight MX5 e MX5C, nelle quali i due sensori sono intercambiabili, in quanto l'unica differenza tra uno e l'altro è la presenza della matrice colore.

Tornando a Nikon, se questa asserisce determinate cose, io, da cliente, devo crederci: altrimenti mi rivolgo ad altri costruttori. L'unica cosa che mi manca, e non solo da Nikon, la possibilità di bypassare totalmente il firmware, cioè di ottenere la copia fedele su file di ciò che è uscito dal convertitore analogico-digitale: semplicemente, mi piacerebbe avere la possibilità di prendermi cura personale delle mie immagini.

E.F.
acarodp@yahoo.it
Messaggio: #47
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 25 2006, 04:34 PM) *

b )- si applica sua maestà il Flat Field, creato con la stessa identica configurazione ottica, che fornirà la chiave dell'equalizzazione dell'efficienza quantica dei vari pixel. L'applicazione del flat ha il vantaggio, anche, di non creare "rumore", a differenza di qualunque altro metodo di "normalizzazione" del raw. Io sono sempre più meravigliato di quanto poco si parli in questo forum (e sulle riviste di settore) del Flat, che è il cardine imprescindibile della fotografia digitale.
Con il Flat non c'è alcun bisogno di "interpretare" la matrice di Bayer: ogni pixel un punto spaziale con un suo valore di grigio.



Mah, io penso che non se ne parli perché nessuna DSLR lo fa. Inoltre non è propriamente facile produrre un FF decente. In astronomia di solito ce la si cava con i FF sul cielo del crepuscolo, cosa non molto pratica per impieghi di fotografia "normale". Oppure devi avere una lampada di calibrazione, il che però è ancora meno pratico.
E neppure puoi fare un FF una volta per tutte se come dici tu vuoi che sia "con la stessa configurazione ottica" perché ovviamente dovresti farlo per ogni foto, con lo stesso obiettivo, focale (se è uno zoom) e diaframma. Se si facesse, avresti il vantaggio non da poco di eliminare qualsiasi vignettatura.
Poi non sono sicuro di capire cosa intendi con "non c'è bisogno di interpretare la matrice di bayer"... potresti spiegarlo meglio?

Ciao

L.
earlybird
Messaggio: #48
QUOTE(margior @ Sep 23 2006, 04:31 PM) *

Leggo con interesse...

Mi viene da osservare che in Photoshop il metodo cosiddetto Lab che consente di lavorare sul canale della luminanza esiste da tempo.

Ho sempre supposto che la compensazione dell'esposizione fatta prima dell'apertura del raw in fondo non sia altro che "un agire sul canale della luminanza", quindi mi sono sempre chiesto se ci sono differenze tra l'operare prima (parlo sempre di photoshop, quindi camera raw o plugin) o dopo passando da rgb a lab e tornando poi a rgb.

Passare da rgb di un raw 16 bit a lab, lavorare sul canale della luminanza ed estrarre il canale permette appunto una "alternativa" conversione B/N ma non capisco se ci sono "sostanziali" differenze rispetto a quanto qui prospettato.


Il Lab (che, per chi non lo sappia, non ha niente a che vedere con laboratorio, ma vuole significare canale L, asse a e asse b ) è una diretta derivazione del sistema Hsl (hue, saturation, luminance, cioè tinta, saturazione e luminanza).

Il sistema RGB viene rappresentato con un cubo, di lati R,G,B rispettivamente, nel quale l'origine rappresenta il nero e il vertice diagonalmente opposto il bianco.
Immagina di aver ottenuto un'immagine troppo rossa: la risposta logica sarebbe di ridurre il canale del colore rosso. In questo modo, però, per mantenere la luminosità totale dell'immagine, siamo costretti ad alzare il livello dei canali verde e blu, introducendo altre dominanti.
Il cervello umano, in più, non ragiona in termini RGB, ma interpreta il Colore di base (rosso, verde, blu, viola...), la Saturazione ( celeste, azzurro chiaro, azzurro, blu, blu scuro) e la Luminosità, come somma totale della luce ricevuta. In altre parole, il nostro cervello ragiona nel sistema HSL.
Questo viene rappresentato come un cilindro, il cui asse è la Luminanza, con valori che rappresentano toni di grigio, con R=G=B. Il raggio del cilindro, che è unitario, cioè va da 0 ad 1, rappresenta la saturazione (una saturazione del rosso di valore pari a 0,7, cioè il 70%, significa più o meno un rosa intenso). H (il colore ) viene rappresentata da un angolo identificato lungo la circonferenza del cilindro: il Rosso puro è 0°, il Verde puro 120°, il Blu puro 240°. Il Ciano, complementare del Rosso, è diametralmente opposto (180°) e così via.

Il sistema Lab è un miglioramento semplificativo del sistema HSL: in questo, per identificare un punto all'interno del cilindro, abbiamo bisogno di riportare l'altezza L, il raggio percentuale e un angolo, con tutte le complicazioni del caso. Nel Lab il punto viene identificato dall'altezza L e da due coordinate cartesiane, a e b. Il sistema Lab, inoltre, corregge, anche, un difetto del sistema HSL: in questo, se S è grande, una piccola variazione di H produrrà effetti eclatanti, mentre, nel caso opposto, l'occhio percepirà poco o nulla. Nel sistema Lab, invece, le variazioni di crominanza sono sempre identiche in resa visiva.

Come vedi, nel Lab e nel HSL, qualunque variazione cromatica non influenzerà mai la Luminanza, perché lavoriamo sempre sulla stessa fetta del cilindro. E, reciprocamente, qualunque intervento sulla luminanza non potrà mai influenzare la Crominanza.

Per concludere, ogni elaborazione tesa a ridurre il rumore, migliorare il dettaglio o filtrare l'immagine, deve passare esclusivamente per il canale L del Lab. Solo al termine, agendo sulle componenti a b, modificheremo il colore.

E.F.
earlybird
Messaggio: #49
QUOTE(acarodp@yahoo.it @ Sep 25 2006, 05:33 PM) *

Mah, io penso che non se ne parli perché nessuna DSLR lo fa. Inoltre non è propriamente facile produrre un FF decente. In astronomia di solito ce la si cava con i FF sul cielo del crepuscolo, cosa non molto pratica per impieghi di fotografia "normale". Oppure devi avere una lampada di calibrazione, il che però è ancora meno pratico.
E neppure puoi fare un FF una volta per tutte se come dici tu vuoi che sia "con la stessa configurazione ottica" perché ovviamente dovresti farlo per ogni foto, con lo stesso obiettivo, focale (se è uno zoom) e diaframma. Se si facesse, avresti il vantaggio non da poco di eliminare qualsiasi vignettatura.
Poi non sono sicuro di capire cosa intendi con "non c'è bisogno di interpretare la matrice di bayer"... potresti spiegarlo meglio?

Ciao

L.


Per il flat basta qualunque superficie omogenea, con luminosità equamente distribuita: una parete, un muro, un telo ben teso, un cielo uniformemente azzurro o uniformemente velato. Non sono necessarie luci calibrate. Il concetto del flat è che la stessa quantità di luce deve cadere su tutti i pixel: quale sia la fonte della luce poco importa. In astronomia il flat è più critico, perché uno spostamento importante del telescopio produce facilmente microdeformazioni di ottiche che arrivano a pesare anche decine di chili: ecco perché si cerca di sfruttare il cielo, anche notturno, o marchingegni particolari, proprio per non muovere il telescopio. Le nostre macchine "terrestri" ci permettono di fare ciò che vogliamo.

Per ottenere il B/N il colore non serve: la matrice di Bayer ( o altre) ha solo lo scopo di filtrare il colore nelle sue componenti fondamentali: sotto le microlenti colorate della matrice i pixel sono tutti uguali. Se il nostro scopo è ottenere il B/N, basta leggere i pixel ed equalizzarne l'efficienza quantica alterata dai filtri colorati. La codifica in colore non serve.

Ciao

E.F.
acarodp@yahoo.it
Messaggio: #50
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 25 2006, 05:55 PM) *

Per il flat basta qualunque superficie omogenea, con luminosità equamente distribuita: una parete, un muro, un telo ben teso, un cielo uniformemente azzurro o uniformemente velato. Non sono necessarie luci calibrate. Il concetto del flat è che la stessa quantità di luce deve cadere su tutti i pixel: quale sia la fonte della luce poco importa. In astronomia il flat è più critico, perché uno spostamento importante del telescopio produce facilmente microdeformazioni di ottiche che arrivano a pesare anche decine di chili: ecco perché si cerca di sfruttare il cielo, anche notturno, o marchingegni particolari, proprio per non muovere il telescopio. Le nostre macchine "terrestri" ci permettono di fare ciò che vogliamo.

Per ottenere il B/N il colore non serve: la matrice di Bayer ( o altre) ha solo lo scopo di filtrare il colore nelle sue componenti fondamentali: sotto le microlenti colorate della matrice i pixel sono tutti uguali. Se il nostro scopo è ottenere il B/N, basta leggere i pixel ed equalizzarne l'efficienza quantica alterata dai filtri colorati. La codifica in colore non serve.

Ciao

E.F.


Non so, io temo che l'uniformità debba essere MOLTO elevata per evitare che appaiano artefatti. Quindi un cielo azzurro andrebbe anche bene, non fosse che appunto è azzurro, il che mi fa sospettare che a valle delle microlenti produrrebbe un FF cromaticamente distorto o sbaglio? Mi vien fatto di pensare che se applichi un FF fatto su cielo azzurro attraverso un sensore colore, la sensibilità dei pixel blu apparirebbe falsamente elevata, e di conseguenza sarebbero falsamente "tagliati" quando dividi per il FF. O c'è qualcosa che non capisco? Il mio punto è appunto questo: tu HAI un sensore a colori, per cui per produrre un FF che non induca "filtraggi" spuri la luce usata per il FF dovrebbe essere neutra cromaticamente.

Non sarei poi d'accordo che per il BN il colore non serve. La resa di un BN è totalmente dipendente dalla risposta colore del sistema ottico, prova ne è che i filtri colorati sono stati sempre impiegati nella fotografia BN. Un grosso vantaggio del BN digitale è proprio che ti porti dietro i colori fino alla postproduzione, e puoi decidere cosa farne a posteriori.

Il motivo per cui in astronomia si eseguono i flat sul cielo è anche che il cielo del crpuscolo è una delle cose più uniforme che puoi trovare, e lì l'uniformità è fondamentale. La questione delle torsioni è relativa: ogni posa sarà fatta a puntamenti diversi tra loro e diverso da quello sul twilight... non credo che tu possa correggere in tal senso. L'uso delle lampade di calibrazione, direi, è giustificato soprattutto dalla necessità di eseguire flat di sistemi ottici che non possono fare flat di cielo (es. spettrografi).

L.
 
Discussioni simili Iniziata da Forum Risposte Ultimo messaggio
4 Pagine: V  < 1 2 3 4 >