Aiuto - Cerca - Utenti - Calendario - Salta a fondo pagina - Versione completa  
NikonClub.it Community > PRODOTTI NIKON > NIKON DIGITAL REFLEX
Pagine: 1, 2
sfinge
ciao.
ho fatto qualche ricerca ma non ho trovato risultati a riguardo passo la palla a voi smile.gif
..... sulla D200 scatto sempre in nef e ho provato la modalit� B&W
la mia domanda �: posso ripristinare la cromia in post w ?
nel creare il file in B&W quanto la macchina ci mette del suo ? ( nel senso che filtra qualcosa a livello software o azzera solamente la cromia )
....
.... alla prima domanda potevo rispondermi da solo ma ps7 non mi apre il nef .... e NX ha terminato il suo periodo di utilizzo

Grazie .

Luca
Giorgio Baruffi
se utilizzi la funzione b/n della macchina NON potrai avere di nuovo i colori, ecco perch� � bene scattare sempre a colori e solo dopo convertire in b/n...
SeaChange
io con D200, fotografando in b/n sono riuscito (+ di una volta) a ripristinare i colori con il Capture 4.4. !!!
quindi ne deduco che sia possibile !!!

tongue.gif
ciao
giannizadra
QUOTE(GiorgioBS @ Sep 17 2006, 02:22 PM) *

se utilizzi la funzione b/n della macchina NON potrai avere di nuovo i colori, ecco perch� � bene scattare sempre a colori e solo dopo convertire in b/n...


Non � cos�, Giorgio:

se con Capture NX aprri il file NEF, vai in "Impostazioni fotocamera", e nell'elenco a tendina "Modo colore" al posto di: "bianco e nero" selezioni I, II, ovvero III, rivedrai i colori.
Stessa cosa con Capture 4.4.0.

A prescindere da ci�, concordo sull'opportunit� di convertire in BW solo dopo..
Giorgio Baruffi
pardon allora... sar� che per me quella funzione non esiste... mi scuso per l'errata informazione... grazie Gianni!
nano70
Anch'io preferisco fare le foto a colori e convertirle in b/n dopo in pp smile.gif
Gipsy
QUOTE(giannizadra @ Sep 17 2006, 02:42 PM) *

Non � cos�, Giorgio:

se con Capture NX aprri il file NEF, vai in "Impostazioni fotocamera", e nell'elenco a tendina "Modo colore" al posto di: "bianco e nero" selezioni I, II, ovvero III, rivedrai i colori.
Stessa cosa con Capture 4.4.0.

A prescindere da ci�, concordo sull'opportunit� di convertire in BW solo dopo..


Grazie Gianni, questo non lo sapevo.

Ci sono ragioni tecniche che devono portare a preferire comunque lo scatto a colori per poi portarlo in bianco e nero?

Ciao

Giuseppe
dagmenico
QUOTE(Gipsy @ Sep 17 2006, 03:21 PM) *

Grazie Gianni, questo non lo sapevo.

Ci sono ragioni tecniche che devono portare a preferire comunque lo scatto a colori per poi portarlo in bianco e nero?

Ciao

Giuseppe




ogni foto che deve essere convertita in bianco e nero a mio parere ha una storia a s�: bisogna agire con mascherature e schermature proprio come si farebbe in camera oscura. Per ottenere ottimi risultati quindi il consiglio � scattare a colori e convertire in postproduzione nella maniera che si ritiene pi� adeguata per QUELLA foto


P.S. Non ho mai visto files convertiti in b/n onboard dalla D200, ma presumo che un automatismo non possa raggiungere i risultati di un'attenta conversione fatta in postproduzione
sfinge
grazie a tutti smile.gif
... se per il primo punto della domanda non avevo praticamente dubbi visto che la fattibilit� della cosa mi era gi� stata prospettata
... ho ancora qualche dubbio sul come la D200 ottiene il B&W
anche perch� la macchina essendo di fascia medio alta non penso incorpori una funzione del genere fornendo un risultato scarso .
..... sono sempre pi� convinto che azzeri solamente la componente cromatica lasciando inalterato il nef senza passaggi aggiuntivi
.... e se fosse cos� visualizzare lo scatto in b&w a me farebbe molto comodo smile.gif
.. anche se � un passaggio che posso fare a posteriori ( la conversione in b&w ) ... a sto punto faccio l'opposto ... converto a colore solo quello che mi serve
....
.... ma devo ancora capire se il risultato � lo stesso aspetto altri autorevoli commenti .

grazie .

Luca
Gipsy
QUOTE(dagmenico @ Sep 17 2006, 03:46 PM) *

ogni foto che deve essere convertita in bianco e nero a mio parere ha una storia a s�: bisogna agire con mascherature e schermature proprio come si farebbe in camera oscura. Per ottenere ottimi risultati quindi il consiglio � scattare a colori e convertire in postproduzione nella maniera che si ritiene pi� adeguata per QUELLA foto
P.S. Non ho mai visto files convertiti in b/n onboard dalla D200, ma presumo che un automatismo non possa raggiungere i risultati di un'attenta conversione fatta in postproduzione

Grazie Domenico
Giuseppe
Giuseppe Maio
QUOTE(sfinge @ Sep 17 2006, 05:43 PM) *

... ho ancora qualche dubbio sul come la D200 ottiene il B&W
anche perch� la macchina essendo di fascia medio alta non penso incorpori una funzione del genere fornendo un risultato scarso...


QUOTE(giannizadra @ Sep 17 2006, 02:42 PM) *

...se con Capture NX aprri il file NEF, vai in "Impostazioni fotocamera", e nell'elenco a tendina "Modo colore" al posto di: "bianco e nero" selezioni I, II, ovvero III, rivedrai i colori.

Come giustamente descritto da Gianni, da un RAW si potranno ottenere le massime potenzialit� reversibili. On-camera, scattando in JPG invece, otteniamo un bianconero in base alla logica di costruzione. La D200 offre il bianconero basato sul dettaglio di luminanza, la D80 incorpora anche la filtratura Rosso, Verde ma anche Arancio e Giallo.

A quanto detto da Gianni aggiungo un particolare sulla potenzialit� RAW di Nikon Capture 4 e NX sull'opzione bianconero raggiungibile dal modo colore. Questa opzione (che corrisponde esattamente a quella on-camera D200) offre l'immagine composta dal dettaglio di luminanza che non � quindi una immagine RGB desaturata o comunque lavorata...

Per capire quanto sopra dobbiamo tornare all'origine dell'immagine sul sensore a filtratura Bayer.
Il Sensore registra la luminosit� suddivisa nelle tre lunghezze d'onda RGB su pixel diversi in base al filtro. L'immagine RAW originaria � quindi una immagine in scala di grigi con luminosit� legate alla lunghezza d'onda.
Il bianonero di "luminanza" amplifica ogni singolo pixel per equipararlo anche in base al fattore d'assorbimento del filtro ed in un dedicato algoritmo. Ne consegue un bianconero che "annulla" gli effetti della colorazione.

Gli altri metodi di conversione, invece, costruiscono d'apprima l'immagine RGB applicando l'algoritmo colore di demosaicizzazione Bayer (pi� o meno complesso e pi� o meno soffisticato in base a modello, risoluzione e generazione) per poi agire sui tre canali. Questa lavorazione sebbene ricca di potenzialit� non offrir� "mai" in termini di gamma e rumore quanto invece ottenuto dalla lavorazione sul canale di luminanza.

Allego un PDF tratto dal libro D80 che descrive in sintesi come l'algoritmo Bayer produce la colorazione RGB da uno scatto con sensore a mosaico colore RGB.

Giuseppe Maio
www.nital.it
Gipsy
QUOTE(Giuseppe Maio @ Sep 18 2006, 08:36 PM) *

Come giustamente descritto da Gianni, da un RAW si potranno ottenere le massime potenzialit� reversibili. On-camera, scattando in JPG invece, otteniamo un bianconero in base alla logica di costruzione. La D200 offre il bianconero basato sul dettaglio di luminanza, la D80 incorpora anche la filtratura Rosso, Verde ma anche Arancio e Giallo.

A quanto detto da Gianni aggiungo un particolare sulla potenzialit� RAW di Nikon Capture 4 e NX sull'opzione bianconero raggiungibile dal modo colore. Questa opzione (che corrisponde esattamente a quella on-camera D200) offre l'immagine composta dal dettaglio di luminanza che non � quindi una immagine RGB desaturata o comunque lavorata...


Estremamente utile; un sentito grazie.gif
Giuseppe
earlybird
Un grande grazie a Giuseppe Maio per aver "introdotto" l'argomento chiave della fotografia digitale: il file luminanza.
Viene chiamato cos�, ma, in realt�, dovrebbe essere semplicemente chiamato "il file", perch� � l'unica immagine che esce dal sensore.

Ogni operazione di post-produzione, inerente alla qualit� ottica dell'immagine (riduzione del rumore e nitidezza in primis), dovrebbe essere eseguita solo ed unicamente sul file luminanza. Poi, a risultato ottenuto, far intervenire la traduzione in colore: perch� solo di questo si tratta. Il software assegna alla posizione di un pixel la presenza di un filtro ottico R o G o B, ne legge il valore, gli d� un "peso" all'interno della matrice Bayer RGGB e fornisce i dati RGB per ogni singolo "punto" dell'immagine. Le immagini che elaboriamo non hanno pixel, ma punti. Faccio questa distinzione perch� la parola inglese "pixel", che sta per "picture element", cio� elemento del quadro, pu� trarre facilmente in inganno il neofita o il meno esperto, perch� eguaglia linguisticamente i pixel del sensore a quelli del monitor. Quando osserviamo un punto colore di un'immagine a monitor, stiamo osservando "l'amalgama" di 4 pixel del sensore. Nel colore non esiste corrispondenza tra pixel del sensore e punti sul monitor. Nel file luminanza, invece, s�: l'immagine a monitor � l'esatta riproduzione di ci� che il sensore ha catturato.

Matrice di Bayer: perch� RGGB e non RGB?
La risposta che si legge � sempre quella che recita che l'occhio umano � piu sensibile al centro banda dello spettro visibile, quella dei 550 nm, cio� del Verde. Questa risposta spiega solo perch� � duplicato il canale G e non quelli R o B, non perch� sia duplicato un canale (in fondo basterebbe raddoppiare il valore letto nel G).
Diamo insieme un'occhiata allo schema seguente:
RGRGRGRGRGRG
GBGBGBGBGBGB
RGRGRGRGRGRG
GBGBGBGBGBGB

Poich� un punto luce deve cadere su quattro pixel nelle due dimensioni (2x2) (altrimenti non avremmo alcuna informazione colore) se noi applichiamo in qualunque modo si voglia una matrice di 2x2 pixel allo schema otteniamo sempre la ripetizione RGGB, cio� 1 R +2G +1B.


Quanto sopra mi permette ancora di ribadire, a rischio di essere noioso, la capitale importanza del flat field, cio� l'equalizzazione del segnale proveniente dai pixel del sensore. Ma qui andiamo fuori tema.

Un saluto a tutti

Enzo Franchini
MSVphoto
L'argomento � complesso, e per me, privo di qualsiasi base in materia, particolarmente "ostico", ma visto il mio "amore" per la fotografia in B&N, ogni nozione � comunque importante
Che dire quindi, sicuramente un sentito ringraziamento per gli interessanti interventi effettuati.

Max
sfinge
Grazie smile.gif
... ero sicuro di ricevere una risposta esauriente e competente

ciao.

Luca
Giuseppe Maio
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 19 2006, 06:22 AM) *

...Quanto sopra mi permette ancora di ribadire, a rischio di essere noioso, la capitale importanza del flat field, cio� l'equalizzazione del segnale proveniente dai pixel del sensore...

Colgo l'occasione per lasciare traccia, in questa "preziosa" discussione, della precedente ma in qualche modo tecnicamente correlata all'argomento:

Rumore, Segnale E Fotografia Digitale, Definizione di rumore...

G.M
belvesirako
Salve, ho letto con interesse questa discussione.
Tornando al pratico, e cercando di sintetizzare al massimo (forse sbagliando) mi e' sembrato di capire che una conversione BW fatta privilegiando il dettaglio di luminanza (ossia scegliendo il MODO COLORE BN) sia superiore a quella fatta su file RGB (ossia quella fatta mediante desaturazione o plug-in di PS, oppure scegliaendo effetti BN su capture).
Superiore x quanto riguarda i dettagli, o mi sbaglio?
grazie
Giuseppe Maio
QUOTE(belvesirako @ Sep 20 2006, 01:40 PM) *

...una conversione BW fatta privilegiando il dettaglio di luminanza (ossia scegliendo il MODO COLORE BN) sia superiore a quella fatta su file RGB (ossia quella fatta mediante desaturazione o plug-in di PS, oppure scegliaendo effetti BN su capture).
Superiore x quanto riguarda i dettagli, o mi sbaglio?

... una conversione BW fatta costruendo il canale che privilegia il dettaglio di luminanza � "superiore" in gamma, ha "meno" rumore e pu� risultare pi� "nitida" se fatta on-camera da una Nikon o se ottenuta da una trattazione RAW/NEF di Capture NX dall'apposita funzione di Modo Colore.
Qualunque altro metodo applicato DOPO la costruzione RGB di demosaicizzazione implica degrado proporzionale alle variabili.

La trattazione del "vero" canale di luminanza permetter� in futuro trattazioni RAW pi� efficaci in riduzione disturbo, in riduzione mosso e micromosso. Questo canale � quello usato da Capture NX nella gestione di controllo di vignettatura, distorsione ed aberrazione colore.

Il canale di luminanza sensore permette anche alcune estremizzate applicazioni che in fotografia, potranno permettere di usare tale immagine come base sulla quale "giocare" con marchere di canale o di livello costituite dai colori...

G.M
belvesirako
Chiarissimo...
Fermo restando che agendo sulla conversione da file RGB, pur avendo maggiore rumore, si possono "caratterizzare" i grigi in modo da dare importanza alle parti di colore che piu' si vogliono evidenziare, in pratica si puo' simulare una determinata pellicola e la risposta di quest'ultima ai grigi.

Auspico che in un futuro prossimo, questo sia gia' integrato "on camera" in modo da scegliere gia' in fase di ripresa che carattere deve avere il BN. In pratica questo e' gia' possibile x la D80 dove si sceglie il filtro nel modo colore BN...
Questo toglierebbe di mezzo molte variabili nella conversione BN e una volta fatta la mano sarebbe come lavorare con un film BN.

saluti e ancora grazie x le puntuali spiegazioni.
Giuseppe Maio
QUOTE(belvesirako @ Sep 20 2006, 03:50 PM) *

...Auspico che in un futuro prossimo, questo sia gia' integrato "on camera" in modo da scegliere gia' in fase di ripresa che carattere deve avere il BN. In pratica questo e' gia' possibile x la D80 dove si sceglie il filtro nel modo colore BN...
Questo toglierebbe di mezzo molte variabili nella conversione BN e una volta fatta la mano sarebbe come lavorare con un film BN.

Sono stato e lo sono tutt'ora un "accanito" sostenitore della trattazione BN a computer su file RAW sin dall'inizio e continuo a farlo anche a fronte dell'eventuale potenzialit� on-camera.
Come in camera oscura resta utile poter agire finemente sulla densit� colore desiderata nella filtratura. Vedere l'effetto sul monitor pu� servire all'inizio ma dopo poco � chiaro "immaginare" che un filtro porta allo scurimento delle colorazioni dello stesso...

Inoltre, tali filtri sono anche disponibili nella stampa diretta o comunque nei driver di stampa quindi...

Preferisco sempre suggerire il "bianconero Ideale" come trattazione soggettiva dello scatto rigorosamente RAW/NEF.

G.M
earlybird
Concordo totalmente con Maio.
La mia opinione � che il fotografo digitale debba cercare di ottenere elettronicamente una rappresentazione quanto pi� fedele possibile di quanto l'obiettivo e il sensore abbiano catturato. In post-produzione, poi, potr� sbizzarrirsi nell'ottenere effetti particolari.

Per dare solo una pallida idea della potenza e della versatilit� del file luminanza "puro" permettetemi di portare l'esempio di ci� che succede quando utilizziamo uno dei filtri pi� diffusi in post-produzione: parlo dello sharpening (o nitidezza che dir si voglia).
Non mi addentro nella spiegazione matematica e cerco di fornire solo la base teorica.

Immaginiamo di fotografare, a discreta distanza, un led bianco su un fondo completamente nero e di trovarci in condizioni perfette: nel vuoto, con sistemi ottici privi di qualsivoglia difetto, senza alcun tipo di "rumore", ecc ecc.
Con messa a fuoco perfetta, nella regione centrale del file luminanza (B/W) dovremmo aspettarci una tale sequenza numerica ideale, dopo aver "ripesato" i valori RGB dei microfiltri:

0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
0 0 0 0 9 9 0 0 0 0
0 0 0 0 9 9 0 0 0 0
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0

Lo zero rappresenta il nero, il 9 la presenza di luce. I 9 sono quattro sia per rappresentare la matrice
RG
GB
sia perch� in condizioni ottimali il pi� piccolo punto luce risolvibile deve coprire 4 pixel. Ho scelto il 9 perch� � ad una sola cifra e permette di mantenere lo schema geometrico nell'esempio.

Ora sfochiamo un poco e fotografiamo. Ci� che otterremo sar� probabilmente questo:

0 0 0 0 0 0 0 0 0 0
0 0 0 1 2 2 1 0 0 0
0 0 0 2 4 4 2 0 0 0
0 0 0 2 4 4 2 0 0 0
0 0 0 1 2 2 1 0 0 0
0 0 0 0 0 0 0 0 0 0

cio� un punto luce che non � pi� un punto ma un piccolo disco, che copre 16 pixel, con luminosit� media diminuita e disuniforme (ma di luminosit� totale pari alla prima immagine!)

Il motore matematico che sta alla base del filtro di sharpening confronta ogni pixel dell'immagine con quelli distanti 1 pixel, 2 pixel...a seconda della "forza" che scegliamo, applica una determinata matrice matematica e, alla fine, produce un risultato probabilmente simile a questo:

0 0 0 0 0 0 0 0 0 0
0 0 0 0 1 1 0 0 0 0
0 0 0 1 7 7 1 0 0 0
0 0 0 1 7 7 1 0 0 0
0 0 0 0 1 1 0 0 0 0
0 0 0 0 0 0 0 0 0 0

In pratica, il punto luce � meglio definito; l'esempio fa notare, per�, che difficilmente si pu� ottenere la perfezione, pur in un contesto cos� semplice.
Questi calcoli vengono eseguiti per ognuno dei milioni di pixel che affollano i nostri sensori.

Se lavoriamo con il file luminanza puro, tutte le matrici di calcolo vengono applicate a semplici toni di grigio, linearmente, senza tenere conto della matrice colore RGGB.
Provate ad immaginare, ora, cosa succede quando chiediamo di applicare uno sharpening ad un'immagine a colori, nella quale � obbligatorio tenere in conto lo schema colore: finisco sempre per meravigliarmi dei risultati ottenuti, a normale ingrandimento. Perch�, se ingrandissimo 3,4,5 volte l'immagine, potremmo facilmente notare sbavature e imprecisioni di colore, soprattutto sui bordi dell'oggetto di nostro interesse (quegli 1 che circondano i 7).
Anche nel file colore "ritradotto" dal file luminanza noteremo imprecisioni, ma molto pi� fini e meno appariscenti (la perfezione non � di questo mondo, almeno finch� non avremo a disposizione le camere a 3 sensori...).

Quanto sopra � solo un insignificante esempio di quanto sia fondamentale elaborare solo sul file luminanza e sul file luminanza puro, cio� non filtrato dalla camera: esempio un po' raffazzonato, ma sono certo che i cultori delle convoluzioni spaziali mi perdoneranno le volute semplicit� ed incompletezza.

Enzo Franchini
belvesirako
Wow, quanta sapienza. Grazie x averla condivisa con noi.

In quanto al trattamento in PP dei file Raw, e' innegabile che in questo modo si ottiene la massima qualita' possibile.

Vorrei invece far riflettere su una cosa molto semplice: il tempo che ci vuole x fare la PP.

Se un professionista scatta in Raw e' implicito un passaggio in PP e questo significa tempo, tradotto nel linguaggio degli affari=soldi.
Amici fotografi di cerimonia mi dicono che x il prezzo dei servizi non possono permettersi PP, pensate che molti pur avendo D2X e simili scattano in jpg e stampano cosi' come viene: un sacrilegio.

Li capisco cmq, l'idea di avere un file BW in uscita gia' pronto per la stampa va in questa direzione. Un modo colore che imiti la dinamica di una determinata pellicola esposta e trattata in maniera STD (xche' sappiamo tutti che sia in ripresa che in camera oscura si puo' ulteriormente intervenire stravolgendo il risultato).
Probabilmente il modo colore della D80 col filtro rosso,giallo etc. va in questa direzione. Sarebbe bello avere anche la possibilita' di intervenire nelle curve di ciascun canale in modo da personalizzare, come dicevo, la risposta ai colori direttamente dal file luminanza, quindi, come diceva l'ing Maio, con la massima qualita' possibile.

In questa direzione andava il mio auspicio, invece di equalizzare il segnale del sensore tenendo conto dei fattori di assorbimento dei filtri colorati interni al sensore, si potrebbero amplificare leggermente i segnali provenienti dal rosso, x i ritratti, o dal verde per il paesaggio, oppure combinazioni dei tre colori per avere curve personalizzate 9simil pellicola smile.gif ).

Magari questo si puo' fare anche adesso ma ignoro come.
saluti
Giuseppe Maio
QUOTE(belvesirako @ Sep 21 2006, 08:58 AM) *

...Vorrei invece far riflettere su una cosa molto semplice: il tempo che ci vuole x fare la PP.

Se un professionista scatta in Raw e' implicito un passaggio in PP e questo significa tempo, tradotto nel linguaggio degli affari=soldi.
Amici fotografi di cerimonia mi dicono che x il prezzo dei servizi non possono permettersi PP, pensate che molti pur avendo D2X e simili scattano in jpg e stampano cosi' come viene: un sacrilegio...

Sono il primo a considerare il fattore tempo=soldi ma anche il fattore professionalit�, qualit� e potenzialit�.
NON � vero che scattare in JPG riduce i tempi assoluti di trattamento.
Si pu� per esempio scattare in RAW e, scaricati i RAW/NEF, richiedere in automatizzazione batch i corrispettivi JPG costruiti con i parametri di ripresa.
I Jpg cos� ottenuti saranno di qualit� superiore senza PP:

Messa a Fuoco o Nitidezza ?, Variabili in essere...

QUOTE(belvesirako @ Sep 21 2006, 08:58 AM) *

...si potrebbero amplificare leggermente i segnali provenienti dal rosso, x i ritratti, o dal verde per il paesaggio, oppure combinazioni dei tre colori per avere curve personalizzate simil pellicola smile.gif ).

Nella lavorazione Batch si potr� inoltre, automatizzare la conversione in BN con i parametri prescelti. Anche questo � quindi possibile in Capture NX con gli automatismi affinati secondo i personali gusti.

In definitiva RAW !

G.M
landys
scusate se chiedo di ribadire e chiarire pi� semplicemente il concetto...
sono la stessa cosa quindi il file on camera (raw) bianconero della D200 e quello di capture cliccando su modo bw ?
e i primi sono comunque da preferire a quello scaturito da un qualsiasi altro software che elaborasse un file colore della macchina ? giusto?
non ho ben chiaro questo concetto grazie!
Giuseppe Maio
QUOTE(land @ Sep 21 2006, 05:10 PM) *

1 ... sono la stessa cosa quindi il file on camera (raw) bianconero della D200 e quello di capture cliccando su modo bw ?


QUOTE(Giuseppe Maio @ Sep 18 2006, 08:36 PM) *
Come giustamente descritto da Gianni, da un RAW si potranno ottenere le massime potenzialit� reversibili. On-camera, scattando in JPG invece, otteniamo un bianconero in base alla logica di costruzione. La D200 offre il bianconero basato sul dettaglio di luminanza, la D80 incorpora anche la filtratura Rosso, Verde ma anche Arancio e Giallo.

A quanto detto da Gianni aggiungo un particolare sulla potenzialit� RAW di Nikon Capture 4 e NX sull'opzione bianconero raggiungibile dal modo colore. Questa opzione (che corrisponde esattamente a quella on-camera D200) offre l'immagine composta dal dettaglio di luminanza che non � quindi una immagine RGB desaturata o comunque lavorata...

Se si parla di file on-camera si parla eventualmente di jpg perch� se parliamo di RAW/NEF la fotocamera non applica nulla se non le preferenze (allegate come testo ai dati grezzi d'immagine) scelte all'atto di ripresa. Un RAW/NEF viene costruito dal programma e la fotocamera si riserva di salvare solo i dati del sensore e le preferenze di costruzione(ovviamente convertiti in digitale).
Se desideriamo invece verificare le differenze assolute tra un BN JPG on-camera D200 e lo stesso ottenuto con Capture NX da un RAW D200 attraverso la funzione in oggetto...
...posso ipotizzare comunque "superiore" quello costruito da Capture NX con lavorazione a 16 bit.

QUOTE(land @ Sep 21 2006, 05:10 PM) *

2...e i primi sono comunque da preferire a quello scaturito da un qualsiasi altro software che elaborasse un file colore della macchina ? giusto?

La preferenza, � una preferenza che quindi non pu� essere assoluta.
Se si parla di JPG la fotocamera determiner� qualit� e potenzialit� (anche dei BN) in base alle caratteristiche del modello. Se parliamo di RAW � il programma di costruzione usato a computer a determinare potenzialit� e qualit�. Quella del canale di luminanza � in "esclusiva" a pochi software.
Il canale della luminanza � scientificamente preferibile o comunque da prediligere fotograficamente quando si ricerca la massima gamma possibile. Non tutti i programmi di costruzione RAW offrono tale potenzialit� mentre tutti permettono di trattare i distinti canali RGB ottenuti dalla costruzione immagine RAW.

Spero di aver colmato i dubbi espressi legati anche alle numerose:
Potenzialit� RAW/NEF

G.M
Fabio Pianigiani
Grazie per queste perle.
StefanoBonfa
QUOTE(Giuseppe Maio @ Sep 18 2006, 08:36 PM) *

...Il bianonero di "luminanza" amplifica ogni singolo pixel per equipararlo anche in base al fattore d'assorbimento del filtro ed in un dedicato algoritmo...

Gli altri metodi di conversione, invece, ...

Secondo me non � cos� (... e mo' mi censura un'altra volta... biggrin.gif ).

Innanzitutto per un sensore NON monocromatico, ma con matrice filtri colore, non si pu� parlare di "file luminanza" o "canale luminanza".
Il termine luminanza ha due accezioni: una fotometrica e una definita dal CIE.
In questo caso non soddisfa n� l'una, n� l'altra.

Se, ad esempio, fotografiamo un giallo puro, i pixel con filtro blu di un sensore ideale registreranno il valore zero.
Dovremmo dire che il soggetto in quei punti ha luminanza zero???

Se poi moltiplichiamo per il fattore correttivo del filtro, avremmo sempre 0*X=0, quindi il giallo in quei punti viene sempre nero puro e la foto assume un aspetto puntellato. Una ipotetica amplificazione correttiva, caso mai, aumenterebbe di molto il rumore.
Ne consegue che il BN non pu� essere ricavato il quel modo.

Faccio presente che, in qualsiasi sistema colore, la luminanza (Y o L) � sempre la combinazione lineare dei tre colori primari, sia che si ottenga durante la conversione RAW, sia che si ottenga dopo.
fenderu
QUOTE(Giuseppe Maio @ Sep 20 2006, 02:37 PM) *
... una conversione BW fatta costruendo il canale che privilegia il dettaglio di luminanza � "superiore" in gamma, ha "meno" rumore e pu� risultare pi� "nitida" se fatta on-camera da una Nikon o se ottenuta da una trattazione RAW/NEF di Capture NX dall'apposita funzione di Modo Colore. Qualunque altro metodo applicato DOPO la costruzione RGB di demosaicizzazione implica degrado proporzionale alle variabili...

gnam gnam....mi si � accesa una lampadina in testa; Lampadina.gif

grazie.gif
fenderu
ricordo una vecchia discussione con un amico sul bianco e nero digitale;

questi (� un utende del forum, mannaggia non ricordo il nome) continuava a scattare usando i filtri colorati anche sul digitale; questo perch� (non si stancava mai di ricordarmelo) il successivo uguale intervento in post produzione (parlo del prefiltro colorato) avrebbe comportato una "perdita di dati" che invece non c'� usando il filtro direttamente in ripresa;

mi sembra di poter dire che adesso, con la soluzione offerta da Capture NX scattando in RAW, i filtri colorati siano stati perfettamente sostituiti, anche e sopratutto in merito al discorso "perdita di dati";

esatto? hmmm.gif
Giuseppe Maio
QUOTE(StefanoBonfa @ Sep 22 2006, 12:13 PM) *

Secondo me non � cos� (... e mo' mi censura un'altra volta... biggrin.gif ).

Anche secondo me non � come l'hai intesa

In realt� aspetto ancora di sapere quale sensore monta la Sony Alfa...

Nikon DSLR e la Concorrenza...

Quindi potremmo analizzare le errate interpretazioni fatte anche in questa.
Sulla base del concetto di base che resta coerente potresti approfondire.

G.M
StefanoBonfa
QUOTE(Giuseppe Maio @ Sep 22 2006, 03:16 PM) *

In realt� aspetto ancora di sapere quale sensore monta la Sony Alfa...

Nikon DSLR e la Concorrenza...

Quindi potremmo analizzare le errate interpretazioni fatte anche in questa.
Sulla base del concetto di base che resta coerente potresti approfondire.

Dipende:
quello di cui Sony ha a suo tempo divulgato le foto e che ancora si vedono su alcuni siti,
oppure quello che in seguito ha realmente montato in fase di produzione di massa ?
In questo secondo caso avevo spiegato come si poteva risolvere ogni dubbio biggrin.gif

Riguardo a quel "... canale di luminanza in "esclusiva" a pochi software", vorrei fare un esempio pratico, visto che il mio software � tra gli eletti. wink.gif

Prendiamo un NEF postato nel Forum: questa foto di Matteo Ganora � particolarmente istruttiva perch� ha dei fiori gialli su fondo grigio
[attachmentid=61016]

Decodifico il NEF e costruisco l'immagine BN direttamente con i dati RAW, senza effettuare alcuna demosaicizzazione.
Ecco un dettaglio dei fiori ingrandito:
[attachmentid=61017]

Come ho detto in precedenza, noterete che il giallo dei fiori � diventato puntellato di scuro in corrispondenza dei pixel col filtro blu, mentre il grigio � alquanto omogeneo.
Ovviamente siamo in un caso reale ed i puntini scuri non raggiungono il nero puro (cio� con valore nullo).
Facendo la media sui fiori gialli, noto che il valore del blu � circa sei volte inferiore al verde.
Provo a compensare livellando i valori verde-blu, ed ecco cosa succede:
[attachmentid=61018]

Il giallo � diventato mediamente pi� omogeneo, ma di conseguenza si altera vistosamente il grigio, che da omogeneo diventa a quadri.

Come volevasi dimostrare. rolleyes.gif
Giuseppe Maio
QUOTE(StefanoBonfa @ Sep 22 2006, 03:38 PM) *

Dipende:
quello di cui Sony ha a suo tempo divulgato le foto e che ancora si vedono su alcuni siti, oppure quello che in seguito ha realmente montato in fase di produzione di massa ?

Il sensore non � stato cambiato in corsa ma � sempre stato quello.
Abbiamo infatti sempre ipotizzato si trattasse di un errore "volontario" o "involontario" nella divulgazione dell'immagine errata ma...
QUOTE(StefanoBonfa @ Sep 22 2006, 03:38 PM) *

Riguardo a quel "... canale di luminanza in "esclusiva" a pochi software", vorrei fare un esempio pratico, visto che il mio software � tra gli eletti. wink.gif

Ci� � ovvio, tra noi come rappresentato anche nel manuale a corredo della Nikon D80 Nital...
...dovremmo semmai parlare del dedicato algoritmo che opera preservando i dettagli di luminanza...
Questa discussione nasce con richieste che riguardano i diversi metodi di ottenimento BN e questo ad oggi non era mai stato sottolineato anche se gi� supporrtato da tempo con il Nikon Capture 4.4.
Entrare poi nei dettagli della specifica costruzione penso interessi principalmente "noi".
Prova a prendere lo stesso RAW/NEF e convertirlo in Capture NX con il modo colore oggetto di questa discussione, quindi proponi anche le altre variabili ottenute dalla lavorazione RGB pi� o meno complessa.
Avremo cos� modo di valutare visivamente gli effetti su rumore, dettaglio e gamma.

G.M

PS: Se desideri ottimizzare il testo e le immagini dell'allegato sar� per me un piacere raccogliere elementi concreti... anche se mi pare descriva quanto da te sopra citato.
Giuseppe Maio
QUOTE(fenderu @ Sep 22 2006, 12:48 PM) *

...questo perch� (non si stancava mai di ricordarmelo) il successivo uguale intervento in post produzione (parlo del prefiltro colorato) avrebbe comportato una "perdita di dati" che invece non c'� usando il filtro direttamente in ripresa...
Sul principio dell'eventuale "perdita di dati" espresso si potrebbe asserire che, su sensori a matrice con filtratura colore, � vero proprio il "contrario"...

Per la massima qualit� di ripresa si cerca di ottenere il massimo segnale elettrico comunque poi mediato nella soglia Noise.
Scattare senza filtri colorati montati in ripresa sull'obiettivo, permette di ottenere il massimo segnale luminoso di registrazione. Il filtro infatti, altro non fa' che tagliare parte dello spettro. Per la fotografia BN � quindi possibile asserire che si potr� ottenere lo stesso effetto agendo, in PP sulla densit� dei tre canali colore e dei rispettivi complementari.
Diverso � invece dover o voler tagliare con precisione specifiche lunghezze d'onda. In questi casi usare filtri specifici permette i risultati voluti con maggiore facilit� anche se dobbiamo calcolare l'interferenza con le specifiche lunghezze d'onda comunque tagliate diero dal filtro low-pass e dalla filtratura Bayer.

G.M
paolo.torrielli@tiscali.it
Comunque chi � davvero interessato a fare il BN digitale ha un modo semplice per vedere cosa gli conviene...provare trattare lo stesso file con vari programmi (Capture 4.4, NX...etc) stamparlo e giudicare quello che gli piace di pi� o che ha caratteristiche migliori di dettaglio etc... wink.gif
Detto da uno che odia la teoria e adora le sperimentazioni pratiche...
Ma questa discussione ora si incentra sul metodo con cui Capture arriva a dare l'immagine BN, vi dico una cosa, siete tutti molto preparati, ma voglio essere onesto, non capisco veramente un tubo in quello che dite, e nemmeno � molto importante perch� ho il metodo sperimentale per scegliere che tipo di sistemi usare in fotografia...

P.S.
Ho dedotto che � indifferente utilizzare l'opzione BW prima o dopo la ripresa...giusto? wink.gif
earlybird
La Luminanza esprime la pura somma dei canali R+G+B.
A riprova, alcune tecniche di ripresa utilizzano file separati ( L,R,B ) per ottenere il canale G, che � pari a G= L-(R+B ) (oppure B=L-(G+R) o R=L-(B+G). Certamente, per misure fotometriche scientifiche, non esiste nulla di meglio del puro sensore B/W, ma, in ogni caso, i risultati non si discostano di molto.
A patto, per�, che tassativamente siano state o osservate o tenute in conto le regole del campionamento, perch�, altrimenti, l'algoritmo di traduzione della matrice Bayer fornir� risultati errati: per spiegarmi, se il pi� piccolo punto risolvibile dall'obiettivo si diffonde esattamente sulla matrice di 4 pixel...
RG
GB
i calcoli della luminanza saranno esatti.
Se si diffonde su una matrice tipo...
BGBG
GRGR
BGBG
GRGR
avremo la matrice centrale RGGB, circondata da elementi singoli di matrici limitrofe. Come si regola un software "normale" in questo caso? Continuando a leggere esclusivamente la matrice centrale ed attribuendo alle matrici periiferiche valori che non appartengono loro; matrici periferiche che, a loro volta, influenzano la lettura della matrice centrale.

Tradurre una matrice di Bayer senza sapere quale sia stata l'accoppiata apertura-focale produrr� sempre risultati alterati: dove? Nei grigi in fase di demosaicizzazione.
Visti i risultati che si ottengono dal software proprietario, a differenza di altri programmi, anche professionali, sono certo che viene tenuto in gran conto il valore del campionamento, calcolandolo sui dati in arrivo dall'obiettivo.

Per fare un po' di prove basta riprendere a distanza il classico led bianco su fondo scuro ed applicare all'immagine il calcolo della PSF (point spread function) e della conseguente FWHM: se il 70% della luminosit� si concentra su un'area di 2x2 pixel, apertura e focale dell'obiettivo sono perfette in rapporto alle dimensioni del pixel del sensore. Altrimenti siamo fuori campionamento ( sovra o sottocampionamento). In questo caso ci si allontana (o ci si avvicina) al led e si studiano i risultati ottenuti.
E' un metodo un po' empirico ma valido per poter poi sostituire al led un fiore e spremerne ogni minuto dettaglio: campionamento, luminanza e fuoco sono termini inscindibili ai fini dell'alta risoluzione.

E.F.
StefanoBonfa
QUOTE(Giuseppe Maio @ Sep 22 2006, 04:00 PM) *

Questa discussione nasce con richieste che riguardano i diversi metodi di ottenimento BN e questo ad oggi non era mai stato sottolineato...

Riguardo ai metodi posso dire il mio personale metodo.
Generalmente non passo mai alla bruta dal colore al BN.
Il passaggio dal colore al BN comporta una variazione delle caratteristiche percettive e di conseguenza una variazione dei parametri usati per costruire l'immagine.
Personalmente ho previsto la scelta di diverse opzioni: dal valore del gamma, alla correzione del WB, alla scelta se partire da dati RAW o da dati convertiti in uno spazio colore RGB, esposizione, etc.
Per far questo devo necessariamente partire dai dati RAW ed effettuare tutta una nuova conversione.

Non si pu� ricostruire la luminanza di un oggetto se si conosce solo un colore primario su tre: sarebbe proprio un miracolo...

La luminanza si ottiene moltiplicando i valori RGB per i rispettivi coefficienti. Il valore di questi coefficienti dipende dal tipo sistema in cui si opera e dal tipo di dati (cio� se prima o dopo l'inserimento in uno spazio colore con relativa correzione gamma).
Ad esempio, se i dati sono gi� in uno spazio colore, il canale luminanza Y si ottiene eseguendo per ogni pixel il seguente calcolo: Y=0.299*R+0.5876*G+0.114*B


Giuseppe Maio
QUOTE(StefanoBonfa @ Sep 22 2006, 07:09 PM) *

Riguardo ai metodi posso dire il mio personale metodo.

Stefano, � evidente che cerchiamo due distinti fini nel partecipare a queste discussioni.
Io, con questo intervento intendevo solo presentare il metodo disponibile che come vedi nessuno adotta sebbene disponibile da tempo.
Non era mia intenzione entrare nel merito sul come nello specifico calcolo matematico d'algoritmo.
Tu, invece, entri subito nell'aspetto del calcolo di luminanza e con questo intento "travisi" le mie parole che sull'aspetto della stessa hanno ragione di entrarci, sebbene nella forma pi� pura possibile giustamente permessa solo da sensori privi di filtratura colore.

Trovo quindi utilissimi i tuoi interventi ma ci piacerebbe a questo punto "concretizzare" e sapere se conosci veramente l'algoritmo usato da Nikon per questa potenzialit� che certamente offre risultati d'interesse.
� quindi importante mostrare le differenze visive dei diversi metodi e ci� su situazioni fotografiche e non meramente scientifiche come pi� volte hai fatto sulla compressione RAW/NEF senza perdita visiva percettibile (ovviamente escluse le improbabili esasperazioni).

In definitiva non mi hai detto se trovi il documento pdf corretto secondo i tuoi canoni.
Se affermativo potremmo procedere verificando i benefici di questo "metodo colore BN" e, se ci puoi o vuoi aiutare, capire quale algoritmo viene usato e quindi da dove derivano i benefici ritrovati a differenza anche delle lavorazioni RAW/NEF con variazioni WB ecc.
Il documento potrebbe cos� arricchirsi di informazioni concrete ed utilizzabili.
Strade diverse da quelle da me ipotizzate di certo porterebbero questa, come altre innumerevoli, all'inutile naufragio...

G.M
fenderu
QUOTE(paolo.torrielli@tiscali.it @ Sep 22 2006, 05:16 PM) *

vi dico una cosa, siete tutti molto preparati, ma voglio essere onesto, non capisco veramente un tubo in quello che dite,


laugh.gif

in concreto:

bn prefiltro verde, contrasto MAX, EV +0.7, MAX Nitidezza;

(l'unico step � stato un leggerissimo crop);

ci pu� stare come bn di partenza a perdita zero? wink.gif

IPB Immagine


oops, pensavo ridimensionasse in automatico; adesso ridimensiono;
StefanoBonfa
QUOTE(Giuseppe Maio @ Sep 22 2006, 08:35 PM) *

Stefano, � evidente che cerchiamo due distinti fini nel partecipare a queste discussioni.

Questo mi pare ovvio: l'oste deve beatificare il suo vino, il cliente... deve fare il cliente.

Sinceramente non credo ci sia molto da inventarsi su una banale conversione BN.
Gli algoritmi sono sostanzialmente identici perch� la definizione di luminanza � universalmente riconosciuta, si tratta solo di applicare una formula. In base alla struttura generale del programma pu� cambiare quando convertire in luminanza, ma il risultato finale deve essere pressocch� indentico. Generalmente si opera a lavoro di costruzione immagine finito e mi sembra che Capture segua questa norma.
Quello che invece pu� fare la differenza in termini pratici sono i controlli disponibili per costruire l'immagine BN finale.
Cambiare il bilanciamento colori, ad esempio, � un po' come simulare l'impiego dei filtri colore su una pellicola BN. Sono impostazioni non facilmente calcolabili a priori, e operare nello stesso ambiente di un convertitore (senza dover ricorrere ad editor esterni) consente l'instaurarsi di un meccanismo di feedback: l'utente vede il risultato ed istantaneamente decide le eventuali variazioni da apportare.

Riguardo al documento: a pag. 2 personalmente eviterei di parlare di file di luminanza per quanto ho detto sopra, ed anche di canali visto che si tratta di valori puntuali relativi a singoli pixel; l'inizio di pag. 1 contiene dei luoghi comuni che purtroppo si incontrano spesso. A rigore, un sensore non registra un'immagine in bianconero, ma un'immagine a colori con struttura a mosaico, dove ogni pixel registra un solo colore primario secondo lo schema di Bayer (per limitarci al nostro caso).
E' ovvio che si tratta di una codifica, gli elettroni ed i valori numerici non sono n� grigi n� di altro colore.
Questo � un crop dell'immagine RAW registrata dal sensore (provate ad ingrandire):
[attachmentid=61087]
Giuseppe Maio
QUOTE(StefanoBonfa @ Sep 23 2006, 10:10 AM) *

Questo mi pare ovvio: l'oste deve beatificare il suo vino, il cliente... deve fare il cliente.

Questo dimostra l'errato atteggiamento.
Qu� nessuno voleava beatificare ma semplicemente trovare vantaggi in una specifica opzione.
Tu, fino a questo momento non ci hai ancora dato elementi per valutare benefici, svantaggi ne tantomeno raffronti su questo metodo di costruzione BN.
QUOTE(StefanoBonfa @ Sep 23 2006, 10:10 AM) *

Sinceramente non credo ci sia molto da inventarsi su una banale conversione BN.

Non � poi cos� banale questo metodo come molti altri offerti da altri software di costruzione RAW. Banale sarebbe forse se non producesse quanto ricercato.
QUOTE(StefanoBonfa @ Sep 23 2006, 10:10 AM) *

Generalmente si opera a lavoro di costruzione immagine finito e mi sembra che Capture segua questa norma.

Se cos� fosse il risultato ottenuto dalla conversione di Modo Colore sarebbe emulabile agendo in costruzione sulle regolazioni colore.

QUOTE(Giuseppe Maio @ Sep 22 2006, 08:35 PM) *

...In definitiva non mi hai detto se trovi il documento pdf corretto secondo i tuoi canoni. Se affermativo potremmo procedere verificando i benefici di questo "metodo colore BN" e, se ci puoi o vuoi aiutare, capire quale algoritmo viene usato e quindi da dove derivano i benefici ritrovati a differenza anche delle lavorazioni RAW/NEF con variazioni WB ecc.
Strade diverse da quelle da me ipotizzate di certo porterebbero questa, come altre innumerevoli, all'inutile naufragio...

Salvo la precisazione corretta sulle parole usate non trovo evoluzioni sintomo dell'ipotizzato naufragio... che potrai evitarci trattando i diversi algoritmi usati e quindi le differenze presenti rispetto ad una convenzionale conversione anche fatta con controlli WB e dei canali colore.

G.M

G.M
margior
Leggo con interesse...

Mi viene da osservare che in Photoshop il metodo cosiddetto Lab che consente di lavorare sul canale della luminanza esiste da tempo.

Ho sempre supposto che la compensazione dell'esposizione fatta prima dell'apertura del raw in fondo non sia altro che "un agire sul canale della luminanza", quindi mi sono sempre chiesto se ci sono differenze tra l'operare prima (parlo sempre di photoshop, quindi camera raw o plugin) o dopo passando da rgb a lab e tornando poi a rgb.

Passare da rgb di un raw 16 bit a lab, lavorare sul canale della luminanza ed estrarre il canale permette appunto una "alternativa" conversione B/N ma non capisco se ci sono "sostanziali" differenze rispetto a quanto qui prospettato.
StefanoBonfa
QUOTE(Giuseppe Maio @ Sep 23 2006, 10:50 AM) *

Qu� nessuno voleava beatificare ma semplicemente trovare vantaggi in una specifica opzione.

Ripeto: io non trovo niente di speciale, rientra tutto nella logica di Capture.
Capture applica sempre delle curve di contrasto seguendo una logica propria, non nota all'utente e quindi non prevedibile.
Spesso i risultati sono erratici e del tutto inaccettabili, non per niente molta gente si ritrova a dover schiarire non per correggere gli errori della macchina, ma per correggere gli errori di Capture.
Come lo fa per il colore, cos� lo fa per il BN, solo che il BN ha esigenze diverse, molto pi� semplici da soddisfare, cos� le curve applicate sono necessariamente diverse.
Che poi piacciano o meno dipende dal soggetto, dal gusto personale e dalle specifiche richieste.
Basta estrarre il canale luminanza dall'immagine a colori e poi confrontare i livelli con quelli del BN, noterete che sono alterati.

E poi, diamo a Cesare quel che � di Cesare... il BN con un sensore espressamente costruito per il colore... ma dai !
Per me � solo un gioco... niente a che vedere con il BN su sensori monocromatici e infinitamente lontano dal BN su pellicola. wink.gif



mikelinos
Salve a tutti.
Scusate la mia ignoranza, ma vorrei capire l'atto pratico:

Apro il file raw con Capture 4.4
Aggiusto l'esposizione.
Faccio le modifiche sul colore ( livelli, tonalita', saturazione ecc.).
Converto in BN sempre con capture.
Aggiungo maschera di contrasto.
Riporto in colori e salvo.

E'giusto?
Giuseppe Maio
QUOTE(mikelinos @ Sep 25 2006, 12:55 PM) *

...ma vorrei capire l'atto pratico...

In questa discussione si intendeva verificare le differenze offerte dalla conversione Bianco e Nero ottenuta dall'opzione di Modo Colore. Per i "puristi" anche valutando le differenze con l'opzione on-camera di D200 e D80.
L'intento � quindi quello di ottenere un file monocromatico BN e non a colori.
Della conversione si intendeva verificare le differenze di gamma (contrasti), nitidezza e rumore ed il tutto rapportato all'assenza di filtrature colore o con le filtrature volute ed attuate in gradazioni soggettive dal bilanciamento del bianco o dalla regolazione RGB-CMY.

Nel mio Messaggio 11 di questa discussione mostravo l'opzione di Capture NX comunque uguale a quella di Nikon Capture 4.4.2 allegata a questa.

Questo tipo di conversione offre potenzialit� diverse da quelle "notoriamente" attuate.
Il Modo Colore specifico (mostrato in allegato) non pregiudica comunque le regolazioni di WB, di Variazione Filtri Colore dalla palette "Effetti Foto" cos� come Curve ecc...

Verifica il tuo normale modo operandis con il metodo oggetto di questa discussione e facci sapere.

G.M
mikelinos
QUOTE(Giuseppe Maio @ Sep 25 2006, 01:16 PM) *

In questa discussione si intendeva verificare le differenze offerte dalla conversione Bianco e Nero ottenuta dall'opzione di Modo Colore. Per i "puristi" anche valutando le differenze con l'opzione on-camera di D200 e D80.
L'intento � quindi quello di ottenere un file monocromatico BN e non a colori.
Della conversione si intendeva verificare le differenze di gamma (contrasti), nitidezza e rumore ed il tutto rapportato all'assenza di filtrature colore o con le filtrature volute ed attuate in gradazioni soggettive dal bilanciamento del bianco o dalla regolazione RGB-CMY.

Nel mio Messaggio 11 di questa discussione mostravo l'opzione di Capture NX comunque uguale a quella di Nikon Capture 4.4.2 allegata a questa.

Questo tipo di conversione offre potenzialit� diverse da quelle "notoriamente" attuate.
Il Modo Colore specifico (mostrato in allegato) non pregiudica comunque le regolazioni di WB, di Variazione Filtri Colore dalla palette "Effetti Foto" cos� come Curve ecc...

Verifica il tuo normale modo operandis con il metodo oggetto di questa discussione e facci sapere.

G.M



Oppss! Scusa ma mi ero perso.
Provero' subito il metodo.
Saluti a tutti e buon click!
earlybird
QUOTE(StefanoBonfa @ Sep 23 2006, 07:30 PM) *

E poi, diamo a Cesare quel che � di Cesare... il BN con un sensore espressamente costruito per il colore... ma dai !
Per me � solo un gioco... niente a che vedere con il BN su sensori monocromatici e infinitamente lontano dal BN su pellicola. wink.gif


Mettiamo da parte per un attimo Nikon, Capture, firmware ecc ecc.
Qual � la differenza tra un sensore monocromatico ed uno a colori?
La presenza del colore sulle microlenti, che ambedue posseggono.
Quando i sensori vengono letti, escono identici segnali elettrici, seppur di livello diverso, a parit� di sorgente e di tempo di integrazione.
Il che significa che le immagini in questa fase apparirebbero in toni di grigio per ambedue i sensori. Quella proveniente dal sensore a colori mostrerebbe chiaramente la geometria del mosaico della matrice di Bayer (o altra): cosa fare?
Si pu� scegliere tra due possibilit�:

a )- si possono applicare i correttivi dichiarati dal costruttore relativi alla perdita di efficienza quantica dei filtri colorati. La matrice di Bayer � semplice ed efficace: coordinate x,y pari= filtro R, coordinate dispari=filtro B, coordinate x pari e y dispari (e viceversa) = filtri G. In tal modo si pu� ricostruire con buona approssimazione il file luminanza. Dico buona perch� non possiamo essere sicuri dello standard costruttivo su una serie di migliaia di esemplari di wafer.

b )- si applica sua maest� il Flat Field, creato con la stessa identica configurazione ottica, che fornir� la chiave dell'equalizzazione dell'efficienza quantica dei vari pixel. L'applicazione del flat ha il vantaggio, anche, di non creare "rumore", a differenza di qualunque altro metodo di "normalizzazione" del raw. Io sono sempre pi� meravigliato di quanto poco si parli in questo forum (e sulle riviste di settore) del Flat, che � il cardine imprescindibile della fotografia digitale.
Con il Flat non c'� alcun bisogno di "interpretare" la matrice di Bayer: ogni pixel un punto spaziale con un suo valore di grigio.

Lo svantaggio del sensore a colori � la sua minor eff�cienza quantica rispetto al suo confratello monocromatico e, quindi, la necessit� di un maggior tempo di integrazione per raccogliere lo stesso segnale.

Nelle fotocamere digitali astronomiche a colori, la conversione a colore � l'ultima fase del processo di post-produzione: prima si lavora solo sui segnali provenienti dai sensori, mono o a colori non fa alcuna differenza.
Addirittura esistono due fotocamere, le Starlight MX5 e MX5C, nelle quali i due sensori sono intercambiabili, in quanto l'unica differenza tra uno e l'altro � la presenza della matrice colore.

Tornando a Nikon, se questa asserisce determinate cose, io, da cliente, devo crederci: altrimenti mi rivolgo ad altri costruttori. L'unica cosa che mi manca, e non solo da Nikon, la possibilit� di bypassare totalmente il firmware, cio� di ottenere la copia fedele su file di ci� che � uscito dal convertitore analogico-digitale: semplicemente, mi piacerebbe avere la possibilit� di prendermi cura personale delle mie immagini.

E.F.
acarodp@yahoo.it
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 25 2006, 04:34 PM) *

b )- si applica sua maest� il Flat Field, creato con la stessa identica configurazione ottica, che fornir� la chiave dell'equalizzazione dell'efficienza quantica dei vari pixel. L'applicazione del flat ha il vantaggio, anche, di non creare "rumore", a differenza di qualunque altro metodo di "normalizzazione" del raw. Io sono sempre pi� meravigliato di quanto poco si parli in questo forum (e sulle riviste di settore) del Flat, che � il cardine imprescindibile della fotografia digitale.
Con il Flat non c'� alcun bisogno di "interpretare" la matrice di Bayer: ogni pixel un punto spaziale con un suo valore di grigio.



Mah, io penso che non se ne parli perch� nessuna DSLR lo fa. Inoltre non � propriamente facile produrre un FF decente. In astronomia di solito ce la si cava con i FF sul cielo del crepuscolo, cosa non molto pratica per impieghi di fotografia "normale". Oppure devi avere una lampada di calibrazione, il che per� � ancora meno pratico.
E neppure puoi fare un FF una volta per tutte se come dici tu vuoi che sia "con la stessa configurazione ottica" perch� ovviamente dovresti farlo per ogni foto, con lo stesso obiettivo, focale (se � uno zoom) e diaframma. Se si facesse, avresti il vantaggio non da poco di eliminare qualsiasi vignettatura.
Poi non sono sicuro di capire cosa intendi con "non c'� bisogno di interpretare la matrice di bayer"... potresti spiegarlo meglio?

Ciao

L.
earlybird
QUOTE(margior @ Sep 23 2006, 04:31 PM) *

Leggo con interesse...

Mi viene da osservare che in Photoshop il metodo cosiddetto Lab che consente di lavorare sul canale della luminanza esiste da tempo.

Ho sempre supposto che la compensazione dell'esposizione fatta prima dell'apertura del raw in fondo non sia altro che "un agire sul canale della luminanza", quindi mi sono sempre chiesto se ci sono differenze tra l'operare prima (parlo sempre di photoshop, quindi camera raw o plugin) o dopo passando da rgb a lab e tornando poi a rgb.

Passare da rgb di un raw 16 bit a lab, lavorare sul canale della luminanza ed estrarre il canale permette appunto una "alternativa" conversione B/N ma non capisco se ci sono "sostanziali" differenze rispetto a quanto qui prospettato.


Il Lab (che, per chi non lo sappia, non ha niente a che vedere con laboratorio, ma vuole significare canale L, asse a e asse b ) � una diretta derivazione del sistema Hsl (hue, saturation, luminance, cio� tinta, saturazione e luminanza).

Il sistema RGB viene rappresentato con un cubo, di lati R,G,B rispettivamente, nel quale l'origine rappresenta il nero e il vertice diagonalmente opposto il bianco.
Immagina di aver ottenuto un'immagine troppo rossa: la risposta logica sarebbe di ridurre il canale del colore rosso. In questo modo, per�, per mantenere la luminosit� totale dell'immagine, siamo costretti ad alzare il livello dei canali verde e blu, introducendo altre dominanti.
Il cervello umano, in pi�, non ragiona in termini RGB, ma interpreta il Colore di base (rosso, verde, blu, viola...), la Saturazione ( celeste, azzurro chiaro, azzurro, blu, blu scuro) e la Luminosit�, come somma totale della luce ricevuta. In altre parole, il nostro cervello ragiona nel sistema HSL.
Questo viene rappresentato come un cilindro, il cui asse � la Luminanza, con valori che rappresentano toni di grigio, con R=G=B. Il raggio del cilindro, che � unitario, cio� va da 0 ad 1, rappresenta la saturazione (una saturazione del rosso di valore pari a 0,7, cio� il 70%, significa pi� o meno un rosa intenso). H (il colore ) viene rappresentata da un angolo identificato lungo la circonferenza del cilindro: il Rosso puro � 0�, il Verde puro 120�, il Blu puro 240�. Il Ciano, complementare del Rosso, � diametralmente opposto (180�) e cos� via.

Il sistema Lab � un miglioramento semplificativo del sistema HSL: in questo, per identificare un punto all'interno del cilindro, abbiamo bisogno di riportare l'altezza L, il raggio percentuale e un angolo, con tutte le complicazioni del caso. Nel Lab il punto viene identificato dall'altezza L e da due coordinate cartesiane, a e b. Il sistema Lab, inoltre, corregge, anche, un difetto del sistema HSL: in questo, se S � grande, una piccola variazione di H produrr� effetti eclatanti, mentre, nel caso opposto, l'occhio percepir� poco o nulla. Nel sistema Lab, invece, le variazioni di crominanza sono sempre identiche in resa visiva.

Come vedi, nel Lab e nel HSL, qualunque variazione cromatica non influenzer� mai la Luminanza, perch� lavoriamo sempre sulla stessa fetta del cilindro. E, reciprocamente, qualunque intervento sulla luminanza non potr� mai influenzare la Crominanza.

Per concludere, ogni elaborazione tesa a ridurre il rumore, migliorare il dettaglio o filtrare l'immagine, deve passare esclusivamente per il canale L del Lab. Solo al termine, agendo sulle componenti a b, modificheremo il colore.

E.F.
earlybird
QUOTE(acarodp@yahoo.it @ Sep 25 2006, 05:33 PM) *

Mah, io penso che non se ne parli perch� nessuna DSLR lo fa. Inoltre non � propriamente facile produrre un FF decente. In astronomia di solito ce la si cava con i FF sul cielo del crepuscolo, cosa non molto pratica per impieghi di fotografia "normale". Oppure devi avere una lampada di calibrazione, il che per� � ancora meno pratico.
E neppure puoi fare un FF una volta per tutte se come dici tu vuoi che sia "con la stessa configurazione ottica" perch� ovviamente dovresti farlo per ogni foto, con lo stesso obiettivo, focale (se � uno zoom) e diaframma. Se si facesse, avresti il vantaggio non da poco di eliminare qualsiasi vignettatura.
Poi non sono sicuro di capire cosa intendi con "non c'� bisogno di interpretare la matrice di bayer"... potresti spiegarlo meglio?

Ciao

L.


Per il flat basta qualunque superficie omogenea, con luminosit� equamente distribuita: una parete, un muro, un telo ben teso, un cielo uniformemente azzurro o uniformemente velato. Non sono necessarie luci calibrate. Il concetto del flat � che la stessa quantit� di luce deve cadere su tutti i pixel: quale sia la fonte della luce poco importa. In astronomia il flat � pi� critico, perch� uno spostamento importante del telescopio produce facilmente microdeformazioni di ottiche che arrivano a pesare anche decine di chili: ecco perch� si cerca di sfruttare il cielo, anche notturno, o marchingegni particolari, proprio per non muovere il telescopio. Le nostre macchine "terrestri" ci permettono di fare ci� che vogliamo.

Per ottenere il B/N il colore non serve: la matrice di Bayer ( o altre) ha solo lo scopo di filtrare il colore nelle sue componenti fondamentali: sotto le microlenti colorate della matrice i pixel sono tutti uguali. Se il nostro scopo � ottenere il B/N, basta leggere i pixel ed equalizzarne l'efficienza quantica alterata dai filtri colorati. La codifica in colore non serve.

Ciao

E.F.
acarodp@yahoo.it
QUOTE(vincenzo.franchini@fastwebnet.it @ Sep 25 2006, 05:55 PM) *

Per il flat basta qualunque superficie omogenea, con luminosit� equamente distribuita: una parete, un muro, un telo ben teso, un cielo uniformemente azzurro o uniformemente velato. Non sono necessarie luci calibrate. Il concetto del flat � che la stessa quantit� di luce deve cadere su tutti i pixel: quale sia la fonte della luce poco importa. In astronomia il flat � pi� critico, perch� uno spostamento importante del telescopio produce facilmente microdeformazioni di ottiche che arrivano a pesare anche decine di chili: ecco perch� si cerca di sfruttare il cielo, anche notturno, o marchingegni particolari, proprio per non muovere il telescopio. Le nostre macchine "terrestri" ci permettono di fare ci� che vogliamo.

Per ottenere il B/N il colore non serve: la matrice di Bayer ( o altre) ha solo lo scopo di filtrare il colore nelle sue componenti fondamentali: sotto le microlenti colorate della matrice i pixel sono tutti uguali. Se il nostro scopo � ottenere il B/N, basta leggere i pixel ed equalizzarne l'efficienza quantica alterata dai filtri colorati. La codifica in colore non serve.

Ciao

E.F.


Non so, io temo che l'uniformit� debba essere MOLTO elevata per evitare che appaiano artefatti. Quindi un cielo azzurro andrebbe anche bene, non fosse che appunto � azzurro, il che mi fa sospettare che a valle delle microlenti produrrebbe un FF cromaticamente distorto o sbaglio? Mi vien fatto di pensare che se applichi un FF fatto su cielo azzurro attraverso un sensore colore, la sensibilit� dei pixel blu apparirebbe falsamente elevata, e di conseguenza sarebbero falsamente "tagliati" quando dividi per il FF. O c'� qualcosa che non capisco? Il mio punto � appunto questo: tu HAI un sensore a colori, per cui per produrre un FF che non induca "filtraggi" spuri la luce usata per il FF dovrebbe essere neutra cromaticamente.

Non sarei poi d'accordo che per il BN il colore non serve. La resa di un BN � totalmente dipendente dalla risposta colore del sistema ottico, prova ne � che i filtri colorati sono stati sempre impiegati nella fotografia BN. Un grosso vantaggio del BN digitale � proprio che ti porti dietro i colori fino alla postproduzione, e puoi decidere cosa farne a posteriori.

Il motivo per cui in astronomia si eseguono i flat sul cielo � anche che il cielo del crpuscolo � una delle cose pi� uniforme che puoi trovare, e l� l'uniformit� � fondamentale. La questione delle torsioni � relativa: ogni posa sar� fatta a puntamenti diversi tra loro e diverso da quello sul twilight... non credo che tu possa correggere in tal senso. L'uso delle lampade di calibrazione, direi, � giustificato soprattutto dalla necessit� di eseguire flat di sistemi ottici che non possono fare flat di cielo (es. spettrografi).

L.
Pagine: 1, 2
Salta a inizio pagina | Per vedere la versione completa del forum Clicca qui.