Non so perche' Vincenzo abbia smesso di rispondere, ma vedro' di eliminare alcuni dubbi rimasti, finche' non torna (con vostra gioia, dato come sono casinista).
Innanzi tutti ricordo una cosa sostanziale: il rumore non importa, ma quello che interessa e' il rapporto tra il segnale e il suo errore. Ovvero quanto e' piu' forte il segnale rispetto al rumore, quanto questo riesce a distinguersi dal rumore.
Mi spiace, ma io sono abituato alla teoria matematica e un paio di concetti ce li metto, ma le cose piu' tecniche le mettero' tra [] cosi' in caso le saltate.
La teoria statistica che si occupa del conteggio dei fotoni e' quella poissoniana. Questo perche' abbiamo una marea di fotoni che fanno quello che vogliono, ovvero tantissimi eventi e bassa probabilita' (la probabilita' che il fotone emesso arrivi a te e' minuscola, ma cmq abbiano una enormita' di fotoni). Questa teoria statistica mi dice che se misuro tantissime volte una stessa quantita' soggetta a questa statistica notero' che i valori trovati avranno uno scarto [quadratico] medio dal valore vero [che ritengo sia molto vicino alla media dei valori ottenuti] pari alla radice quadra di quest'ultimo, ovvero scartano piu' o meno della radice quadra [per essere precisi, ho il 68% di probabilita' che una misurazioni si trovi entro uno scarto quadratico medio dal valore vero]
Ergo il rumore di una misura e' pari alla sua radice quadra (quindi parliamo di fotoni misurati: e' a questi che si appllicano i conti), quindi maggiore e' il segnale maggiore sara' l'errore.
Quello che importa, pero', non e' il suo valore effettivo, ma quello relativo al segnale misurato, il S/N.
Conti alla mano segnale/rumore=radice quadra del segnale. Quindi maggiore e' il segnale, piu' e' forte rispetto al suo errore o al rumore di fondo.
[inoltre spesso si fanno i conti coi logaritmi del valore del segnale e l'errore associato e' il csi' detto errore relativo: l'errore del segnale diviso il segnale. L'opposto del S/N, ergo facile capire perche' e' importante avere un S/N elevato]
Da quello che ho capito, se non ci fosse alcun intervento correttivo, tutte le nostre foto patirebbero una perdita di luminosit� progressiva dal basso della foto verso l'alto.
No so quanto sarebbe percettibile, ma, da quel che ho capito, se qualcuno pensa a fare questa compensazione, un motivo ci sar�.
Il mio dubbio � che questa compensazione, comunque, non pu� recuperare il dettaglio perso, perch� la dinamica finale risultante dei pixel "in alto" � inferiore rispetto a quella dei pixel "in basso" ed i livelli di luminosit� reali distinti percepiti dai pixel "in alto", per una questione di approssimazione dei decimali, saranno ridotti, o quanto meno ricostruiti casualmente o algoritmicamente, ma non si pu� sperare che corrispondano precisamente a quello che c'era in origine.
Per cui la parte migliore di una foto � quella bassa.
E' cos�?
E se s�, il degrado � percettibile?
No so quanto sarebbe percettibile, ma, da quel che ho capito, se qualcuno pensa a fare questa compensazione, un motivo ci sar�.
Il mio dubbio � che questa compensazione, comunque, non pu� recuperare il dettaglio perso, perch� la dinamica finale risultante dei pixel "in alto" � inferiore rispetto a quella dei pixel "in basso" ed i livelli di luminosit� reali distinti percepiti dai pixel "in alto", per una questione di approssimazione dei decimali, saranno ridotti, o quanto meno ricostruiti casualmente o algoritmicamente, ma non si pu� sperare che corrispondano precisamente a quello che c'era in origine.
Per cui la parte migliore di una foto � quella bassa.

E' cos�?
E se s�, il degrado � percettibile?
E' esattamente cosi': l'angolo opposto a dove sta il canale di lettura e' piu' "debole" di quello in prossimita' dello stesso. Ed e' anche molto evidente, adto che abbiamo migliaia di traferimenti. Per questo in astronomia si fanno dei conti laboriosi per ottenere il cosi' detto Flat field, che e' un'immagine/maschera che si usa per correggere tutte le disuniformita' del sistema ottico (non solo il ccd, infatti va calcolato uno per ogni filtro usato). Appena riesco vedro' di postarne uno di esempio (cosi' vi farete delle belle risate, capirete).
La correzione per transfert rate puo' essere approssimata dividendo il segnale misurato per l'efficacia di trasferimento elevata al numero di trasferimenti che ha subito [n_riga+n_col+2]
E' possibile che due sensori uguali "soffrano" il rumore ad intensit� diversa?
Se si, esiste una taratura, qualcosa di elettronico come per il banding o per i vari hot/dead pixel?
Se si, esiste una taratura, qualcosa di elettronico come per il banding o per i vari hot/dead pixel?
Putroppo ogni coppia sensore/elettronica ha la sua storia. Per ognuno bisogna farele immagini di bias [l'elettronica di lettura non ritorna il valore del segnale, ma questo aggiungo ad una costante, un bias: e' per ragioni di elaborazione elettronica del segnale elettrico], di flat e calibrazione delle misure. ad esempio riporto i valori di gain (il valore di amplificazione) e i ron degli 8 ccd usati ad un telescopio a Las Campanas: ognuno fa i cavolacci suoi!
CHIP # gain (e/ADU) RON (e)
1 1.31 6.7
2 1.36 6.3
3 1.37 6.2
4 1.34 9.2
5 1.32 5.9
6 1.33 6.7
7 1.33 7.1
8 1.34 8.7
Ci sarebbe anche il dark che varia, ma refrigerati a -90 non rompono tanto.

Ho letto con molto interesse le tue spiegazioni sul "rumore" nel digitale.
ho letto in un articolo sul digitale in una rivista di fotografia questa affermazione;
avendo la Nikon D2X pixel pi� piccoli della Canon Eos 5D ha di conseguenza un rumore di fondo maggiore della Canon.
Nell'articolo non ci sono foto che mi permettano veder materialmente e rendermi conto della veridicit� dell'affermazione.
Un tuo chiarimento in materia mi sarebbe molto gradito.
ho letto in un articolo sul digitale in una rivista di fotografia questa affermazione;
avendo la Nikon D2X pixel pi� piccoli della Canon Eos 5D ha di conseguenza un rumore di fondo maggiore della Canon.
Nell'articolo non ci sono foto che mi permettano veder materialmente e rendermi conto della veridicit� dell'affermazione.
Un tuo chiarimento in materia mi sarebbe molto gradito.
spero che anche il mio sia gradito.

Piu' un pixel e' grande piu' fotoni/elettroni puo' contare/contenere, ergo piu' il suo segnale sara' farte, piu' il S/N sara' elevato e meglio il segnale si evidenziera' sopra il mare agitato del rumore.
Ipixel della D3 solo larghi ~8.5 micro. I CCD di cui parlavo sopra 16 micro: a noi interessano meno i dettagli, e piu' avere meno rumore [errore nei dati finali] possibile
Il rumore ha qualche attinenza con i pixel' cio� una Di con 2,6 mega pixel e una D70 con &,1 mega pixel, ci sono differenze di rumore tra i due modelli dovuto ai pixel o dipende dal software che hanno fatto progressi?
Il rumore dipende sostanzialmente dalle dimensioni del pixel (per la raccolta del segnale), dalla metodologia di ripresa (tempo, temp, ...), dall'elettronica.
La riduzione via software mai considerata, ma d'altro canto i miei soggetti sono puntiformi e ritengo che la riduzione software si basi su studi statistici di pixel adiacenti e si basi sul fatto che pixel vicini hanno valori simili. Ma qui devono intervenire altri (Maio?).
QUOTE(vincenzo.franchini@fastwebnet.it @ Feb 10 2006, 04:10 AM) *
Credo che cominci a venire alla luce l'importanza chiave di lavorare su file Raw piuttosto che su jpeg manipolati all'origine.
Scusa, ma qui mi sono un po' perso. Potresti elaborare ulteriormente su questo concetto? O devo soltanto leggere con maggiore attenzione il tuo "post"?
Credo che cominci a venire alla luce l'importanza chiave di lavorare su file Raw piuttosto che su jpeg manipolati all'origine.
Scusa, ma qui mi sono un po' perso. Potresti elaborare ulteriormente su questo concetto? O devo soltanto leggere con maggiore attenzione il tuo "post"?
Se elabori direttamente il file Raw, hai esattamente quello che ha restituito la coppia sensore/elettronica di lettura. Hai il segnale "grezzo". Cio' ti permette di effettuare tutta una serie di lavori, sistemazioni non possibili col jpeg dato che e' segnale ricostruito [da una trasformata di Fourier incompleta], quindi non hai tutti i dati (insomma: il jpeg introduce artefatti che non esistono alla partenza), come correggere le disuniformita' nella rilevazione (polvere su lenti e sensore, differenza nell'efficienza quantica dei singoli pixel, ...), fare piu' somme di varie riprese per migliorare il risultato (il segnale e' uno scarto casuale dal valore medio: con tante immagini questi scarti si annullano man mano di piu'). Tutte elaborazioni che puoi fare senza deteriorare la tua immagine come invece faresti con un jpeg (che comprime i dati diversamente a seconda di cosa si trova) e che cmq hanno senso solo se fatte usando raw dato che vuoi eliminare per bene le "imprecisioni".
@Alfalife
Se noti il rumore lo noti di piu' dove non ti aspetti variazioni di luminosita'/colore.
Il segnale puo' essere visto come un mare perfettamente piatto, il rumore come un fastidioso vento che lo increspa.
La pelle ha fluttuazioni di incarnato di suo, ergo noti poco. Il muro, sfondi uniformi, cielo nero, sai che sono perfettamente uniformi e quindi noti le onde. Per capire se il mare e' piatto non e' il caso di osservarlo all'imboccatura di un porto: li' hai "rumore" di continuo.