FORUM NIKONCLUB

Condividi le tue conoscenze, aiuta gli altri e diventa un esperto.

Chiudi
TITOLO*
DOMANDA*
AREA TEMATICA INTERESSATA*
3 Pagine: V  < 1 2 3  
Fx Contro Dx
Rispondi Nuova Discussione
_angelo_
Messaggio: #51
QUOTE(trem @ May 22 2008, 11:04 PM) *
ma in termini di qualità del file, quale è il vero vantaggio di avere un sensore FX anzichè DX.
La D3 ha un sensore di 12 Mp pari a quello della D300 e il file che producono sono grandi uguali.
la mia esigenza è di avere un file il più grande possibile, (vorrei una fotocamera che faccia un file che copra il formato a A3 a 300 dpi quindi almeno 50 Mb) quale è il vantaggio di avere un sensore FX se il file che fa è grande quanto quello DX?


Trem,
io non so che dimensioni di file tiri fuori la D3 o la D300 però credo che come ti ha già fatto notare "Rolubich" tu stia mescolando pere con mele (Mega pixel e Mega byte).

Per quanto ne so io:

A3 = 29,7cmx42cm = 3508x4961 pixel = 17,4 M.pixel = 49,8 M.byte (risoluz. 300dpi con profondita colore a 8 bit)
A3 = 29,7cmx42cm = 3508x4961 pixel = 17,4 M.pixel = 99,6 M.byte (risoluz. 300dpi con profondita colore a 16 bit)

Prova semplice di questo è creare un file nuovo da potoshop (sono fresco di corso) rolleyes.gif hehehe

Messaggio modificato da _angelo_ il May 29 2008, 08:20 AM
Manueltn78
Messaggio: #52
QUOTE(F.Giuffra @ May 25 2008, 09:58 AM) *
Secondo me l'unico vantaggio del Dx è il prezzo. Se metto insieme due sensori Dx ottengo circa un Fx, costa almeno il doppio, ma permette di avere tutte le "moltiplicazioni focali" che voglio croppando la parte centale non solo in rapporto 1,5 ma in qualsiasi proporzione mi piaccia, in camera o dopo, addirittura posso tagliare non al centro.


Secondo me il risultato non è lo stasso:
la risolvenza a parità di mpx è maggiore nel formato dx, tanto che se non erro l'area dx è di circa 5,1 Mpixel.....
Quindi per chi "croppa" anche il dx la risoluzione potrebbe essere bassina.....
imho

dry.gif
nippokid (was here)
Messaggio: #53
QUOTE(Manueltn78 @ May 29 2008, 08:16 PM) *
Secondo me il risultato non è lo stasso:
la risolvenza a parità di mpx è maggiore nel formato dx, tanto che se non erro l'area dx è di circa 5,1 Mpixel.....
Quindi per chi "croppa" anche il dx la risoluzione potrebbe essere bassina.....
imho

dry.gif

...credo che il riferimento di F.Giuffra fosse alla futura 24MPX...o alla successiva 48MPX... cerotto.gif

...ahimè...così pensando, andiamo verso la "croppografia" cerotto.gif cerotto.gif


bye. wink.gif

gciraso
Banned
Messaggio: #54
QUOTE(nippokid @ May 29 2008, 09:27 PM) *
...credo che il riferimento di F.Giuffra fosse alla futura 24MPX...o alla successiva 48MPX... cerotto.gif

...ahimè...così pensando, andiamo verso la "croppografia" cerotto.gif cerotto.gif
bye. wink.gif

... oppure verso stampe di misure metriche rolleyes.gif

Giovanni
nippokid (was here)
Messaggio: #55
QUOTE(gciraso @ May 29 2008, 09:29 PM) *
... oppure verso stampe di misure metriche rolleyes.gif

Giovanni

...su quelle, niente in contrario... smile.gif ...almeno... hmmm.gif ...dipende dal "contenuto"...come in quelle centimetriche... tongue.gif

giannizadra
Messaggio: #56
QUOTE(Manueltn78 @ May 29 2008, 08:16 PM) *
Secondo me il risultato non è lo stasso:
la risolvenza a parità di mpx è maggiore nel formato dx, tanto che se non erro l'area dx è di circa 5,1 Mpixel.....
Quindi per chi "croppa" anche il dx la risoluzione potrebbe essere bassina.....
imho

dry.gif


Ragionamento non lineare, direi... rolleyes.gif
A parità di MP la risoluzione (senza crop) è ovviamente la stessa.

Così pure la definizione (il termine "risolvenza" riguarda gli obiettivi).
Certo, per chi croppa l' FX in formato DX la risoluzione si riduce a 5,1 MP.
Esattamente come per chi croppasse il DX in un formato 1,5 volte più piccolo.

Fai due foto uguali, con un 50mm sul DX e con un 75mm su FX (con due DSRL da 12 MP) e ingrandiscile in modo da ottenere le stesse dimensioni (a monitor o in stampa): otterrai due immagini identiche, sovrapponibili, con identica densità di punti-immagine.
Quella FX sarà migliore ( pulizia, gamma dinamica), ma la definizione in quanto tale sarà la stessa.
Ma forse intendevi contrapporre il DX pieno al crop DX su FX. Nel caso, siamo d'accordo. wink.gif

Messaggio modificato da giannizadra il May 29 2008, 08:47 PM
Manueltn78
Messaggio: #57
QUOTE(giannizadra @ May 29 2008, 09:44 PM) *
Ma forse intendevi contrapporre il DX pieno al crop DX su FX. Nel caso, siamo d'accordo. wink.gif


Intendevo proprio questo!
giannizadra
Messaggio: #58
QUOTE(Manueltn78 @ May 30 2008, 07:18 PM) *
Intendevo proprio questo!


Allora, ok.
Ma per ogni formato vanno usate le focali adatte in funzione dell'angolo di campo voluto:
sotto questo aspetto un 35mm sul DX corrisponde a un 50mm sull'FX e a un 80mm sul 6x6cm.

Non puoi considerare che il DX sia il centro dell'universo.
Io, per esempio, non ho mai avuto un'ottica DX, e ho mantenuto al mio corredo di obiettivi la configurazione 24x36mm per molti anni, nell'attesa che uscisse una Nikon FF.
Ciao !
Utente cancellato
DEREGISTRATO
Messaggio: #59
QUOTE(giannizadra @ May 29 2008, 09:44 PM) *
Fai due foto uguali, con un 50mm sul DX e con un 75mm su FX (con due DSRL da 12 MP) e ingrandiscile in modo da ottenere le stesse dimensioni (a monitor o in stampa): otterrai due immagini identiche, sovrapponibili, con identica densità di punti-immagine.
Quella FX sarà migliore ( pulizia, gamma dinamica), ma la definizione in quanto tale sarà la stessa.
...


In teoria no. Il formato maggiore avrebbe il vantaggio di lavorare a frequenze spaziali più basse, e quindi consentirebbe agli obiettivi di restare in una zona di frequenze in cui lavorano meglio (trasferiscono una maggior % di contrasto). Ossia le stesse linee-per-altezza del sensore richiedono circa metà l/mm
In pratica con 12Mpx sul FX siamo lontani dai limiti delle lenti.
La differenza si vedrà se si dovesse arrivare a 24Mpx su FX e su DX.
Di conseguenza, lenti "scarsine" su DX in fatto di risoluzione possono rinascere sul FX della D3.
F.Giuffra
Messaggio: #60
QUOTE(Moulin @ May 30 2008, 11:43 PM) *
Di conseguenza, lenti "scarsine" su DX in fatto di risoluzione possono rinascere sul FX della D3.

Per ogni qua c'è sempre un la, per ogni ma c'è sempre un se (La spada nella roccia, Walt Disney).

La risoluzione non dipende dal formato dx o fx ma da quanti pix ci sono sul sensore, grosso o meno che sia.

Con la D300 dx ci vuole una maggiore risolvenza delle lenti ma c'è meno il problema dei bordi vignettati e viceversa con la D3 Fx.

Se uscirà una Fx con il 24 mpxi, in pratica due sensori della D300 incollati insieme, la risolvenza sarà la stessa della D300 dx, le vecchie lenti in fatto di risoluzione andranno come sulla D300 che però usa solo la parte centrale, la migliore, quindi probabilmente avranno più problemi di caduta ai bordi e insomma forse andranno peggio, sopratutto se viste o stampate a dimensioni non eccessive.
giannizadra
Messaggio: #61
QUOTE(Moulin @ May 30 2008, 11:43 PM) *
In teoria no. Il formato maggiore avrebbe il vantaggio di lavorare a frequenze spaziali più basse, e quindi consentirebbe agli obiettivi di restare in una zona di frequenze in cui lavorano meglio (trasferiscono una maggior % di contrasto). Ossia le stesse linee-per-altezza del sensore richiedono circa metà l/mm
In pratica con 12Mpx sul FX siamo lontani dai limiti delle lenti.
La differenza si vedrà se si dovesse arrivare a 24Mpx su FX e su DX.
Di conseguenza, lenti "scarsine" su DX in fatto di risoluzione possono rinascere sul FX della D3.


Io parlavo di definizione in quanto tale ( nomero di linee/mm risolte) non di contrasto trasferito.
Il quesito riguardava una supposta maggiore risoluzione correlata alla maggiore densità di uno stesso numero di pixel sul DX rispetto all'FX. Che ho negato.
Se affrontiamo la questione in chiave MTF, sono d'accordo con te.

PS. Anche con 24 MP saremmo lontani dai limiti di risoluzione di lenti di qualità.

Messaggio modificato da giannizadra il May 31 2008, 10:13 PM
nippokid (was here)
Messaggio: #62
QUOTE(nippokid @ May 24 2008, 03:59 PM) *
...sono convinto che i due formati conviveranno per parecchio tempo (almeno me lo auguro)...allo stato attuale della tecnologia e dei "compromessi" conosciuti, ritengo che - professionalmente - un corpo FX e un corpo DX siano complementari e ognuno a suo modo, insostituibili, a seconda delle esigenze.

Questo sia per gli indiscutibili vantaggi della riduzione di angolo di ripresa, nelle lunghe focali (non accompagnata da un evidente "snaturamento" dell'obiettivo, come invece accade con le focali normali e mediamente-grandangolari) sia per altri "vantaggi" permessi dal DX...la maggior "copertura" dell'inquadratura dei sensori AF (cosa probabilmente non possibile con le attuali tecniche di progettazione sul FX) su tutte.

Sperando di non andare OT, rispetto al tema del 3D, vorrei introdurre nella discussione, ipotizzandone un futuro utilizzo su FX, il "binning".

Il binning è un "artificio" a livello hardware che consiste nel "accorpamento" di gruppi di pixel, per "simulare" una maggiore dimensione dei fotositi e superare le implicazioni negative che l'alta densità di pixel, come detto, comportano a livello di qualità d'immagine.

In pratica, un sensore da 24MPX utilizzato con il binning 2x2 ( il fotosito diventa una matrice di 4 pixel ), si comporterebbe come un 6MPX (se non mi sfugge qualche implicazione matematica..) con un effettivo guadagno in termini di rapporto segnale/rumore.

Il binning potrebbe risolvere le problematiche delle alte densità dei sensori e permettere di "incorporare" in un solo sensore diverse risoluzioni "hardware" e diverse capacità di gamma dinamica e velocità operativa...

Sempre se non sbaglio i calcoli, è possibile ipotizzare, nel futuro, una fotocamera da 48 MPX che possa essere utilizzata a massima risoluzione con bassa gamma dinamica e velocità operativa, e utilizzata nelle varie modalità binning per ottenere maggiore velocità.

In binning 2x2 tale fotocamera, sarebbe una 12MPX con la dimensione dei fotositi pari alla D3 e prevedibilmente con le stesse caratteristiche di qualità complessiva...

Quanto detto è frutto esclusivamente di (visionarie?) supposizioni derivate dalla mia (scarsa) conoscenza del fenomeno binning, sarei interessato a capire meglio la questione....

Nella speranza di non passare dal "binning" al "banning" messicano.gif , resto in attesa di eventuali commenti e approfondimenti...
bye. smile.gif

QUOTE(steve48 @ May 24 2008, 04:45 PM) *
Scusami ma fisicamente parlando, la risoluzione vera è quella che definisce il numero di pixel totali reali per unità di lunghezza.

Accorpare più pixel, tramite algoritmi matematici, non significa assolutamente aumentare la definizione reale ma solo interpolare. Questo lo puoi fare con qualsiasi software a posteriori ma la risoluzione rimane quella nativa del sensore.

Oltretutto la risoluzione reale è circa un quarto di quello dichiarato a causa della matrice (BAYER) con cui sono assemblati i pixel dei vari colori sul sensore.

Per aumentare la risoluzione, bisognerebbe mettere i pixel dei vari colori (RGB) in fila indiana come avviene per esempio nei tubi Trinitron in cui gli emettitori (RGB) sono allineati.

Un altro discorso è la gamma dinamica che dipende dalle caratteristiche elettriche del fotodiodo.
Per cui se riusciranno a fare nuovi fotodiodi CMOS con rumore termico e quant'altro più basso e con caratteristiche di trasferimento più lineari, allora avremo dei sensori con gamma di luminosità migliore e con spazi colore più estesi.
Gli algoritmi matematici si potranno sempre applicare a posteriori ma meno se ne farà uso e meno si avranno effetti artefatti.

Saluti
Stefano

Relativo alla fotocamera C@non 50d... hmmm.gif

Pixel binning for high ISOs. A new technology enabled by the complexity and processing power of DIGIC IV where they can bin 2, 4 or 8 pixels together at the raw level and average out the noise between them. This is seen by Canon as a key technology in balancing very high resolution sensors (in the 50mp range) with low noise at very high ISOs. Right now they are not pushing this too much with the 50D so as to not create confusion in the market (they see more potential for the technology as sensors get larger and in the pro-market).

hmmm.gif
alcarbo
Messaggio: #63
grazie.gif a tutti per i validi contributi ( a nome dei peones)

Messaggio modificato da alcarbo il Aug 28 2008, 05:37 AM
e.tremolada
Messaggio: #64
QUOTE(nippokid @ Aug 28 2008, 03:27 AM) *
Relativo alla fotocamera C@non 50d... hmmm.gif

Pixel binning for high ISOs. A new technology enabled by the complexity and processing power of DIGIC IV where they can bin 2, 4 or 8 pixels together at the raw level and average out the noise between them. This is seen by Canon as a key technology in balancing very high resolution sensors (in the 50mp range) with low noise at very high ISOs. Right now they are not pushing this too much with the 50D so as to not create confusion in the market (they see more potential for the technology as sensors get larger and in the pro-market).

hmmm.gif



yes ma a parte l'inglese, cosa vuol dire?

che sta faccenda del binning non lo mica capita

ma soprattutto cosa vuol dire in pratica..... senza creare .......confusion in the market.....
nippokid (was here)
Messaggio: #65
Il binning dovrebbe essere un "raggruppamento hardware di pixel adiacenti" che si comporterebbero quindi come un singolo fotosito.

Vorrebbe dire che un sensore da 24MPX (mi svincolo dai 15MPX della 50d per agevolare i conti.. smile.gif ) potrebbe essere sfruttato in alcune situazioni come un 6MPX ( esempio con un binning di 4 pixel ) con le conseguenze del caso sul rapporto segnale/rumore. I fotositi si comporterebbero a tutti gli effetti come dei fotositi 4 volte più grandi, necessitando quindi una minore amplificazione di segnale, con evidente vantaggi agli alti ISO.

Nel corso della discussione (di qualche tempo fa) tali possibilità sono state negate...io non ne so molto, ne sono solo incuriosito ed ora la 50d ha riportato a galla la questione.

Per capirci ancora meglio (forse):
Se tutto fosse vero, limitandoci ad un binning 4 (che mi dicono si possa fare, al contrario di un binning da 2 pixel...anche se il comunicato C@non parla chiaro..) e a risultati conosciuti, in un futuro si potrebbe ipotizzare una D7 (?) da 48MPX ( ohmy.gif ), utilizzabile in "binning" come una 12MPX, quindi con il rapporto segnale/rumore e la resa ad alti ISO della D3, sacrificando parte della risoluzione...sfruttando invece tutti i 48MPX alle basse sensibilità...in pratica la botte piena e la moglie ubriaca!! biggrin.gif

Come detto, io non conosco nello specifico questi aspetti...vorrei però saperne di più...

Chi sa parli!!

cool.gif



Messaggio modificato da nippokid il Aug 28 2008, 10:48 PM
e.tremolada
Messaggio: #66
oks
chiarissimo grazie
certo sarebbe una gran bella roba avere una fotocamera che lavora a 12 o 24 o 48 mpx

certo che 48 sono veramente tanti, forse troppi, mi basterebbe che arrivasse al più presto la 24 mpx
nippokid (was here)
Messaggio: #67
...naturalmente erano numeri buttati lì, giusto per la comodità dei calcoli e delle equivalenze...
...48MPX sono veramente un'esagerazione...però la 24MPX è dietro l'angolo...un pò di pazienza smile.gif

bye.

Messaggio modificato da nippokid il Aug 28 2008, 11:02 PM
SkZ
Messaggio: #68
Premetto: il binning viene usato in ambito astronomico da piu' di 10 anni per aiutare ad aumentare il rapporto S/N nel caso di sorgenti deboli: ci perdi in risoluzione, ma ci guadagni in "nitidezza".
Quello che so e' legato ai sensori ccd che hanno 1 strumentazione di lettura per tutto il sensore, mentre i CMOS ce n'e' uno per pixel. In origine, se si voleva fare bining 2x2, invece di scalare una riga e leggere pixel per pixel, se ne scalavano 2 sommando direttamente sul buffer di lettura gli elettroni. Poi si scaricavano 2 pixel al colpo dal buffer, leggendo cosi' 4 pixel in un sol colpo, eliminando il problema della somma dei rumori di lettura (he ora cmq son molto piccoli).

Consiglio di dare un'occhiata qui, ottimo thread di vincenzo.franchini sul S/N ove mi pare si parli anche del binning. In breve, il segnale (num di fotoni) rilevato e' S=F*Q*L^2*t, ove F il flusso di fotoni ricevuto per unita' di tempo e di superficie, Q l'efficienza quantica dello strumento (quanto luce lascia passare l'ottica e quanto bene il sensore riesce a rilevare i fotoni: le lastre avevano Q=5%, quelle ottime), L lunghezza del lato superficie sensibile, t tempo. Il quadrato del rumore si ottiene sommando il segnale "buono", quello termico (D=d*t) e il quadrato del Read-out noise (rumore di lettura).
Il ron ormai e' molto piccolo, almeno rispetto ai valori del segnale, quindi si puo' omettere.
Si vede facilmete che con un binning nXn si ha un S/N n volte maggiore (fatto ovvio, dato che la statistica ci dice che l'errore della media di N dati e' radice di N volte piu' piccolo).
Il mio problema e' che il mio modo di vedere ste cose e' legato all'imaging astronomico e alle sue esigenze (e noi siamo ancora coi CCD da 2048X4096 da 4-5 anni). Si puo' dire che binnando 2x2 un sensore a matrice di Bayer avremo una specie di Foveon, ma migliore (e allora sai le diatribe).

QUOTE(steve48 @ May 24 2008, 05:33 PM) *
Ho capito perfettamente che tutto si gioca a spese della risoluzione, il che mi sembra un controsenso.
[taglio per non occupare troppo]
Purtroppo leggo sempre più spesso di artifici matematici che dovrebbero in qualche maniera mettere una "pezza" alle leggi fisiche della Natura.
Non ci facciamo facili illusioni .

Steve48, le cose sono molto diverse da come te le immagini: non serve che le immagini siano prese in rapida sequenza e neppure che siano perfettamente sovrapponibili. Ci sono somme di esposizioni astronomiche effettuate nell'arco di giorni. Con L'Hubble e' normale invece di fare 1 ripresa da 1h, farne tipo 4 da 15min (e' un caos distinguere altrimenti le stelle dai raggi cosmici).
pes084k1
Messaggio: #69
QUOTE(SkZ @ Aug 29 2008, 07:20 AM) *
Premetto: il binning viene usato in ambito astronomico da piu' di 10 anni per aiutare ad aumentare il rapporto S/N nel caso di sorgenti deboli: ci perdi in risoluzione, ma ci guadagni in "nitidezza".
Quello che so e' legato ai sensori ccd che hanno 1 strumentazione di lettura per tutto il sensore, mentre i CMOS ce n'e' uno per pixel. In origine, se si voleva fare bining 2x2, invece di scalare una riga e leggere pixel per pixel, se ne scalavano 2 sommando direttamente sul buffer di lettura gli elettroni. Poi si scaricavano 2 pixel al colpo dal buffer, leggendo cosi' 4 pixel in un sol colpo, eliminando il problema della somma dei rumori di lettura (he ora cmq son molto piccoli).

Consiglio di dare un'occhiata qui, ottimo thread di vincenzo.franchini sul S/N ove mi pare si parli anche del binning. In breve, il segnale (num di fotoni) rilevato e' S=F*Q*L^2*t, ove F il flusso di fotoni ricevuto per unita' di tempo e di superficie, Q l'efficienza quantica dello strumento (quanto luce lascia passare l'ottica e quanto bene il sensore riesce a rilevare i fotoni: le lastre avevano Q=5%, quelle ottime), L lunghezza del lato superficie sensibile, t tempo. Il quadrato del rumore si ottiene sommando il segnale "buono", quello termico (D=d*t) e il quadrato del Read-out noise (rumore di lettura).
Il ron ormai e' molto piccolo, almeno rispetto ai valori del segnale, quindi si puo' omettere.
Si vede facilmete che con un binning nXn si ha un S/N n volte maggiore (fatto ovvio, dato che la statistica ci dice che l'errore della media di N dati e' radice di N volte piu' piccolo).
Il mio problema e' che il mio modo di vedere ste cose e' legato all'imaging astronomico e alle sue esigenze (e noi siamo ancora coi CCD da 2048X4096 da 4-5 anni). Si puo' dire che binnando 2x2 un sensore a matrice di Bayer avremo una specie di Foveon, ma migliore (e allora sai le diatribe).
Steve48, le cose sono molto diverse da come te le immagini: non serve che le immagini siano prese in rapida sequenza e neppure che siano perfettamente sovrapponibili. Ci sono somme di esposizioni astronomiche effettuate nell'arco di giorni. Con L'Hubble e' normale invece di fare 1 ripresa da 1h, farne tipo 4 da 15min (e' un caos distinguere altrimenti le stelle dai raggi cosmici).


Il binning è comunque una tecnica elementare e di prestazioni alquanto basse, presente da tempo in qualche forma anche nei buoni driver per scanner (Vuescan). Il denoising vero (per es. bayesiano), però punta a cercare un filtro localmente ottimo, o un binning intelligente e non uniforme, se vogliamo, per esempio realizzando una elevata risoluzione di dettagli fini ad alta frequenza, ma sufficientemente forti rispetto al rumore, e un filtraggio energico su superfici riconosciute come prive di dettagli. Quindi la strada giusta mi sembra quella di coniugare denoising ottimale e sensore fitto. Per inciso, con una intelligente pre-calibrazione, i denoiser commerciali Neatimage et similia, seguiti da un buon sharpening, sembrano abbastanza vicini all'ottimo.
Per chi non vuole fare pp, la scelta di un sensore di grande superficie e con un numero relativamente ridotto di pixel mi sembra comunque più sensata se non si vogliono realizzare gigantografie di qualità.

A presto telefono.gif

Elio

 
Discussioni simili Iniziata da Forum Risposte Ultimo messaggio
3 Pagine: V  < 1 2 3