FORUM NIKONCLUB

Condividi le tue conoscenze, aiuta gli altri e diventa un esperto.

Chiudi
TITOLO*
DOMANDA*
AREA TEMATICA INTERESSATA*
3 Pagine: V  < 1 2 3 >  
D300 E Dubbio Su Una Caratteristica
sarà vero?!
Rispondi Nuova Discussione
Massimo.Novi
Messaggio: #26
QUOTE(matteoganora @ Sep 13 2007, 12:45 PM) *
...Sono curioso di confrontare tiff risultanti da RAW a 14 bit (che dovrebbero diventare da 32bit giusto?) ...


Ciao

No rimarranno normalissimi TIFF a 16 bit per canale (48 bit). Non confondete la risoluzione del sensore con il valori RGB successivi alla demosaicizzazione.

I 14 bit per sensore con schema Bayer vengono interpolati durante la fase di conversione RAW (demosaicizzazione, WB, applicazione curva lineare, applicazione profilo ecc) e quindi il vero vantaggio non è nel numero di bit del TIFF in uscita (che è uguale) ma nel maggior numero di campioni per sensore che migliorano la fedeltà colore, la capacità dinamica e anche il livello di rumore.

In pratica il TIFF contiene valori interpolati a partire dai 14384 originali. Quindi, osservando solo il numero di livelli contenuti, non si può distinguere un TIFF creato a partire da un sensore 12 bit o da un 14 bit se non per qualità finale.

Infatti rispetto ai 4096 valori letti dal singolo sensore a 12 bit qui ne abbiamo 14384 che aumentano la dinamica e la capacità di restituire un maggiore range tonale.

Ma la resa finale dipende sempre dalla costruzione del sensore e dalla dimensioni dei singoli foto elementi. E anche da come l'esposimetro è tarato (speriamo che in questo la D300 sia come la D200 e non come la D80).

Saluti
Maicolaro
Messaggio: #27
Credo che ci sia un po di confusione.
Per bit non si intende la profondità del colore, ossia il numero di colori (o di sfumature di colore) riprodotti?
Io la sapevo così, e credo che non abbia niente a che fare con la gamma dinamica (o latidtudine di posa se si parla di pellicola).
14 stop credo che forse siano la gamma dinamica dell'occhio umano...
Massimo.Novi
Messaggio: #28
QUOTE(Maicolaro @ Sep 13 2007, 02:40 PM) *
...
Per bit non si intende la profondità del colore, ossia il numero di colori (o di sfumature di colore) riprodotti?
....


Ciao

No, nel caso dei sensori si intende il numero di livelli distinti registrabili dal singolo fotoelemento sul sensore.

Nel caso dei pixel sono solitamente intesi come i livelli del singolo componente RGB (rosso o verde o blu insomma), con la differenza che il fotodiodo sul sensore Bayer non corrisponde ad un pixel.

Saluti




QUOTE(manovi @ Sep 13 2007, 02:37 PM) *
....In pratica il TIFF contiene valori interpolati a partire dai 14384 originali. Quindi, osservando solo il numero di livelli contenuti, non si può distinguere un TIFF creato a partire da un sensore 12 bit o da un 14 bit se non per qualità finale.
....


Precisazione: il tipo ed il numero di livelli e la loro posizione dipendono dal convertitore RAW usato ed è uno degli indici di qualità della conversione.

Saluti
Diogene
Messaggio: #29
Io, se non ci posso fare raffiche da 8 ftg/sec a 14 bit, non la compro di sicuro... blink.gif
Queller
Messaggio: #30
QUOTE(Diogene @ Sep 13 2007, 02:59 PM) *
Io, se non ci posso fare raffiche da 8 ftg/sec a 14 bit, non la compro di sicuro... blink.gif


Questa faccenda dei 2fps a 14bit mi sanno tanto di tafazzi e la sua bottiglia.
lucaoms
Messaggio: #31
QUOTE(Maicolaro @ Sep 13 2007, 02:40 PM) *
Credo che ci sia un po di confusione.
Per bit non si intende la profondità del colore, ossia il numero di colori (o di sfumature di colore) riprodotti?
Io la sapevo così, e credo che non abbia niente a che fare con la gamma dinamica (o latidtudine di posa se si parla di pellicola).
14 stop credo che forse siano la gamma dinamica dell'occhio umano...

credo che risulti molto difficile, trasformare la latitudine di posa , ossia la perdita di dettaglio per zone sovraesposte e zone sottoesposte, quindi fino a quando i miei dettagli sono visibili e non neri o bianchi, con la gamma dinamica, che comunque anch'essa è responsabile della perdita di dettagli alle alte/basse luci
visto che qualche volta ho letto che vi un po di confusione su quello che è la latitudine di posa, metto giu un esempio atto a fare capire a chi magari legge e si domanda cosa sia questa latitudine di posa...
scatto intero con zone in ombra e luce
Immagine ridimensionata: clicca sull'immagine per vederla con le dimensioni originali.

ora vediamo nelle zone con piu luce fino a dove leggiamo i dettagli

IPB Immagine

ed i dettagli ,vedi mattoni ,si vedono ancora bene

la zona piu buia
IPB Immagine

ecco fino a dove si vedono i dettagli....ora occhio che anche i monitor fanno la loro
se misuriamo quanti stop intercorrono tra zone chiare con dettagli e zono scure con dettagli ci ricaviamo la latitudine di posa
Luca
_Led_
Messaggio: #32
QUOTE(manovi @ Sep 13 2007, 02:37 PM) *
...
Infatti rispetto ai 4096 valori letti dal singolo sensore a 12 bit qui ne abbiamo 14384 che aumentano la dinamica e la capacità di restituire un maggiore range tonale.
...


Secondo me a 14 bit sono 16384...un refuso?
Franco_
Messaggio: #33
QUOTE(_Led_ @ Sep 13 2007, 03:51 PM) *
Secondo me a 14 bit sono 16384...un refuso?


Pollice.gif 2^14 = 16384
_Led_
Messaggio: #34
QUOTE(Giuseppe Maio @ Sep 13 2007, 12:35 PM) *
...
Non nascondo comunque lo stupore nell'accanimento su questo aspetto ancora sotto sviluppo.
Non vedo infatti la necessità di associare la massima raffica possibile a salvataggi RAW/NEF a 14Bit ma questa sarebbe comunque un'altra storia.

G.M.




Non è certo qui il caso dell'amico framar, però se si considera che, sulla carta, è L'UNICA specifica in cui la 40D Canon è superiore alla D300, l'accanimento generalizzato non mi stupisce affatto.
wink.gif
Utente cancellato
DEREGISTRATO
Messaggio: #35
QUOTE(lucaoms @ Sep 13 2007, 03:18 PM) *
visto che qualche volta ho letto che vi un po di confusione su quello che è la latitudine di posa, metto giu un esempio atto a fare capire a chi magari legge e si domanda cosa sia questa latitudine di posa...
scatto intero con zone in ombra e luce

ecco fino a dove si vedono i dettagli....ora occhio che anche i monitor fanno la loro
se misuriamo quanti stop intercorrono tra zone chiare con dettagli e zono scure con dettagli ci ricaviamo la latitudine di posa
Luca

mmmm, non sono convinto

Per come la vedo, la dinamica è la quantità di sfumature individuabil in un file, praticamente quanti livelli stanno tra il nero assoluto e il bianco pieno.
Per Latitudine di Posa intendo invece quanto "si può tirar fuori" dal NEF, andando a recuperare le alte luci o le ombre.
Quindi, la dinamica dovrebbe essere, in parole povere, la richezza di sfumature, la latitudine la capacità di leggere ombre e luci insita nel sensore.

Ma può essere che mi sbagli.
Renzo74
Messaggio: #36
QUOTE(lucaoms @ Sep 13 2007, 03:18 PM) *
...................
se misuriamo quanti stop intercorrono tra zone chiare con dettagli e zono scure con dettagli ci ricaviamo la latitudine di posa
Luca


il concetto è chiaro, grazie luca, ma come si misura l'esposizione in una zona ed in un'altra per conoscere la differenza di stop che intercorre?
immagino ci sia uno strumento software

un'altra curiosità: come fa il battery pack della D300 a migliorare le prestazioni della macchina intermini di cadenza fps? cosa c'entra??

grazie delle risposte

Messaggio modificato da Renzo74 il Sep 13 2007, 03:05 PM
Franco_
Messaggio: #37
QUOTE(Renzo74 @ Sep 13 2007, 04:02 PM) *
il concetto è chiaro, grazie luca, ma come si misura l'esposizione in una zona ed in un'altra per conoscere la differenza di stop che intercorre?
immagino ci sia uno strumento software

...


Non so se ho capito bene la domanda... basta fare una misurazione spot sulle zone interessate e poi contare gli ev che le separano.
Massimo.Novi
Messaggio: #38
QUOTE(lucaoms @ Sep 13 2007, 03:18 PM) *
credo che risulti molto difficile, trasformare la latitudine di posa , ossia la perdita di dettaglio per zone sovraesposte e zone sottoesposte, quindi fino a quando i miei dettagli sono visibili e non neri o bianchi, con la gamma dinamica, che comunque anch'essa è responsabile della perdita di dettagli alle alte/basse luci
.....
se misuriamo quanti stop intercorrono tra zone chiare con dettagli e zono scure con dettagli ci ricaviamo la latitudine di posa.


Ciao

veramente la "latitudine di posa" classica è semplicemente la capacità di recupero o tolleranza (a volte espressa in EV o in stop) rispetto all'esposizione corretta. Non ha relazione con la gamma dinamica riprodotta da una specifica immagine ma più che altro con la possibilità di recuperare informazioni agli estremi in base al contenuto del sensore.

In pratica un RAW digitale a 12 bit ha circa 1EV in + o in - di tolleranza (a volte 2 EV sulle ombre ma a prezzo di rumore).

La latitudine (tolleranza) delle pellicole invertibile è superiore. Quella delle dia simile ma la curva di risposta è tale che le alte luci vengono "addolcite" prima e meglio rispetto al digitale.

Saluti





QUOTE(matteoganora @ Sep 13 2007, 04:00 PM) *
...
Per come la vedo, la dinamica è la quantità di sfumature individuabil in un file, praticamente quanti livelli stanno tra il nero assoluto e il bianco pieno.
Per Latitudine di Posa intendo invece quanto "si può tirar fuori" dal NEF, andando a recuperare le alte luci o le ombre.
Quindi, la dinamica dovrebbe essere, in parole povere, la richezza di sfumature, la latitudine la capacità di leggere ombre e luci insita nel sensore.
...


Ciao

Infatti hai ragione, eccetto che la dinamica del sensore non ha relazione diretta con il singolo pixel o file e quindi è valutabile numericamente nel fotodiodo ma solo empiricamente nel file TIFF risultante.

Si può però analizzare il RAW per sapere la dinamica estratta per livello.

Per il resto è corretto.

Saluti

QUOTE(_Led_ @ Sep 13 2007, 03:51 PM) *
Secondo me a 14 bit sono 16384...un refuso?


Ciao

Refusissimo! Scusate!

Saluti
lucaoms
Messaggio: #39
QUOTE(lucaoms @ Sep 13 2007, 03:18 PM) *
credo che risulti molto difficile, trasformare la latitudine di posa , ossia la perdita di dettaglio per zone sovraesposte e zone sottoesposte, quindi fino a quando i miei dettagli sono visibili e non neri o bianchi, con la gamma dinamica, che comunque anch'essa è responsabile della perdita di dettagli alle alte/basse luci



QUOTE(matteoganora @ Sep 13 2007, 04:00 PM) *
mmmm, non sono convinto

Per come la vedo, la dinamica è la quantità di sfumature individuabil in un file, praticamente quanti livelli stanno tra il nero assoluto e il bianco pieno.
Per Latitudine di Posa intendo invece quanto "si può tirar fuori" dal NEF, andando a recuperare le alte luci o le ombre.Quindi, la dinamica dovrebbe essere, in parole povere, la richezza di sfumature, la latitudine la capacità di leggere ombre e luci insita nel sensore.

Ma può essere che mi sbagli.


credo che ci si aggrovigli nei termini....
io penso che la latitudine di posa in un sensore non esista, nel senso che l'ampiezza della gamma dinamica è la latitudine di posa, quindi i vari livelli che stanno tra nero pieno e bianco, quindi minore è la gamma dinamica maggiore è il contrasto tra zone di luce e zone d'ombra,maggiore è la gamnma dinamica e maggiori saranno le sfumature e quindi minore lo stacco tra luci ed ombre
la latitudine di posa della pellicola, secondo me è la gamma dinamica del sensore
basti pensare a HDR (high dinamic range) che appunto sfrutta una ampissima gamma dinamica unendo appunto tre scatti :
1 espsoto neutro
1 espsoto per le ombre
1 espsoto pe le luci.....
per questo sopra dicevo che non parlerei di latitudine di posa sul sensore....
idem il super CCD di fuji, è un sensore con una maggiore gamma dinamica, propio in funzione dei due tipi di pixel (grandi per ombre-piccoli per alte luci) ove nessuno parla di latitudine di posa ma sempre di gamma dinamica....

poi forse non è la forma piu elettronicamente correta di esporre il discorso ma la vedo cosi'.....
e se cosi' non fosse....
vuliteme biene lu stesso!!
Luca
Renzo74
Messaggio: #40
QUOTE(Franco_ @ Sep 13 2007, 04:12 PM) *
Non so se ho capito bene la domanda... basta fare una misurazione spot sulle zone interessate e poi contare gli ev che le separano.



d'accordo, in fase di scatto, ma dopo, cioè su una foto a video, che strumento uso per misurare l'esposizione in un'area?
Franco_
Messaggio: #41
QUOTE(Renzo74 @ Sep 13 2007, 04:39 PM) *
d'accordo, in fase di scatto, ma dopo, cioè su una foto a video, che strumento uso per misurare l'esposizione in un'area?


Non saprei, io con Capture riesco a farmi un'idea osservando gli istogrammi, ma è un modo assolutamente empirico (quindi piuttosto impreciso) e comunque relativo (nel senso che si possono grosso modo stabilire le differenze ev tra due zone). Ignoro se vi siano programmi ad hoc.
Massimo.Novi
Messaggio: #42
QUOTE(lucaoms @ Sep 13 2007, 04:36 PM) *
credo che ci si aggrovigli nei termini....
io penso che la latitudine di posa in un sensore non esista, nel senso che l'ampiezza della gamma dinamica è la latitudine di posa, quindi i vari livelli che stanno tra nero pieno e bianco, quindi minore è la gamma dinamica maggiore è il contrasto tra zone di luce e zone d'ombra,maggiore è la gamnma dinamica e maggiori saranno le sfumature e quindi minore lo stacco tra luci ed ombre
la latitudine di posa della pellicola, secondo me è la gamma dinamica del sensore
basti pensare a HDR (high dinamic range) che appunto sfrutta una ampissima gamma dinamica unendo appunto tre scatti :
1 espsoto neutro
1 espsoto per le ombre
1 espsoto pe le luci.....
per questo sopra dicevo che non parlerei di latitudine di posa sul sensore....
idem il super CCD di fuji, è un sensore con una maggiore gamma dinamica, propio in funzione dei due tipi di pixel (grandi per ombre-piccoli per alte luci) ove nessuno parla di latitudine di posa ma sempre di gamma dinamica....
...


Ciao

La latitudine di posa è legata al sensore ed alle sue caratteristiche ma non è detto che a maggiore dinamica corrisponda capacità di tolleranza maggiore. La linearità del sensore fa si che le alte luci abbiano sempre ridotta tolleranza a prescindere la gamma complessiva registrabile. Anche il rumore influisce sulla capacità di recupero che però non è misurabile in assoluto in quanto è percepita visivamente e dipende anche dai canali recuperati.

L'HDR aumenta fittiziamente la gamma dinamica ma se i tre scatti sono volutamente sottoesposti o sovraesposti si hanno i medesimi problemi di latitudine.

Anche la pellicola ha gamma dinamica e latitudine (ricordate quando si tiravano le pellicole?) e sono cose distinte.

Se si ha una perfetta esposizione la latitudine di posa dovrebbe avere poca importanza. Anche perchè recuperando 1 EV si ha comunque una perdita di livelli che vengono "spalmati" ma che non possono venire "creati" se non artificialmente. Sull'istogramma tali buchi appaiono evidenti come linee vuote.

Saluti






QUOTE(Franco_ @ Sep 13 2007, 04:49 PM) *
Non saprei, io con Capture riesco a farmi un'idea osservando gli istogrammi, ma è un modo assolutamente empirico (quindi piuttosto impreciso) e comunque relativo (nel senso che si possono grosso modo stabilire le differenze ev tra due zone). Ignoro se vi siano programmi ad hoc.


Ciao

Ansel Adams...fai da te?

Come si è chiarito tale misurazione non serve in quanto rileverebbe semplicemente la dinamica ricreata dal convertitore RAW e non quella dell'immagine.

Solo se fate misurazioni spot durante la ripresa avete i valori di EV della scena.

Saluti
Utente cancellato
DEREGISTRATO
Messaggio: #43
Da wiki:
Latitudine di posa

Per la gamma dinamica, purtroppo la traduzione in italiano ha portato ad adattamenti del termine, che molto spesso, in fotografia, la portano ad essere equiparata alla latitudine di posa...
nell'audio, sta a significare la capacità di distinguere le differenti frequenze (quindi in teoria le diverse "sfumature" del suono)...
Franco_
Messaggio: #44
QUOTE(manovi @ Sep 13 2007, 04:58 PM) *
...
Ansel Adams...fai da te?

Come si è chiarito tale misurazione non serve in quanto rileverebbe semplicemente la dinamica ricreata dal convertitore RAW e non quella dell'immagine.

Solo se fate misurazioni spot durante la ripresa avete i valori di EV della scena.

Saluti


Ho risposto alla domanda di Renzo, senza alcuna pretesa di esattezza scientifica o altro smile.gif
Rileggendo una mia precedente risposta vedrai che anche io avevo parlato di misurazioni spot in fase di scatto, ma non è questo che Renzo chiedeva wink.gif
clicknik
Messaggio: #45
In effetti non mi sono spiegato bene: se campioni a 14 bit hai 2 elevato alla 14 di livelli (cioè 16mila e rotti livelli, cioè il rapporto dal bianco più bianco al nero più nero) che corrispondono a 14 STOP (ogni STOP come sai moltiplichi per 2, appunto 2 alla 14 fa proprio 16mila e rotti).

Per la pellicola non intendevo la latitudine di posa (che, certamente, sono gli STOP che dici Tu), ma proprio i livelli che riesce a memorizzare, cioè il rapporto (in questo casi di densità ottica del negativo) tra il velo (buio) ed il massimo nero (luce). Credo che siano sui 500-700 livelli (e comunque credo meno di 1000) che corrispondono appunto a 2 elevato alla 9 (500 livelli) o 2 elevato alla 10 (1000 livelli).

Insomma, il sensore (o meglio, il file alla fine della catena) riesce a far uscire un rapporto 16000 tra il bianco ed il nero e la pellicola solo 1000 (anzi, probabilmente meno, credo che non ci arrivi a 1000).
Forse è ancora un pò incasinato, ma non è semplice spiegarlo in parole: ne parliamo ancora, il bello del forum è questo!
Nickel
Messaggio: #46
Parlando in termini di stop s’intende un raddoppio del valore di luminosità nel quadro di una gamma d’esposizione che va dal nero profondo al bianco brillante, e definiamo la capacità di registrare queste differenze di luminosità il range dinamico, misurato in stop un sensore digitale è capace di 7-9 di questi raddoppi.
Quando parliamo d’immagini a 12 o 14 bit ci riferiamo alla scala tonale, essenzialmente nei termini di sfumature di colore, dai 4096 valori a 12 bit ai 16384 dei 14 bit, dato che il sensore registra i colori per mezzo del filtro di Bayern, una riga di pixel alternerà i valori tonali del verde e del rosso e la seguente quelli del verde e del blu, che il convertitore A/D trasformerà in una serie di valori discreti, migliaia di possibili sfumature di verde, di rosso, di blu per ogni pixel, rappresentati in bits.
Certo potremo decidere per un’immagine in bianconero, in questo caso avremo una variazione dei toni di grigio, e in fondo un NEF questo è, visto che i dati sul colore sono registrati a parte, ma il discorso non cambia, si tratta sempre di valori discreti frutto di una quantizzazione, di una digitalizzazione del continuo analogico, gli stop sono un’altra cosa.
Massimo.Novi
Messaggio: #47
QUOTE(campinot @ Sep 13 2007, 05:03 PM) *
In effetti non mi sono spiegato bene: se campioni a 14 bit hai 2 elevato alla 14 di livelli (cioè 16mila e rotti livelli, cioè il rapporto dal bianco più bianco al nero più nero) che corrispondono a 14 STOP (ogni STOP come sai moltiplichi per 2, appunto 2 alla 14 fa proprio 16mila e rotti).

Per la pellicola non intendevo la latitudine di posa (che, certamente, sono gli STOP che dici Tu), ma proprio i livelli che riesce a memorizzare, cioè il rapporto (in questo casi di densità ottica del negativo) tra il velo (buio) ed il massimo nero (luce). Credo che siano sui 500-700 livelli (e comunque credo meno di 1000) che corrispondono appunto a 2 elevato alla 9 (500 livelli) o 2 elevato alla 10 (1000 livelli).

Insomma, il sensore (o meglio, il file alla fine della catena) riesce a far uscire un rapporto 16000 tra il bianco ed il nero e la pellicola solo 1000 (anzi, probabilmente meno, credo che non ci arrivi a 1000).
Forse è ancora un pò incasinato, ma non è semplice spiegarlo in parole: ne parliamo ancora, il bello del forum è questo!


Ciao

Dimenticate sempre che il sensore è LINEARE.

Hai si 16384 livelli per fotodiodo. Ma suddivisi come?

Le ombre hanno molti meno livelli di memorizzazione.

Per questo si espone verso le alte luci il più possibile. Perchè la curva di linearizzazione applicata dopo allarga i gap delle ombre. E la curva è esponenziale. Molto. Osservate un RAW PRIMA di linearizzarlo (ossia con i valori reali del sensore) e poi linearizzatelo a mano e vedrete.

Nel film ciò non avviene e il rapporto luce/ombre è già linearizzato in acquisizione.

Pensateci.

Ciò non toglie che 14 bit sono ottimi ma occorre vedere i livelli di rumore e altre cosette.

Saluti
Massimo.Novi
Messaggio: #48
QUOTE(Franco_ @ Sep 13 2007, 05:02 PM) *
Ho risposto alla domanda di Renzo, senza alcuna pretesa di esattezza scientifica o altro smile.gif
Rileggendo una mia precedente risposta vedrai che anche io avevo parlato di misurazioni spot in fase di scatto, ma non è questo che Renzo chiedeva wink.gif


Ciao

Certamente. Ho solo specificato ulteriormente che l'immagine finale non è misurabile per estrarre il comportamento di acquisizione del sensore in quanto già elaborata.

Saluti
MassiC
Messaggio: #49
Per quello che so io la 40D non produce dei raw a 14 bit ma ha, come la D300 un converitore A/D a 14 bit, che è molto diverso.
Credo che la D300 sia l'unica reflex al momento insieme alla Fuji a fornire dei raw a 14bit.

Per quanto riguarda il discorso della gamma dimanica, si può dire tranquillamente che la conversione A/D a 14bit fa bebeficiare sopratutto la gamma dinamica, non a caso sempre la Fuji, anche se usata senza estendere la gamma dinamica, fornisce files con più gamma di tutte le reflex propio grazie ai 14 bit (e anche ad altri fattori......)



Per il discorso della raffica penso sia normale che scattando in raw a 14 bit la raffica di dimezzi.
Basti considerare il fatto che se un raw a 12 bit dovrebbe pesare tra 9-11 MB un raw a 14 bit pesera intorno ai 18-22 MB (sempre parlando di raw compressi).
persenico
Messaggio: #50
QUOTE(framar74 @ Sep 13 2007, 09:17 AM) *
Ciao a tutti, in attesa di toccare con mano questo mostro di macchina che è la D300, ho navigato alla ricerca di dettagli come immagino hann fatto tutti... leggendo alcune caratteristiche mi è sembrato di capire che se si scatta a 14bit la raffica di scatto scende addirittura a 2,5 fps...


Riflessione provocatoria:

1) da quello che leggo sembra che nessuno "scatto" digitale possa essere stampato senza interventi di fotoritocco ergo TUTTE le macchine digitali fanno schifo

2) per varie ragioni (e parecchie di loro dipendenti dalle scelte di Nikon, Canon eccetera) i nostri belli obiettivi analogici funzionano sulle digitali poco e male (back-focusing, front-focusing, 28 mm diventati dei 42mm ma - come se non bastasse - con alcuni comportamenti propri del 28 eccetera eccetera)

3) la politica di lancio dei nuovi prodotti e la strada dell'innovazione perseguita penalizzano oltremodo il mercato dell'usato (e anche qui le scelte di Nikon e soci hanno un bel peso)

QUINDI

mi pare che avremmo buoni motivi per essere imbufaliti e sfilare in piazza con striscioni di protesta.

E invece no, come al solito in Italia basta che alla domenica ci siano le partite di calcio... Anzi, non fanno in tempo ad annunciare la prossima commercializzazione di una D3/D300 (badate bene: al momento non esistono ancora - mi correggo sono a livello di prototipo) che il forum manda fortissimi segnali di gradimento del comportamento di cui ai precedenti punti 1) 2) e 3). Risultato? In primo luogo continueranno sulla stessa strada, in secondo luogo alzeranno di EUR 100 il prezzo.
Guardate che per quanto sappiano fare bene le macchine fotografiche, sanno fare meglio il marketing (malgrado flop stile D40 - ma anche Steve Jobs ha ciccato con I-Phone).
Se vogliamo continuare a farci del male, avanti così. Smettete di impazzire per le foto della D3 e lasciamogliele tutte nei magazzini per i primi 4 mesi. Poi, se andare tutti assieme lo stesso giorno, la potremo acquistare a EUR 999.

E adesso crocefiggetemi.
 
Discussioni simili Iniziata da Forum Risposte Ultimo messaggio
3 Pagine: V  < 1 2 3 >