Io ho cercato diverse volte di avere una risposta alla domanda:
"le schede video per giochi supportano o no i 10 bit per canale (o 30 bit totali che dir si voglia)?"
(se non vuoi leggere tutto passa alla parte granata!)
La risposta non sono mai riuscito a trovarla, c'era chi diceva "teoricamente si ma non lo so", chi diceva "la connessione display port supporta i 10 bit se la scheda ce l'ha probabilmente li supporta per� se per applicaizoni grafiche si usano le quadro ci sar� un motivo", c'era chi diceva un secco "no", insomma non c'era una risposta concreta per un motivo, chi gioca se ne frega dei 10 bit, chi lavora compra la vga consigliata dal venditore e non se ne preoccupa troppo di indagare, ma io faccio entrambe le cose (in realt� non giocavo da parecchio).
Ebbene, alla fine (in un raptus di acquisti folli) ho comprato una Nvidia GTX 970 per giocare a fallout pensando "se non regge i 10 bit chissene, un buon monitor anche a 8 bit resta un buon monitor" ora sono tornato dal mio WE di vacanza-acquisto con il mio bel Dell U3011 usato, l'ho collegato con il cavo DP, sono andato in pannello nvidia e si, c'� 10 bit e si, funziona a 10 bit, chiaramente passa a 8 su programmi che non supportano i 10 bit. Serve? non lo so, devo ancora analizzare i vantaggi perch� non ho ancora calibrato il monitor se non a occhio, ma almeno ho risposto alla domanda.
Si, supportano i 10 bit, o meglio la Nvidia GTX 970 (al link quella che ho io, scelta tra le tante esistenti perch� ha pi� uscite video del normale) supporta i 10 bit su cavo display port. Per altro tale scheda video (a dir poco esagerata come potenza per le sole applicazioni grafiche 2D da fotografia) ha una marea di ram (ben 4 gb) e a photoshop CC piace riempire la ram, anche quella video!
Per la cronaca supporta Fallout 4 a 2560x1600 px, qualit� "ultra" (tutto a manetta) e mi fa da un minimo di 39 fino a poco pi� di 60 fps, direi ottimo.