Sembra che il miglioramento non stia tanto nella maggiore risoluzione ma nella più accurata restituzione dei colori: ogni pixel del sensore è sensibile a un solo colore (rosso, verde o blu) ed è affiancato da pixel sensibili ad un colore diverso; il colore nell'immagine finale viene calcolato anche usando anche l'informazione dei colori intorno.
Quindi normalmente per ogni punto dell'immagine si ha la lettura esatta di un colore, ad esempio il rosso, e il calcolo degli altri.
Spostando di 1 pixel il sensore e rifacendo la foto, per lo stesso punto dell'immagine si avrà l'informazione misurata anche per un altro colore, ad esempio il verde
spostandolo ancora di 1 pixel si avrà l'informazione anche per il blu
Al termine, per lo stesso punto dell'immagine si avrà l'informazione misurata e non calcolata per tre colori invece dell'unico colore tradizionale.
L'attribuzione del colore per quel punto, si basa allora sulla lettura di tutti e tre i colori e non su un'interpolazione, con un risultato ulteriormente più fedele alla realtà
Paolo