Qualcuno può aiutarmi a capire? Mi sono addentrato nei meandri della profondità di colore usata da sensori e file immagine e vorrei uscirne sano di mente. Dunque, da quello che ho capito (ma correggetemi se sbaglio) ogni fotosito del sensore produce una corrente che viene campionata in un certo numero di livelli codificati su 12 o 14 bit (ad esempio 12 per la Nikon D100, 14 per la Canon 7D). Ipotizziamo che siano 12 per scegliere un valore per i conteggi successivi. Dunque un file raw siffatto dovrebbe contenere bit tanti quanti il numero di pixel moltiplicato per 12. Prima domanda: anche ignorando la compressione lossless, i 12 bit occupano 2 byte (cioè due set di 8 bit) oppure la camera riesce a farceli stare senza sprecare spazio di memoria? Intendo: 18 megapixel si codificano in 18 x 10^9 x 12/8 = 27 Mbyte, salvo altre informazioni aggiuntive scritte nel raw e salvo compressioni lossless che possono essere applicate? Oppure i 18 Mpx diventano 18 x 10^9 x 2 = 36 Mbyte? Ma andiamo avanti. Il raw per essere visualizzato a computer, oppure anche per essere trasformato in un tiff o jpg deve anzitutto essere demosaicizzato, usando il processo (Bayer) che interpola i colori per determinare che livello di rosso e blu deve avere un pixel registrato solo per il verde, che livello di verde e blu deve avere un pixel registrato solo per il rosso e che livello di rosso e verde deve avere un pixel registrato solo per il blu. Questo processo genera altri dati, no? Quindi se avevo 18 Mpx codificati a 12 bit ora avrò 18 x 10^9 x 12 x 3 / 8 = 81 Mbyte se salvo i tre colori con 12 bit ciascuno
sbaglio? E siccome mi risulta che il tiff sì sprechi lo spazio a 16 bit, il conto salirebbe a 18 x 10^9 x 2 x 3 = 108 Mbyte. Non ho mai visto una foto da 81 Mb o 108 Mbyte a 18 Mpx allora chiedo: dove sbaglio? :nw