Una fotocamera non immagazzina la luce. La luce che vedi quando guardi una foto non è la stessa di quella catturata quando la foto è stata scattata.
Quando la luce entra in una fotocamera digitale, attiva i cambiamenti elettrici nel sensore di immagine, che vengono convertiti in dati digitali da un ADC. In una macchina da presa la luce invece provoca cambiamenti chimici nell'emulsione del film che vengono trattenuti fino allo sviluppo della pellicola.
Gli esseri umani sono fondamentalmente tricromati. Abbiamo tre diversi tipi di "coni" nei nostri occhi con differenti risposte alla luce. Così possiamo cavarcela rappresentando il colore con tre numeri per pixel in un sistema di imaging digitale o tre strati in una pellicola chimica.
Qualche tempo dopo, ricostruiamo un'immagine che una persona può visualizzare. In una fotocamera digitale semplicistica prenderemmo i valori di rosso, verde e blu per ogni pixel e li useremmo per illuminare i pixel rossi, verdi e blu sul nostro display. In realtà di solito sono necessarie alcune regolazioni, perché i filtri nella fotocamera non rappresentano precisamente l'occhio umano e perché le bande di frequenza si sovrappongono, quindi non è possibile trovare "colori primari" che attivano un solo cono.
Le normali fotocamere digitali sono progettate per avvicinare i nostri occhi, perché è ciò che la maggior parte delle persone desidera. Ma non c'è una ragione fondamentale per cui le telecamere debbano essere così. Finché possiamo costruire una lente per mettere a fuoco i raggi e un sensore che risponderà ad essi, possiamo catturare un'immagine.
È possibile costruire una fotocamera per lavorare con più bande d'onda contemporaneamente, ed è così che funzionano le normali fotocamere, ma non è un'ottima scelta per l'imaging scientifico per alcuni motivi. In primo luogo il "filtro bayer" deve essere sostanzialmente stampato sul sensore, il che significa che non può essere modificato. In secondo luogo, significa che i pixel per diverse bande d'onda hanno posizioni spaziali leggermente diverse.
Quindi, per bande di frequenza oscure, una soluzione più comune è catturare una gamma d'onda alla volta, le immagini possono quindi essere combinate in un'unica immagine multicanale dopo l'acquisizione.Oppure è possibile catturare una sola immagine monocromatica, tutto dipende dall'obiettivo dell'immagine.
Ovviamente noi umani possiamo ancora vedere solo la luce visibile e possiamo vederla solo tricromaticamente, quindi a un certo punto il creatore di un'immagine deve giudicare su come mappare i dati dell'immagine scientifica (che può avere un arbitrarionumero di canali) a un'immagine RGB (che ha esattamente 3 canali) per la visualizzazione.Tieni presente che il colore nell'immagine finale non implica necessariamente che ci fossero più canali nei dati dell'immagine originale, non è raro utilizzare un processo di mappatura che mappa un singolo canale in ingresso a un colore in uscita.