Come i Sensori Trasformano la Luce in Immagini a Colori

C’è stato un tempo in cui la televisione entrava nelle nostre case in bianco e nero. Il televisore della nonna era un monolite domestico: enorme, pesante, profondo, con il vetro leggermente curvo e quelle manopole che sembravano controllare l’universo. Nessun colore, solo bianco e nero. Eppure bastavano luci e ombre per dare vita a immagini potentissime. Ricordo le sere passate con mio padre a guardare i film di Totò o di Alberto Sordi, immersi in quel mondo senza cromie ma ricchissimo di emozioni. Anche le vecchie fotografie di famiglia, stampate su carta lucida, conservavano lo stesso incanto, prive di colori, ma traboccanti di dettaglio e profondità che ancora oggi sanno colpire.

Nebulosa Cuore ripresa con filtro Idrogeno: qui emerge la parte più calda e ionizzata della nube, dove il gas emette luce intensa grazie alla presenza dell’idrogeno.

È curioso pensare che, nonostante tutti i progressi tecnologici, il sensore monocromatico rimanga il più efficiente dal punto di vista astrofotografico. Oggi le fotocamere si dividono principalmente in due famiglie: i sensori monocromatici (Bianco e Nero) e quelli a colori, spesso indicati con le sigle Mono e OSC (One Shot Color). Catturano la luce nello stesso modo, ma utilizzano tecnologie diverse per trasformarla in un’immagine a colori. 

Per capire come si ricostruiscono i colori, bisogna partire da un concetto fondamentale: l’RGB. È un modello che descrive i colori combinando tre componenti primarie della luce — Rosso, Verde e Blu. Ogni immagine digitale nasce da questo trio, perché il nostro occhio è particolarmente sensibile proprio a queste tre gamme dello spettro. Variando l’intensità di ciascuna componente, è possibile ottenere tutte le tonalità visibili, un po’ come se mescolassimo tre luci colorate su un’unica tela luminosa.

Tre cerchi — Rosso, Verde e Blu — si sovrappongono per mostrare come nasce il colore nel modello RGB. Dove i cerchi si incontrano compaiono i colori secondari, e al centro, dall’unione di tutti e tre, nasce il bianco: il principio alla base di ogni immagine digitale.

Quando si usa una camera monocromatica, per ottenere una foto a colori servono dei filtri speciali chiamati LRGB: Luminanza, Rosso, Verde e Blu. Ogni filtro lascia passare solo un tipo di luce, così il sensore — che raccoglie solo l’intensità della luce — può registrare un colore alla volta. Prima si scatta la luminanza, che è come la versione in bianco e nero dell’immagine e contiene tutti i dettagli principali. Poi si realizzano tre scatti con i filtri rosso, verde e blu, che permetteranno di ricostruire i colori. Il processo richiede un po’ più di tempo rispetto a una fotocamera a colori, ma il risultato è un’immagine molto pulita, ricca di dettagli e con colori più accurati.

Io mentre pulisco un filtro ottico prima dell’uso. Questi filtri selezionano una parte precisa della luce e sono essenziali per ottenere immagini nitide e accurate, soprattutto in astrofotografia.

Ora possiamo addentrarci nel funzionamento del sensore a colori e capire come riesce a ricostruire le immagini grazie alla famosa matrice di Bayer. Questa matrice è un mosaico di minuscoli filtri — rossi, verdi e blu — disposti sopra il sensore come una piccola scacchiera colorata. Ogni pixel riceve la luce solo attraverso il filtro che ha sopra, quindi registra una sola componente del colore. Questi filtri, però, non sono distribuiti tutti in egual misura: la disposizione più comune è chiamata RGGB, e significa che in ogni gruppo di quattro pixel ce ne sono due verdi, uno rosso e uno blu. Questa scelta deriva dal fatto che l’occhio umano è molto più sensibile al verde, e avere più pixel verdi permette di ottenere immagini più luminose, dettagliate e naturali. Da lontano la superficie del sensore sembra uniforme, ma è proprio questa fitta trama di filtri che permette alla fotocamera di raccogliere tutte le informazioni necessarie per ricostruire l’immagine a colori. 

Quando abbiamo ottenuto i vari scatti, sia con una camera monocromatica sia con un sensore a colori, entra in gioco il concetto di canali. Un canale è semplicemente una “porzione” dell’immagine che contiene una specifica informazione di colore: rosso, verde o blu. Ogni immagine digitale, anche se non ce ne accorgiamo, è composta proprio da questi tre canali fondamentali — R per Rosso, G per Verde e B per Blu — che lavorano insieme per formare la fotografia completa.

Set di filtri LRGB Antilia: Luminanza, Rosso, Verde e Blu. Ogni filtro isola una parte dello spettro della luce, permettendo alla camera monocromatica di ricostruire un’immagine a colori precisa e dettagliata.

Nel caso della camera monocromatica, i canali vengono creati manualmente: si scatta una foto per ogni filtro colorato e poi le tre immagini vengono sovrapposte al computer, combinando il rosso, il verde e il blu per ottenere la versione finale a colori. Con i sensori a colori, invece, i canali vengono ricostruiti dall’interpretazione della matrice di Bayer: il software legge i pixel filtrati e, tramite speciali algoritmi che, proprio perché devono ‘indovinare’ parte delle informazioni mancanti, introducono piccole approssimazioni (ed è proprio per questo che in astronomia si preferisce utilizzare sensori monocromatici), ricrea i tre canali completi partendo dall’informazione parziale raccolta da ogni pixel. In entrambi i casi, il risultato finale nasce sempre dalla fusione dei canali R, G e B, che insieme formano l’immagine a colori che vediamo sullo schermo.

Quante volte abbiamo osservato una foto in bianco e nero chiedendoci come possa essere così intensa, o al contrario abbiamo ammirato un’immagine a colori senza pensare a tutto ciò che la rende possibile. Dietro entrambe le visioni si nasconde un mondo di processi, filtri, calcoli e ricostruzioni, che però non ha un fine misterioso: è semplicemente il tentativo dell’uomo di imitare se stesso. Con la tecnologia proviamo a riprodurre ciò che i nostri occhi fanno naturalmente ogni secondo, trasformando la luce in un racconto comprensibile. E quando osserviamo una fotografia, senza accorgercene, stiamo guardando il risultato di questa lunga collaborazione fra il nostro modo di vedere e gli strumenti che abbiamo creato per imitarlo e, in alcuni casi, persino per potenziarlo, come accade nell’astrofotografia. 

E questo è solo l’inizio. Il viaggio dentro il mondo della luce, dei sensori e dei colori è molto più profondo di quanto sembri, e ogni dettaglio nasconde una storia affascinante. Nella prossima parte entreremo nel cuore degli “obiettivi” dell’astrofotografia: i telescopi. Scopriremo come funzionano, perché sono così diversi dagli obiettivi fotografici tradizionali e come ciascun strumento può cambiare radicalmente il modo in cui catturiamo il cielo.

To be continued… al prossimo articolo sabato prossimo.