La luce entra nell’occhio (macchina) durante l’apertura della palpebra (otturatore), in quantità dettata dall’apertura della pupilla (diaframma), e viene focalizzata dal cristallino (lenti) per poi colpire la retina (CCD).
La base della retina è ricoperta da uno strato di
cellule riflettenti (
Figura 3 - A) in modo da permettere ai
coni e ai bastoncelli (
Figura 3 - B) di assorbirla sia in andata che in ritorno. La percezione dei colori è dovuta ai coni che sono suddivisi in 4 gruppi a secondo del gamma (range) di frequenze che riescono a percepire (
Figura 4) permettendoci di discriminarle.
Figura 4. Range di frequenze dei coni.
I bastoncelli invece percepiscono un ampia gamma di frequenze, perdendo quindi informazione sul colore, ma necessitano un bassissimo numero di fotoni per essere eccitati: per questo al buio vediamo in bianco e nero.
La differenza sostanziale tra occhio e fotocamera consiste nel fatto che la retina esegue un complicatissimo
pre-processing dell’immagine prima di inviarla al cervello mentre, come vedremo successivamente, il CCD salva una semplice
mappatura isomorfa dei fasci luminosi provenienti dalla scena reale trasformandoli in 0 e 1 dell’ immagine digitale in forma di
BIT-MAP o compressa in JPEG.
Il pre-processing della retina è dovuto alla
rete neurale che risiede sopra i coni e i bastoncelli (
Figura 3 - C), collegata al
nervo ottico mediante i filamenti nervosi (
Figura 3 - D) che ricoprono tutta la superficie e si riuniscono nel punto cieco del nostro occhio formando il nervo ottico.
Questa struttura verticale è di dimensioni molto ridotte e non pone limitazioni al percorso della luce che deve arrivare alle cellule sensibili sottostanti.
Al cervello arriva quindi un insieme (
array) di immagini, ognuna con un contenuto informativo diverso, cioè il risultato dell’applicazione di una
feature all’immagine originale.
Le feature sono filtri e trasformazioni che selezionano diversi tipi di informazione, ad esempio una feature estrae solo i cambiamenti chiari e scuri di bande verticali, un’altra fa la stessa cosa con bande orizzontali, altre invece estraggono i bordi, altre ancora gli spigoli, poi ci sono quelle che prendono informazioni sui colori, ecc … (
Figura 5 a)
L’alterazione di queste feature mediante droghe quali l’LSD o il peyote provoca le allucinazioni visive ispiratrici, ad esempio, dei tipici disegni geometrici indiani (
Figura 5 b).
Figura 5. a) Feature della retina. b) Disegni geometrici dei nativi americani.
Un’altra differenza importante è che l’immagine acquisita dal nostro occhio non è tutta alla stessa risoluzione, a causa della distribuzione radiale degradante dei coni e dei bastoncelli (
Figura 6).
Figura 6. Retina: la parte centrale con maggior densità di coni e bastoncelli è detta "fovea".
L’area di risoluzione migliore copre un campo visivo di soli 10 gradi. La percezione dettagliata dell’ambiente è dovuta ai movimenti
oculari saccadici.
Il CCD
La funzione del sensore è quella di ricevere i fotoni del fascio di luce proveniente dalla scena e di convertirli in elettroni che saranno immagazzinati nella memoria. Per la distinzione dei colori esistono due principali tecnologie.
La tecnologia 3CCD è utilizzata principalmente delle telecamere professionali del mondo del cinema o in alcune handycam di fascia alta.
Vengono utilizzati tre sensori, uno per colore RGB (Red Green Blue), e la luce viene separata nelle componenti RGB con un prisma chiamato beamsplitter (Figura 7 a). La necessità di allineare perfettamente il prisma con i CCD (Figura 7 b) fa lievitare enormemente il prezzo.
Figura 7. a) Beamsplitter. b) Problemi di disallineamento del beamsplitter.
Più economico e diffuso nelle compatte è invece il filtro di Bayer (
Figura 8).
Figura 8. Filtro di Bayer.
Come si è notato nella
Figura 4, l’occhio umano percepisce di più le tonalità verdi, il filtro compensa questa limitazione introducendo un numero maggiore di celle verdi. Una volta filtrato e convertito in digitale il segnale luminoso, si effettuano dei calcoli per inferire le sfumature a partire da pixel di soli tre colori.
Ad esempio il valore di una cella è calcolato a partire dalla media pesata delle celle ad essa adiacenti.
Questi algoritmi sono implementati nel firmware; più complicati saranno e più accurata sarà l’immagine risultante, per questo motivo infatti è il firmware che fa la vera differenza (insieme all’ottica) tra una fotocamera digitale e l’altra.
A questo punto è arrivato il momento di spiegare come i fotoni luminosi diventano “magicamente” bit sulla nostra memoria a stato solido.
Il CCD è formato da una serie di celle come mostrato in Figura 9 a.
Figura 9. a) Matrice di celle. b) Singola cella. c) Framebuffer.
Quando un fotone entra nella cella, un elettrone viene strappato dal suo atomo (effetto fotoelettrico). Questo elettrone viene mantenuto separato dal proprio atomo, al quale tornerebbe consumata l’energia portata dal fotone, utilizzando una differenza di potenziale ai lati della cella (Figura 9 b).
Più fotoni arrivano su una cella, più elettroni si accumuleranno al suo interno fornendo informazione sulla quantità di luce.
Con la chiusura dell’otturatore questi elettroni vengono prima trasferiti in una memoria temporanea (buffer) e poi in un circuito che li immagazzinerà nella scheda memoria (Figura 9 c).
Queste nozioni in ambito microscopico ci permettono di capire effetti macroscopici importanti. Se facciamo una foto ad un oggetto molto luminoso può succedere di vedere una linea verticale luminosa che attraversa tutta la nostra immagine. Tale linea non è dovuta ad effetti ottici dovuti al sistema di lenti ma ad un sovraccarico di elettroni all’interno delle celle del CCD. Quando le celle vengono svuotate, il grande numero di elettroni della cella sovraccaricata viene distribuito anche nelle celle successive (effetto di blooming). Concettualmente avviene la stessa cosa quando stampiamo con una cartuccia danneggiata che spande: quando la carta scorre, l’inchiostro si distribuisce creando una scia lungo la direzione di scorrimento.
Il più delle volte invece, gli elettroni di troppo tendono a “saltare” nelle celle adiacenti, facendo sembrare la sorgente luminosa più grande.
Se la sorgente è una luce collimata, ad esempio un laser, con una consistente potenza (un laser verde da 30mW), può addirittura forare le pareti delle celle, trasformando la vostra amata fotocamera in un costoso fermacarte.
Oltre al CCD esiste una tecnologia di sensori chiamati CMOS, utilizzati molto in robotica, però questa è un’altra storia …
Ha collaborato alla stesura dell'articolo
Sara Turrini.
Impaginazione grafica e HTML a cura di
Jacopo Salvi.
Bibliografia
Prof. Bob Fisher - Univ. of Edinburgh - UK
http://homepages.inf.ed.ac.uk/rbf/CVonline/
University of Utah
http://webvision.med.utah.edu/
Wikipedia - Retina
http://en.wikipedia.org/wiki/Retina
Wikipedia - CCD
http://en.wikipedia.org/wiki/Charge-coupled_device
Libro
"Introduction to Autonomous Mobile Robot" R. Siegwart, I.R. Nourbakhsh, The MIT Press