Ricerca appunti sul web

Ricerca personalizzata

mercoledì 25 febbraio 2009

Tesine gratis Elaborazioni di immagini astronomiche digitali

Ho scelto di portare come tesina per la mia maturità, un breve trattato che unisca parte integrante del programma affrontato durante quest’ultimo anno nelle varie materie tecniche e la mia passione per l’astronomia insieme allo stupore per un’ immensità nella quale l’uomo sembra quasi sparire.

Negli ultimi anni mi sono cimentato assieme a professori e studenti del nostro omnicomprensivo, nell’osservazione e alla contemplazione del cielo, sfruttando telescopi amatoriali. Le osservazioni sotto i cieli milanesi non ci hanno mai permesso lo studio approfondito di oggetti denominati DEEP SKY, ( come galassie e nebulose). Tuttavia la mia tentazione di poter “catturare ” e condividere con i miei amici le emozioni e la straordinaria bellezza dell’universo, mi hanno portato a sperimentare diverse tecniche di fotografia e acquisizione dei soggetti astronomici. Nonostante i cieli milanesi, pressoché saturi di inquinamento luminoso, con i nostri strumenti abbiamo ottenuto risultati soddisfacenti nell’osservazione dei pianeti del sistema solare. Ricordo inoltre che l’atmosfera terrestre è sempre stata il fattore limitante di tutti gli astronomi e dei loro telescopi. Qualunque osservatorio terrestre, in qualsiasi locazione geografica è sensibile alle variazioni e alle turbolenze atmosferiche. Circa 15 anni fa è stato spedito in orbita il primo telescopio fuori dall’atmosfera terrestre, eliminandone quindi gli effetti negativi. La tecnologia digitale ha ampliato l’orizzonte dell’astronomia amatoriale con la diffusione delle camere CCD. Le camere CCD sono chip di silicio sensibilissimi alla luce, in grado di captare variazioni di luce e colore impercettibili dall’occhio umano. Queste camere CCD, associate ad appositi software informatici, consentono di eliminare parzialmente , tramite algoritmi informatici e matematici, l’effetto della turbolenza atmosferica. Oggi la sfida di tutti gli astronomi e astrofili è la ricerca di un metodo, (dicesi algoritmo di deconvoluzione) che elimini via software oppure otticamente l’influenza dell’atmosfera. La situazione della turbolenza atmosferica viene chiamata dagli astrofili e dagli astronomi “seeing”.Infatti non è sufficiente disporre di un cielo limpido, ma quest’ultimo deve essere anche atmosfericamente calmo.
Il programma didattico affrontato quest’anno mi ha fatto notare come l’astronomia e l’elettronica abbiano moltissimo in comune, ed ecco che dall’infinitamente grande si passa all’infinitamente piccolo. Questo legame tra l’astronomia e l’elettronica può essere sfruttato come metodologia di insegnamento facile e immediata, per i concetti più importanti affrontati durante il triennio. I concetti di filtraggio, quantizzazione, spettro ecc. applicato ad una immagine diventano un sussidio di apprendimento per lo studente. Nelle pagine seguenti ho inserito le immagini più significative ottenuto dal nostro gruppo, la descrizione del metodo di apprendimento e del processo di elaborazione visto dal punto di vista tecnico. Inoltre per tutti i profani che si accingono a leggere questo testo, ho inserito alla fine un breve glossario, che spiega in parole semplici i concetti chiave di tutto il discorso.















LA VALUTAZIONE DELL’IMMAGINE DIGITALE

Iniziamo a richiamare il concetto e la definizione di segnale, che descriviamo come un qualunque dato, o informazione, che possa essere catturato e misurato da un dispositivo apposito. Ad esempio un dinamometro ci indica la forza che imprime l’oggetto attratto dalla gravità, un registratore incide su un supporto la pressione del suono che un trasduttore (microfono) raccoglie. La retina dell’occhio capta energia luminosa che trasmette neurochimicamente ai centri del cervello in grado di interpretarla.
Una camera CCD reagisce al segnale luminoso immagazzinando elettroni in contenitori particolari chiamati PIXEL. Per semplicità faremo riferimento ad un solo pixel, poiché il discorso per uno in questo caso vale per tutti. In diversi libri di testo manuali e libri di TDP, ho trovato l’esempio del fotodiodo per spiegare il funzionamento elettrico del pixel, ma avendo consultato esperti e consultato libri più specialistici a proposito, sono giunto alla conclusione che ciò non sia del tutto esatto. Il fotodiodo è un piccolo componente elettronico che principalmente fa transitare elettroni , quindi fa scorrere una corrente quando è colpito dalla luce (polarizzazione diretta) in quantità proporzionale ad essa. È stato uno dei primi dispositivi elettronici ad essere utilizzato in astronomia, soprattutto in campo astrofotometrico.
I pixel, invece non solo accumulano elettroni, in quantità proporzionale all’energia luminosa che li investono, ma li depositano nel loro interno fino a che qualcosa non interrompa questo processo e vada a leggere quanti elettroni vi siano accumulati. Quindi il funzionamento di un pixel è prossimo a quello di un condensatore elettronico. La quantità di elettroni che si deposita nel suo interno costituisce l’informazione che desideriamo ricevere dal cielo, cioè una misura proporzionale della luce che il pixel ha raccolto. In altre parole, al termine dell’esposizione nel pixel sarà disponibile un segnale, cioè una informazione. Esiste poi una relazione diretta tra quantità della luce e segnale raccolto all’interno del pixel, chiamata EFFICIENZA QUANTICA, indicata con l’acronimo Q.E. (dall’inglese Quantum Efficiency), ed è rappresentata da un numero che indica in percentuale quanti elettroni vengono liberati ed accumulati nel pixel che colpiscano la sua superficie. Una Q.E. pari a 50% indica che per ogni 100 fotoni nel pixel si accumuleranno 50 elettroni. A volte si usa anche la notazione decimale per indicare Q.E. ma il significato naturalmente non varia. Valore ottimale di Q.E. sarebbe del 100% che corrisponderebbe ad un elettrone accumulato per ogni fotone coinvolto nel processo: ma siamo nel campo dell’utopia, almeno nel momento attuale. Il valore numerico che viene indicato per ogni camera CCD rappresenta la Q.E. tipica per una determinata lunghezza d’onda della luce, ciò perché in realtà il pixel possiede un’efficienza quantica diversa a seconda delle bande dello spettro luminoso. Le conseguenze di questa relazione consistono nell’obbligo di tenere in giusta considerazione le caratteristiche dello spettro luminoso di emissione dell’oggetto planetario o deep-sky, nel calcolo dei tempi di integrazione. In parole povere i tempi necessari (ad esempio) per gli oggetti tendenti al blu non varranno per altri oggetti tendenti al rosso. La domanda sorge spontanea: riguardo ai tempi di integrazione e esposizione, quanto devo esporre? Quando posso essere sicuro di aver ricevuto un’informazione sufficiente? In linea di massima giudicheremo ottimale quel segnale che saturi la capacità del pixel al 50-75%. Se la nostra camera campiona a 16 bit, sarà ottimale una lettura compresa tra 32.000 e 50.000 ADU (unità analogico digitale, ovvero il valore numerico associato al pixel). Infatti a 16 bit il massimo valore di lettura (livello massimo) sarà . Il motivo è semplice: maggiore è il segnale utile, maggiore è il rapporto SEGNALE / RUMORE. Il rapporto idealmente dovrebbe tendere all’infinito, ovvero massimo segnale e assenza di rumore (disturbi del segnale). Come accade generalmente, le misure sono tanto più attendibili quanto più si avvicinano al centro scala. Nel nostro caso si lavora un po’ oltre in quanto il punto iniziale non corrisponde a zero a causa del rumore elettronico che si insinua, ospite non gradito, nei processi della camera ccd.


Una delle prime regole dell’elaborazione di un’immagine digitale è valutare i valori di SATURAZIONE dell’oggetto fotografato, e non fidarsi dell’aspetto puramente estetico.In termini tecnici se la nostra immagine a 16 bit che dovrebbe mostrare 65536 sfumature di grigio diverse, ne mostra solo 4000 (e quindi è come se lavorassimo con 12bit invece che 16), l’immagine ( il FRAME ) dovrebbe essere giudicato insoddisfacente. Uno dei primi errori che ho commesso alle prime armi con la fotografia astronomica digitale è stato quello di accontentarmi di ciò che appariva al monitor. Un esempio pratico di saturazione di un’ immagine è rappresentato da queste due fotografie del pianeta saturno; sebbene sembrino identiche, la foto “A” è meno saturata della foto “B”. Infatti la foto A risulta meno nitida e risaltano meno i dettagli.















Ci sono però degli inconvenienti, ad esempio saturare troppo una immagine, significa esaltare il rumore. Ma che cosa è esattamente il rumore, e a cosa è dovuto? Il rumore è un segnale che si va ad aggiungere alla nostra informazione, andando a degradarla. Esempio: nelle due immagini del cratere lunare Arzachel (sotto), la figura a sinistra è affetta da rumore. Si nota infatti che, l’immagine è granulosa, e quindi si perdono anche dei dettagli minuti. A destra dell’immagine rumorosa, troviamo un’immagine pressoché priva di rumore, frutto di precisi metodi di cattura ed elaborazione dell’immagine.













A cosa è dovuto il rumore? Il rumore è dovuto sostanzialmente a due cause ben precise:

1. Rumore termale (Thermal noise): dovuto al surriscaldamento della camera CCD. È la causa di quella sorta di granulosità dell’immagine che abbiamo visto prima della luna.
2. Elettromagnetismo esterno al CCD: apparecchiature elettriche ed elettroniche poste nelle vicinanze della camera e che generino una qualunque corrente alternata, possono influenzare l’immagine finale, creando bande diagonali più o meno larghe e regolari sul campo. Risulta utile individuare e spostare ove è possibile fonti di disturbo elettromagnetico, come alimentatori difettosi, consolle di videogiochi, cellulari ecc. Dove non sia possibile (difficile spostare un traliccio dell’alta tensione o una lavatrice), si devono controllare i cavi di collegamento della CCD e dell’alimentazione, schermare la camera con un foglio di carta di alluminio connesso ad una terra, controllando la presa di terra del nostro sistema. Ma la scelta più ovvia è quella di cambiare siti osservativi.


INTRODUZIONE ALL’IMAGE PROCESSING

Image Processing (IP) significa elaborazione dell’immagine e comprendiamo nel termine tutte quella procedure che trasformeranno i dati grezzi del file raw in un’immagine piacevole a vedersi, ricca di dettagli e scientificamente significativa. L’Image Processing è una procedura software e si applica con appositi programmi chiamati, per l’appunto, Image Processors. Il mondo informatico offre una vasta gamma di software per l’elaborazione delle fotografie, spesso economici o gratuiti; questi programmi di fotoritocco sono però scarsamente utili per i nostri scopo: l’image processing astronomico si avvale di software specificatamente progettati e dotati di funzioni particolari, non altrove disponibili. In primo luogo devo far notare come la dinamica delle immagini CCD, di solito a 12 o 16 bit non sia gestibile dai comuni programmi che lavorano file a 8bit (non fatevi ingannare dalla dizione 24bit che questi riportano: si riferisce a immagini a colori, dove i tre canali, RGB, ognuno a 8 bit formano per l’appunto, un file a 24bit; la dinamica del singolo canale e della scala dei grigi resta a 8 bit). Solo programmi particolari, come quelli destinati all’uso astronomico, riescono ad elaborare immagini a 16bit in grigio ed è una qualità essenziale per i nostri scopi: scendere a 8 bit significa perdere una notevole quantità di informazione.
Dovremo perciò eseguire tutte le fasi dell’elaborazione mantenendo la dinamica completa e convertire i file a 8 bit solo al termine delle operazioni, per renderlo compatibile con altre applicazioni (per esempio la visualizzazione con Photoshop o Paint o Paint Shop). Grazie a questi software è possibile fare praticamente di tutto, dal modificare i colori, fino a creare dal nulla, dettagli inesistenti. Questa possibilità ha portato a numerose critiche di falsità (o scarso realismo) che molte immagini presenterebbero. Non del tutto infondata, questa accusa ci introduce in una sorta di terreno minato che sarà bene esplorare subito.

Fino a che punto siamo autorizzati a elaborare un’immagine astronomica? Esiste un limite al di là del quale non è legittimo spingersi? Diversi astrofili e astronomi hanno cercato queste risposte, con risultati non sempre soddisfacenti: forse esse non esistono neppure… in ogni caso, con questa tesina, cercherò di stimolare alla riflessione il lettore e di trovare un giusto equilibrio di lavoro. Una prima considerazione deve farci notare come quella astronomica sia un tipo di fotografia scientifica, con lo scopo di rappresentare un determinato fenomeno naturale, onde permetterne lo studio approfondito. Non è certo vietato partire da immagini astronomiche per creare opere artistiche, ma questa attività non appartiene al nostro campo. Lo scopo del nostro lavoro, perciò è la rappresentazione della realtà… Qui nasce il dilemma Pirandelliano: quale è la realtà? Nessuno di noi ha mai visto da vicino un oggetto astronomico, a parte la luna, e qualche meteora… Come possiamo quindi immaginarne lo splendore e il contrasto reale? Tutti concorderanno che questo sarebbe assurdamente limitativo per le riprese del fondo cielo, ma anche per i corpi del sistema solare le immagini ravvicinate dei giganti gassosi inviate dalle sonde automatiche hanno rivelato un Giove un Saturno ben diversi da come li osserviamo dalla terra. Un opinione semplicistica sull’argomento recita che con l’elaborazione si dovrebbe solo mettere in migliore evidenza ciò che sia gia visibile. Anche questa tesi non può essere accettata: le immagini raw planetarie e lunari mostrano ben pochi dettagli che sono però presenti, latenti potremmo dire, al di sotto di una soglia di visibilità, ma subito rivelati, per esempio dall’applicazione di un filtraggio. Ciò non toglie che l’applicazione eccessiva di questo tipo di elaborazione porti alla comparsa di artifizi che poco hanno a che fare con il realismo dell’immagine. Il peggior nemico da questo punto di vista, vale a dire il rumore che cresce con l’esasperarsi dell’elaborazione, può diventare un alleato nel nostro giudizio: un rumore inaccettabile può significare che siamo andati troppo in là, e che saranno già comparsi artifizi non credibili. Lo stesso rumore, nelle immagini di profondo cielo (deep sky), può simulare la presenza di stelline inesistenti, ma un’analisi accurata dei valori confrontata con carte stellari professionali, tradirà la falsa attendibilità. In ogni caso il principio di fondo è di migliorare senza modificare. Non dimenticate, però che tutti i risultati ottenuti dovranno essere riproducibili.

COME OTTENERE UN’IMMAGINE PRIVA DI DISTURBI

Come fare ad individuare la presenza di disturbi? Si esegue un DARK FRAME. Un’ immagine scattata completamente al buio (mettendo un tappo sopra la camera CCD oppure al telescopio, e verificando l’andamento della trama dei grigi.) Ecco a sinistra un esempio di dark frame. In esso si distingue la rumorosità dell’immagine, dovuta alla sensibilità termica del sensore CCD. Per rimediare a questo diffuso inconveniente, oggi i moderni CCD, sono accoppiati a delle ventole simili a quelle usate per la CPU di un computer. In ogni caso come si può ottenere un’immagine priva di rumore?
Una tecnica sperimentata e diffusa tra gli astrofili, è quella della ripresa; ovvero al posto che effettuare un singolo scatto con la camera CCD, si effettua una ripresa (un filmato di una certa lunghezza). Una ripresa non è altro che una serie numerosa di immagini (chiamati in termine tecnico frame) apparentemente simili tra di loro. La differenza sta nel rumore termico e nella turbolenza atmosferica, fattori che cambiano da frame a frame. Il numero di frame di un filmato dipende dalla frequenza di campionamento della camera CCD. Questo ultimo valore dipende dalla CPU, e dalla conformazione circuitale della camera CCD. La frequenza di campionamento si misura in frame per secondo ovvero [Fps]. Quanti più frame riesco ad ottenere nel mio filmato, migliore sarà il risultato finale; di conseguenza occorre avere una frequenza di campionamento, (o di cattura), molto alta per ottenere nel minor tempo possibile, tantissimi frame. Purtroppo nei casi reali, oggi possiamo contare su camere CCD con frequenza di cattura regolabile, ma che arriva al massimo a 20Fps. Tuttavia anche i computer più potenti, interfacciati con camere CCD impostate sui 20Fps, non riescono a sfruttare questa frequenza, e molte volte si ottengono anche il 10% di frame uguali in tutto il filmato: in parole spicciole, con i computer d’oggi, non si riesce a sfruttare al meglio la frequenza massima di campionamento delle camere CCD. Ma a cosa serve ottenere un filmato di tanti frame? Un filmato contenente una grande quantità di frame, simili fra di loro (che differiscono solo per il rumore e per la turbolenza atmosferica), può essere trasformato in un unico fotogramma, ottenuto mediando aritmeticamente tutti i frame del filmato preso in considerazione. Il frame risultante, non sarà contrastato e nitido, ma sarà pressoché privo di rumore.
A destra ho riportato la media di un filmato di marte da 1200 frame ottenuto con un telescopio da 23cm di diametro. Nonostante si notino diversi tratti del paesaggio marziano ,(come la calotta polare sud e le regioni scure della SOLIS LACUS), l’immagine è molto “morbida” (come si dice in gergo); ovvero parlando in termini di spettro, le componenti ad alta frequenza, risultano attenuate. In parole povere non si possono percepire dettagli minuti. Cosa si può fare per rimediare a questo inconveniente? Per prima cosa, l’astrofilo prima di eseguire la media di tutti i frame, con degli appositi software esegue una scelta dei frame da mediare… Un lavoro lungo e noioso. Tuttavia risulta necessario eliminare i frame più brutti; Ad esempio se nel filmato ci sono frame esattamente uguali, con lo stesso rumore, ne va tenuto solo uno. Se mentre stiamo riprendendo il filmato del pianeta, ci mettiamo a camminare attorno al telescopio, le vibrazioni porteranno a dei frame mossi che vanno individuati ed eliminati. In più ricordo che il motore che insegue il pianeta, commette un errore periodico di inseguimento, quindi se mediamo tutti i frame del filmato, otteniamo un frame finale mosso. Un’altra limitazione è dovuta alla velocità di rotazione del pianeta in questione. Il pianeta ruotando intorno al suo asse con una certa velocità, non ci consente di fare filmati contenenti più di “tot” frame. Di conseguenza dobbiamo ricorrere a programmi come REGISTAX che consentono di allineare tutti i frame di un filmato automaticamente prima di fare la media. Per esaltare i dettagli del frame finale, aumentando i dettagli e la nitidezza si ricorre ai filtri di Convoluzione.

FILTRI CONVOLUTIVI … L’ULTIMA FRONTIERA

Parola magica in grado di esercitare un fascino sui principianti con la sua implicita promessa di elaborazioni miracolose: la possibilità di eliminare tutto ciò che è sgradevole lasciando solo il buono di un’immagine. Tutti vorremmo un filtro che separi il rumore lasciando solo il segnale utile: ovviamente non esiste e, in termini generali, il reale potere di queste formule di calcolo (perché altro non sono) è un poco sopravvalutato.

I filtri di convoluzione operano sull’immagine così come essa appare nello “spazio” ovvero nelle sue dimensioni, larghezza e altezza. Per questo motivo si dice che i filtri lavorano nel dominio dello spazio in contrapposizione all’altro modo in cui un’immagine può essere rappresentata, cioè come una serie di frequenze (nel qual caso di parla di dominio delle frequenze). Come ho già accennato, nel dominio dello spazio un’immagine è rappresentabile come una matrice, un’ordinata griglia di numeri, ognuno dei quali descrive il valore di un pixel; le dimensioni della matrice corrisponderanno ovviamente, a quelle della fotografia. Un fitro spaziale è un’altra matrice di minori dimensioni che opera sulla matrice dell’immagine apportandovi delle modifiche. Il meccanismo preciso col quale agisce prende il nome di convoluzione e non è difficile da descrivere anche facendo ricorso soltanto a una matematica elementare. Osserviamo la figura a lato: ci mostra una semplice griglia costruita con 6 toni (tonalità) di grigio. Rappresentiamo l’immagine con una griglia di numeri (figura A ,a destra) e in basso a destra (sempre in figura A) disegniamo un tipico filtro, con una matrice di nove elementi, ovvero con il lato di tre. Ho rappresentato in figura A come viene elaborato il pixel evidenziato nel riquadro nero: la maschera di nove elementi del filtro nel momento in cui si centra su di esso, copre anche con le sue otto celle periferiche, gli otto pixel circostanti. Il nuovo valore del pixel centrale si otterrà moltiplicando ognuno di questi nove pixel per il corrispondente valore della matrice del filtro, si sommano poi i risultati per poi dividerli per la somma di tutti i valori del filtro. Se ripetiamo il calcolo per tutti i pixel dell’immagine otteniamo una nuova matrice, vedi figura B sotto ;





Deduciamo che il filtro utilizzato non è altro che un passa-basso, che ha determinato una sfocatura dell’immagine originale. La matrice ha più valori diversi tra di loro rispetto al caso precedente, e l’immagine risultante è una scala di 12 toni di grigio anziché 6. Per rendere il discorso un po’ più interessante, ora proviamo ad applicare qualche filtro all’immagine 1 sotto:


























PASSA ALTO

Applico un filtro passa alto
L’eliminazione delle basse frequenze di questa immagine determina un’esaltazione dei dettagli minuti, ma ,purtroppo anche del rumore. Questo filtro è utile solo se usato con parsimonia, altrimenti esistono alternative migliori.







PASSA BASSO

Applicando un filtro passa basso, avviene l’esclusione delle alte frequenze, si minimizza il rumore di un’immagine, ma si cancellano i dettagli minuti. All’atto pratico queste matrici vengono utilizzate assieme ad altre “maschere” per ammorbidire immagini troppo contrastate o troppo rumorose, oppure per dare altri particolari effetti.





GAUSS

Un tipo particolare di passa basso. Simula idealmente l’effetto del seeing o di una sfocatura, per cui viene spesso utilizzato come sussidio per complessi algoritmi di deconvoluzione.










Adesso sperimentiamo qualcosa di più complesso. Per fare ciò ci affidiamo ad un qualunque programma di image processing (paint shop pro, photoshop, iris ecc). Prendiamo di riferimento quest’immagine di saturno, che chiameremo Saturno RAW.




Iniziamo a costruire un particolare algoritmo, nato per esaltare i dettagli dell’atmosfera del pianeta e della struttura degli anelli. Duplichiamo questa immagine, in modo da avere due immagini RAW.







Applichiamo ad uno dei due doppioni una sfocatura, applicando un filtro passa basso molto selettivo, magari di tipo “Gaussiano”. Diminuiamo poi il contrasto, e la luminosità di quest’ultima.








Eseguiamo la differenza tra l’immagine RAW e l’immagine sfocata. Chiameremo questa immagine “SHADOW”.










Moltiplichiamo l’immagine “SHADOW” per 10 volte, ovvero sommiamo quest’ultima con se stessa per dieci volte. Chiamiamo quest’immagine “SHADOW x 10”







Sommando l’immagine RAW con l’immagine “SHADOW x 10” otteniamo questo curioso risultato. Abbiamo ottenuto qualcosa al di la della semplice concezione di filtraggio. Questa serie di operazioni (algoritmo), ci ha permesso di ottenere non solo una esaltazione dei dettagli, ma anche una esaltazione dei toni di colore e la “pressoché assente” presenza di rumore. L’immagine ha una dinamica molto alta, ovvero sfrutta a pieno la sua risoluzione, i suoi 24 bit.
Un algoritmo di questo tipo viene chiamato UNSHARP MASKING ovvero “maschera sfuocata”.
Ho riportato sotto l’applicazione di questo algoritmo di elaborazione, su M51 (figura sotto)














Le due galassie riprese da un telescopio amatoriale mostrano un evidente interazione gravitazionale. Dopo l’applicazione della maschera (immagine di destra), si evidenziano le scure bande di polvere che caratterizzano la galassia a spirale, (quella bluastra di sinistra della foto), mentre evidenzia il colore rossiccio della galassia irregolare di destra, interagente con la prima.

In elettronica generalmente si classificano i filtri per tipo e approssimazione, ad esempio approssimazione di Butterworth e di Chebychev ecc. .Le approssimazioni ci garantiscono più o meno selettività del filtro, e più o meno piattezza della banda passante.
Per usi astronomici, il tipo di approssimazione adottata per i filtri è quasi sempre quella di Butterworth. L’ordine del filtro, ovvero la selettività del filtro è gestibile tramite software di image processing. In questo modo è possibile rendere più o meno intensa l’azione del filtro. Generalmente stabilire il livello di filtraggio (l’ordine del filtro), non è così semplice; generalmente gli astrofili vanno ad interpretazione.

ANALISI NEL DOMINIO DELLE FREQUENZE

Fino ad ora abbiamo considerato le immagini nel loro aspetto più naturale, ossia come delle rappresentazioni spaziali dove ogni pixel è rappresentato da un valore e da una sua posizione su due assi. Esiste però un altro modo di considerare un’immagine, meno intuitivo ma estremamente utile, vale a dire come somma di frequenze che la compongono. La matematica alla base di questa concezione è complessa e, tutto sommato, importa poco a chi voglia farne solo un uso pratico.

Nel 1822 Jean Fourier, basandosi (come sempre succede nella storia delle idee brillanti, mai frutto di un lavoro di gruppo) su una felice intuizione, dimostrò che qualunque realtà periodica, per esempio un segnale sonoro, può essere rappresentata matematicamente, tramite sommatoria di sinusoidi e cosinusoidi, e che può essere percorso il cammino inverso, cioè la ricostruzione del fenomeno partendo dalla sua funzione matematica. Quale l’utilità di questo procedimento? Isolare le singole frequenze che compongono il segnale immagine, ci permette di operare su di esse indipendentemente, con una versatilità e una potenza d’azione che i comuni filtri convolutivi non possiedono. Alcune operazioni vengono eseguite nel dominio della frequenza: è il caso di alcuni dei più famosi algoritmi di deconvoluzione.

DECONVOLUZIONE

Come ho già accennato, l’immagine che ci giunge da un oggetto celeste, sia esso prossimo o lontano, è virtualmente perfetta, cioè non perturbata: i problemi cominciano con l’arrivo sul nostro pianeta. In primo luogo troviamo l’alterazione dell’immagine dovuta alla turbolenza atmosferica, che altera e deforma le immagini, e in secondo grado, le ottiche del nostro telescopio che non sono in grado, neppure in teoria di riprodurre esattamente l’immagine che ricevono (ricordo che un punto perfetto come una stella, viene in realtà mostrato come una figura falsa chiamata figura di diffrazione di Airy). Tutti questi fattori concorrono a trasformare l’immagine reale, il fascio luminoso che ha viaggiato nello spazio, nell’immagine alterata che giunge, alla fine, sul sensore della camera CCD. È come se l’immagine perfetta venisse filtrata da una matrice composta da elementi sopra indicati. Questo filtro virtuale viene chiamato Point-Spread Function - (PSF) ovvero funzione di diffusione del punto. Essa rappresenta matematicamente l’insieme delle alterazioni che il fascio ottico ha subito dal momento del suo ingresso nell’atmosfera fino all’arrivo sul sensore CCD. Entro certi limiti di approssimazione è possibile assimilare la PSF ad un filtro gaussiano, dato che in natura la maggior parte dei fenomeni presentano proprio una diffusione di questo tipo, in particolare, per quel che ci riguarda, le turbolenze del seeing e gli errori di messa a fuoco; le aberrazioni ottiche vengono invece meglio rappresentate da una funzione di tipo esponenziale, mentre i difetti di inseguimento richiedono una descrizione specifica a seconda della montatura. Molti programmi di “Image Processing” consentono di calcolare automaticamente la PSF più verosimile dall’analisi di un’immagine stellare non saturata presente nel campo. Ci serve tutto questo? In teoria moltissimo: se sappiamo come il fascio luminoso che ci giunge dall’astro, è stato modificato dovrebbe essere possibile, ripetendo matematicamente il processo al contrario, ricostruire un’immagine perfetta partendo da quella alterata; basterebbe applicare un calcolo che compensasse esattamente le alterazioni della PSF. All’atto pratico, le cose non sono così semplici: tanto per cominciare, spesso non è facile calcolare una PSF che riproduca esattamente tutte le aberrazioni subite; in secondo luogo il procedimento non è matematicamente determinato, ossia partendo dall’immagine ottenuta ed applicando un compenso della PSF è possibile ottenere una serie di immagini matematicamente plausibili, solo alcune delle quali, però, vanno davvero nella direzione cercata. Il problema viene aggirato realizzando il procedimento per “successive iterazioni”, cioè a piccoli passi ognuno dei quali conduce un po’ più vicini al risultato desiderato. Numerosi sono gli algoritmi (ossia le procedure) di deconvoluzione proposte: la più famosa è senz’altro quella di massima entropia, concepita inizialmente per la correzione delle immagini del telescopio spaziale Hubble; troviamo poi altri metodi di calcolo, come quello di Richardson-Lucy e di Van Citter. Per tutti valgono alcuni concetti basilari: i migliori risultati si ottengono partendo da immagini con alto rapporto S/R (segnale / rumore). Questo perché anche in questo caso il rumore può essere interpretato come un dettaglio utile e venire esaltato dalla procedura; inoltre affinché gli algoritmi abbiano abbastanza “informazione” da estrarre, è meglio lavorare con immagini lievemente sovracampionate. Ricordo che se l’immagine è sottocampionata, non solo la deconvoluzione produrrà risultati eclatanti, ma le stelle tenderanno anche ad assumere un aspetto squadrato.



SPETTRI

Il colore è solo un’illusione. Nasce dall’iterazione fra la radiazione luminosa di differenti lunghezze d’onda e il nostro apparato visivo; tuttavia da un punto di vista scientifico, non ha significato, e lo studio , pure importantissimo delle diverse frequenze luminose è affidato all’analisi spettroscopica o alle riprese mediante filtri particolari.

Da un punto di vista puramente estetico, al contrario, l’informazione colore è importante perché è in grado di fornire alla percezione umana immagini con una profondità, un realismo, e una spettacolarità altrimenti irraggiungibili. Nonostante i sensori CCD, nella loro struttura basilare, possono fornire solo immagini in bianco e nero (o, più precisamente riproducono tutti i colori in una scala di grigi), diverse soluzioni tecniche sono state definite per renderli in grado di catturare anche immagini a colori; d’altra parte, già da qualche tempo altre strumentazioni basate sui CCD, come le telecamere video, possono usufruire di questa possibilità.


Nota: quella che noi comunemente chiamiamo “luce bianca” è in realtà una miscela di radiazioni elettromagnetiche di differente lunghezza d’onda (ossia, in senso lato, di differente colore).

Un primo processo per catturare “l’informazione colore”, mediante un CCD bianco e nero (monocromatico), è costituito dalla TRICROMIA. La funzione software necessaria a realizzare la procedura è comunemente presente in tutti i programmi d’elaborazione di immagini CCD. Senza dilungare troppo il discorso, mostro il procedimento all’atto pratico. Supponiamo di voler riprendere la nebulosa anulare M57 nella costellazione della Lyra, (figura sotto).





La fotografia è a colori, ed è stata ottenuta da un osservatorio professionale, e rappresenta il risultato di tutto il procedimento




Adesso riprendiamo questo oggetto celeste in tre lunghezze d’onda diverse, ovvero colleghiamo al telescopio, il CCD a fuoco diretto (ovvero il sensore CCD è a diretto contatto con l’obbiettivo del telescopio), in poche parole il telescopio funge da obbiettivo per la camera CCD. Applichiamo al sensore un filtro rosso. Scattiamo un fotogramma alla nebulosa con questa configurazione.



Il risultato è la fotografia a lato, ovviamente in scala di grigi. La nebulosa è ripresa nel rosso, ovvero per lunghezze d’onda da 700[nm] in su. Essendo in scala di grigi, al bianco corrisponde un’alta concentrazione di rosso, e viceversa per il nero.


Con la stessa modalità di prima, riprendiamo ancora M27 cambiando filtro, e questa volta utilizziamo un filtro blu.



Questa folta il fotogramma è più scuro del solito, viene esaltata la stella centrale, la nana bianca che ha dato origine alla catastrofe cosmica. In realtà la nana bianca passando attraverso la polvere nebulare verdastra al centro della nebulosa, ci appare come bluastra, per cui risalta molto in questa foto.




Adesso riprendiamo la nebulosa con un filtro verde.




Si può notare in questo fotogramma come risalti molto la materia nebulare all’interno “dell’anello”. Risalta ancora la stella al centro della nebulosa.







Con appositi software in grado di assegnare per ogni fotogramma il canale desiderato, ovvero associare un colore per ogni fotogramma. Sovrapponendo poi questi tre fotogrammi ritorniamo all’immagine di prima (foto sotto).













Per rendere il discorso ancora più interessante, si possono sperimentare tecniche di accentuazione di particolari lunghezze d’onda, oppure sviluppare immagini in falsi colori.


Se aumentiamo molto la luminosità del fotogramma ripreso nel rosso e effettuiamo la tricromia, otteniamo questo risultato:











Oppure se consideriamo come fotogramma blu, lo stesso fotogramma del rosso, otteniamo un’immagine in falsi colori di questo tipo:


In genere, immagini di questo tipo vengono sfruttate per esaltare particolari aree della nebulosa, per esempio qui si può notare, come dicevo prima, la fitta presenza di polvere nebulare, tra la parte periferica dell’anello di polvere e la stellina al centro. Grazie a queste tecniche e ad approfondite analisi spettroscopiche, è possibile ricavare



Un’altra tecnica è la quadricromia, ovvero al posto di considerare i canali RGB (rosso verde blu), si considerano i canali LRGB, ovvero si considera anche il canale denominato “luminanza”. Ricorrendo a particolari filtri interferenziali, estremamente selettivi, da applicare alla camera CCD, è possibile ricavare spettri, ovvero riconoscere dalle bande di frequenza dei colori dell’oggetto, la sua composizione chimica.


CCD MONOCROMATICI O A COLORI?

La domanda sorge spontanea: perché non comprare un CCD a colori invece che in bianco e nero, in modo da risparmiarci la tricromia? Sostanzialmente per tre ragioni:

1. I CCD a colori sono più costosi
2. I CCD a colori attenuano di più la luce che ci giunge dall’astro
3. I CCD a colori sono più sensibili al rumore

In ogni caso oggi gli astrofili utilizzano webcam relativamente economiche, per sostituire i CCD per quanto riguarda le riprese planetarie. Anzi, oggi le webcam hanno di gran lunga superato le camere CCD in questo campo. Le webcam costano un decimo delle CCD e offrono prestazioni planetarie notevolmente superiori. Purtroppo le webcam sono sensibili al rumore, e non consentono una lunga esposizione. La lunga esposizione, consiste nel far rimanere il sensore CCD esposto alla luce dell’astro (collegando la camera al telescopio), per catturare quanta più luce possibile, nel modo identico con cui avviene la lunga posa delle pellicole chimiche. Ricordo comunque che per i pianeti non c’è assolutamente bisogno di lunghe esposizioni, anzi, abbiamo bisogno di ricavare quanti più frame possibili in dei filmati di un centinaio di secondi, (il discorso affrontato nelle prime pagine). Al contrario le webcam sono quasi totalmente obsolete per la ripresa del deep sky, ovvero gli oggetti del profondo cielo (galassie, nebulose, ecc.). In campo elettronico, diversi astrofili hanno provato con delle derivazioni ai circuiti interni della webcam, per aumentare il tempo di esposizione; i risultati non sono stati incoraggianti, in quanto le immagini risultavano essere estremamente rumorose. Per ovviare a questo inconveniente, sono state utilizzati anche particolari componenti (celle di Peltier), in grado di raffreddare il componente, con l’elettricità. Tuttavia le camere CCD in campo Deep Sky forniscono una precisione tale da annientare la concorrenza delle webcam. Uno dei principali siti internet, dove sono descritte in dettaglio tutte le modifiche elettroniche da applicare al circuito delle webcam è www.astrocam.org .




Questo è Marte , fotografato durante l’opposizione dell’agosto 2003, con un telescopio da 23cm di apertura e una comune webcam. L’enorme quantità di dettaglio che caratterizza questa immagine ci lascia pensare cosa si potrebbe ottenere con la medesima tecnica, ed un telescopio con il doppio del diametro preso in considerazione…








ABERRAZIONE CROMATICA

Il nostro gruppo astrofili è in possesso di quattro telescopi di diversi diametri, con diverse caratteristiche. Abbiamo due telescopi rifrattori da 10 e 15 cm di diametro, e due telescopi catadiottrici da 9 e 20cm. I telescopi migliori sono quelli rifrattori, che forniscono immagini contrastate dei pianeti, ma presentano un problema legato allo schema ottico: l’aberrazione cromatica. Questo fenomeno trasforma ogni sorgente di luce bianca, in un piccolo spettro, quindi le immagini date da un telescopio rifrattore, appare iridata. Ciò accade perché una semplice lente (o doppietto acromatico), formata da due superfici convesse, non possiede lo stesso punto di fuoco per tutte le lunghezze d’onda della luce. Per cui quando mettiamo a fuoco una qualsiasi fonte di luce, la vediamo contornata da un alone bluastro, (ad esempio giove nella foto a sinistra). Il risultato è una perdita di contrasto e di colore. Inoltre non è possibile rilevare analisi spettrometriche affidabili senza considerare questa aberrazione. Con il corso degli anni però sono riuscito ad elaborare un semplice processo di elaborazione ed eliminazione di questo indesiderato effetto. Il metodo si affida al procedimento inverso della tricromia, ovvero, scompongo questa immagine aberrata in tre canali: ROSSO-VERDE-BLU (RGB). In questo modo possiamo focalizzare meglio la questione.
Tracciamo però, prima un diagramma che mi illustri gli spettri presi in considerazione, onde evitare equivoci.


Essendo l’immagine un segnale, è possibile rappresentare lo spettro di quest’immagine, segnalando con dei vettori, le tre componenti che prendiamo in considerazione per l’elaborazione. Abbiamo quindi tre immagini non perfettamente a fuoco, colpa dell’aberrazione cromatica. Sapendo però che il nostro occhio focalizza meglio la luce con lunghezza d’onda intorno ai 600[nm], possiamo trascurare le piccole differenze di messa a fuoco tra la luce rossa e quella verde. Tra l’altro ci vorrebbe un telescopio da circa 25cm per ottenere una risoluzione tale da percepire questa piccola sfocatura. Per quanto riguarda la luce blu, il problema è evidente ed è deleterio. Il principio da me ingegnato è riassumibile poche righe.

1. Si scompone l’immagine aberrata nei tre canali (RGB);
2. si esegue la media del frame G e B, il risultato costituirà il nuovo frame “B” che prenderemo in considerazione per ricomporre l’immagine;
3. si ricompongono i tre canali dell’immagine (canali RGB), considerando il nuovo frame “B”;

Sembrerebbe un processo ovvio, ma in realtà questo è solo il principio su cui si basa il processo. Per essere più precisi, il nuovo frame B ,(quello dato dalla media del G e B dell’immagine aberrata), deve essere contrastato manualmente di un fattore in percentuale, dipendente dal rapporto focale del telescopio in questione. Il rapporto focale è il rapporto tra la focale del telescopio e il diametro dell’obbietivo. Non avendo dati a sufficienza per stabilire matematicamente una funzione che associ per ogni rapporto focale una certa percentuale di contrasto, il più delle volte si effettuano delle prove, per evitare di ottenere un’immagine in falsi colori.
Adesso mettiamo in pratica tutto quello che è stato detto fino ad adesso.

Ecco come si presenta la tipica immagine affetta da aberrazione cromatica; si noti come le fasce equatoriali di giove che dovrebbero apparire rossastre, appaiano violacee. Tutta colpa delle frequenze blu, non perfettamente a fuoco. Alcuni astrofili eliminano questo inconveniente, con l’aiuto di filtri che eliminano la componente blu, ma l’immagine che si ottiene pur essendo contrastata, non rispecchia totalmente la verità. Pur essendo molto diffuso, ritengo quest’ultimo un metodo grossolano e deleterio.

Scomponiamo ora l’immagine di giove nei diversi canali RGB.




CANALE ROSSO
Pur non essendo totalmente a fuoco, il canale rosso, mostra in alto a sinistra del disco planetario, la grande macchia rossa.









CANALE VERDE
Tra tutti i 3 canali, quello verde, risulta quello più a fuoco, dato che è vicino al giallo, colore che il nostro occhio riesce a focalizzare meglio. Infatti quando mettiamo a fuoco mettiamo a fuoco per il giallo, radiazione di circa 600[nm]. Questo canale è impostato sui 650[nm]. Non c’è molta differenza.






CANALE BLU

Un disastro… Il canale blu, appare totalmente fuori fuoco, non si riescono a distinguere i dettagli sul disco, contornato per altro da un alone intenso. Ogni tentativo di elaborare questa immagine risulterebbe vano.










Visto a colori il canale blu in se per sé appare in questo modo…orribile!



Ora facciamo la media matematica, con un qualunque software di image processing, tra il canale blu e il canale verde.




Il risultato è di gran lunga superiore a quello visto prima. Consideriamo questo frame ottenuto come il nostro nuovo canale blu. Inoltre faccio notare che l’alone attorno al disco planetario non è affatto scomparso, ma si è attenuato sensibilmente, come è aumentato sensibilmente il dettaglio.



Ricomponendo i tre canali RGB otteniamo quindi questo risultato:



Questa volta i colori sono più veritieri, ad esempio le fasce equatoriali appaiono rossastre, così come la grande macchia rossa.










C’è di più, ora componendo di nuovo quest’ultima immagine, nei tre canali RGB, è possibile eliminare ulteriori effetti indesiderati dovuti all’aberrazione, semplicemente agendo sul canale B.

Sotto ho riportato un altro esempio di risultato ottenuto con questa tecnica, su saturno:

PRIMA DOPO











DUE PAROLE SUL FORMATO “FITS”

L’ultima parte di questa tesina comprende una breve descrizione del formato FITS, formato con il quale vengono trattate e salvate le immagini astronomiche. Quasi ogni modello o marca di camera CCD possiede un suo formato proprietario che è possibile utilizzare, ma in tutto il mondo per i dati (e non solo per le immagini in senso stretto) riguardanti l’astronomia viene utilizzato il formato FITS. È questo l’acronomi di Flexible Image Transport System (tradotto alla lettera : “Sistema Flessibile di Trasporto delle immagini”).
Il suo principale pregio è l’assoluta interscambiabilità; esso, cioè, è del tutto indipendente dalla strumentazione utilizzata, computer compreso; non dipende neppure dalla piattaforma (Windows, Mac, UNIX ecc.). Questo significa che tutti gli astronomi e astrofili di tutto il mondo, possiedono un mezzo in comune con la quale scambiarsi i dati. Il secondo pregio importante è quello che il formato, per sua costituzione, può memorizzare, oltre ai valori che formano l’immagine vera e propria, una serie di informazioni supplementari su come essa sia stata realizzata (data, ora, durata della posa, strumenti e località, autore, soggetto ecc.) utili tanto per una sicura identificazione, quanto per un proficuo indirizzo scientifico. Ogni file FITS è formato da tre parti: intestazione, dati , coda. Provando ad aprire un file FITS con blocco note o Word pad, da visualizza selezionando opzioni e poi allinea al righello si ottiene la schermata a sinistra. L’Header FITS occupa i primi 2880byte ed è scritto in caratteri ASCII. È formato da 36 righe ognuna delle quali contiene una Keyword (“parola chiave”), seguita da un valore da essa determinato e da un eventuale commento preceduto da una barra (ossia dal simbolo / ).
Alcune Keywords sono obbligatorie, altre facoltative. Le obbligatorie sono:

SIMPLE, seguita dal valore booleano True/false: indica se il file è conforme allo standard FITS
BITPIX, indica il valore in bit dei pixel dell’immagine, ossia della sua dinamica (8, 16, 32 bit).
NAXIS:indica il numero di assi nei quali i dati contenuti nel file vanno rappresentati (tipicamente2)
NAXIS1 ,NAXIS2…NAXISn; il numero di elementi su ogni asse.
END senza valore associato, indica la fine dell’header.

Queste keywords, come detto sono obbligatorie e devono sempre essere presenti. Altre tuttavia contengono informazioni meno importanti ne cito alcuni:

OBJECT: l’identificazione dell’oggetto fotografato
TELESCOP: il riferimento all’ottica utilizzata.
INSTRUME: La camera CCD utilizzata
OBSERVER: autore dell’immagine
DATE-OBS; la data e l’ora espresse in tempo universale, della ripresa dell’immagine, deve essere utilizzato il formato anglosassone, con il seguente schema YYYY-MM-DDThh:mm:ss.ss (notare la T maiuscola tra i dati del giorno e quelli dell’ora.)
ORIGIN: l’osservatorio presso la quale è stata realizzata l’immagine.
DATE: la data della creazione del file FITS (che non coincide necessariamente con quella della ripresa).
AUTHOR: l’autore del file
CREATOR: il programma utilizzato per realizzare il file.
COMMENT: può contenere un qualsiasi commento.
HISTORY: la storia dell’elaborazione dell’immagine.

Il file FITS, infine, può terminare con un Tailer (coda) formato da valori nullo (00) che servono soltanto a rendere la lunghezza complessiva un multiplo di 2880 byte.



GLOSSARIO

ADU: unità analogico digitale, valore numerico associato ad ogni pixel restituido dall’ADC al termine della lettura della carica elettrica del pixel stesso, proporzionale al numero di elettroni in esso contenuti.

AMPLIFICATORE: in un CCD è quel circuito elettronico atto ad amplificare le microtensioni dei pixel in tensioni più elevate, così da essere più facilmente leggibili dal convertitore ADC.

ASSE OTTICO: l’asse di simmetria di un sistema ottico.

CAMPIONAMENTO: processo di acquisizione ad intervalli regolari dei valori delle ampiezze che il segnale assume in nel tempo.

CONVOLUZIONE : operazione matematica tra matrici. Nel caso della fotografia digitale, l’immagine cioè una delle matrici, viene scandita da una matrice più piccola, scelta dall’utilizzatore, o ricavata matematicamente secondo diversi parametri. Questa seconda matrice opera sull’immagine delle trasformazioni atte ad estrarne o valorizzare determinate informazioni.

DARK FRAME: immagine buia, ottenuta in assenza totale di luce, si utilizza per mostrare il rumore.

DECONVOLUZIONE: Operazione matematica sull’immagine atta a ridurre gli effetti delle diffrazioni e delle aberrazioni.

DIGITALIZZARE: convertire un segnale analogico in un numero discreto ben definito.

DINAMICA: il rapporto tra segnale raggiungibile e rumore corrispondente, spesso espresso in [dB]

DISCO DI AIRY: la parte centrale di un’immagine stellare, circondata dagli anelli di diffrazione.

FILE RAW: file contenente l’immagine grezza di un oggetto celeste, ottenuta al termine dell’esposizione.

FOTONE: particella fondamentale, che trasporta energia in quantità inversamente proporzionale alla sua lunghezza d’onda.

FWC:Full Well Capacity. Capacità di un pixel in fotoelettroni

MATRICE: Quadro di elementi numerici o alfabetici disposti per linee orizzontali e colonne verticali.

PIXEL : picture element: il più piccolo elemento di un’immagine.

RAPPORTO S/N: rapporto tra segnale misurato e rumore associato

RGB: rosso verde blu, sistema additivo per ricostruire un colore.

SATURAZIONE : Situazione di un pixel in cui il numero di fotoelettroni ha raggiunto il valore della FWC

SCALA DI GRIGI: scala monocromatica contenente solo tonalità di grigio.

SOTTOCAMPIONAMENTO: in un’immagine il più piccolo particolare viene campionato su una matrice inferiore a 2x2 pixel. Vedi teorema di Nyquist. Nella Realtà sono considerati accettabili valori fino ad 1,5x1,5pixel.

SOVRACAMPIONAMENTO: in un’immagine il più piccolo particolare viene campionato cu una matrice maggiore di 2x2 pixel . Vedi teorema di Nyquist

TEMPO DI INTEGRAIZONE : Durata dell’esposizione. Sinonimo di tempo di esposizione. Poiché con le camere CCD si devono ottenere spesso immagini in assenza di luce, il termine integrazione appare più generico e corretto rispetto ad esposizione che richiama il concetto di luce.

TEOREMA DI NYQUIST (e SHANNON): Nel processo di acquisizione di un’immagine, il singolo punto luminoso deve coprire un’area di 2x2 pixel.

0 commenti: