sabato 29 dicembre 2007

Proprietà geometriche dei sensori: 4 - Il campo

Conoscendo il campionamento e il numero dei fotoelementi per lato, automaticamente conosciamo il campo coperto dal sensore utilizzando un determinato telescopio.

Esempio: al fuoco del telescopio di Cavezzo è posta una telecamera Apogee Ap7p con sensore SiTE 512x512 fotoelementi quadrati di dimensione 24 micron. Qual'è la dimensione del campo celeste coperta dal sensore?
Dagli esempi riportati nella sezione campionamento sappiamo che ogni fotoelemento copre 2.24 secondi d'arco di cielo per lato dunque avremo 512*2.24 = 1146.9 secondi darco = 19.1 primi d'arco per lato.

Esistono parecchi siti e programmi gratuiti per calcolare in modo semplice ed automatico il campionamento e/o il campo coperto da una determinata combinazione di telescopi e camere CCD commerciali. Uno dei migliori a mio avviso è CCDCalc di Ron Wodaski, scaricabile in questo link .

venerdì 28 dicembre 2007

Il BIAS FRAME

Il BIAS FRAME altro non è che un DARK FRAME, ovvero un'immagine CCD ripresa con tutte le ottiche coperte da uno schermo nero, con tempo d'esposizione nullo. In molte camere CCD, come nelle DSLR, il tempo d'esposizione nullo non esiste: in tal caso una buona approssimazione può essere il tempo minimo d'esposizione permesso dall'hardware o dal software. Ad esempio la camera Apogee Ap7p in dotazione all'Osservatorio di Cavezzo permette esposizioni minime di 0,02 secondi, quanto basta per rendere trascurabile la minima quantità di corrente di buio creata nei due centesimi di secondo d'esposizione. Piuttosto, è di gran lunga più importante la corrente di buio accumulata negli ultimi pixel scaricati durante i secondi necessari alla lettura del CCD che non è mai istantanea, soprattutto quando i chip sono di grosse dimensioni ( es. > di 1 megapixel): questo può portare alla formazione di un gradiente di luminosità nel senso verticale dell'immagine.

Come abbiamo già visto introducendo il DARK FRAME, l'utilizzo principale del BIAS FRAME è quello di ricavare il THERMAL FRAME che è l'unica componente dell'immagine CCD che è direttamente proporzionale al tempo d'esposizione e/o alla temperatura d'esercizio del CCD. Da questo è possibile "riscalare" (moltiplicando i pixel per un'opportuna costante) un THERMAL FRAME di un dato tempo d'esposizione per ricavarne un altro con un differente tempo d'esposizione equivalente. Tuttavia, quando se ne ha la possibilità è sempre conveniente riprendere i DARK FRAME con lo stesso tempo d'esposizione utilizzato per riprendere le immagini GREZZE.

Un altro non meno importante utilizzo del BIAS FRAME è la possibilità che ci dà di effettuare una prima diagnostica della nostra camera CCD.

Nell'immagine sopra è possibile vedere un BIAS FRAME "ideale": un perfetto "tappeto" di rumore uniforme senza alcuna struttura o variazione di luminosità. L'istogramma è una sottile campana simmetricamente centrata sul valore medio (in questo caso 3145). Tracciando un profilo verticale (utilizzando il comando Visualizza > Profilo di Astroart) si ottiene un grafico perfettamente orizzontale oscillante ancora una volta nell'intorno del valore medio precedente.

Nell'immagine sotto vediamo invece un BIAS FRAME un po' più realistico e con alcuni difetti non del tutto trascurabili: innanzi tutto, le prime 3-4 righe di pixel in alto sono più luminose, identificando una probabile zona di accumulo di cariche; in secondo luogo, al semplice colpo d'occhio, è evidente una "struttura" più o meno regolare a linee orizzontali generate da interferenze elettromagnetiche e un chiaro gradiente di luminosità che intensifica queste linee mano a mano ci si avvicina alle ultime righe in basso del BIAS FRAME. Queste righe più luminose sono la causa della "gobba" a destra della campana visibile nell'istogramma. Tracciando poi il profilo verticale dell'immagine risulta poi ancor più evidente la presenza di un gradiente di luminosità causato dall'accumulo di cariche termiche durante il "download" dell'immagine dal CCD al PC.


E' chiaro che più ci si avvicina alla situazione ideale e "migliore" sarà la nostra camera CCD. Esiste però un parametro fondamentale, intrinsecamente legato al BIAS FRAME, che ci può dare una prima importante informazione sulle immagini che possiamo ottenere con la nostra camera CCD: il readout noise o "rumore di lettura". Come vedremo, il rumore di lettura è una delle principali sorgenti di rumore presenti in un'immagine CCD ed è strettamente legato all'effettiva dinamica ottenibile da una camera CCD.

Per il momento vediamo come possiamo stimare il rumore di lettura della nostra camera CCD utilizzando una serie di BIAS FRAME.

Ovviamente tutte le immagini digitali "nascondono" tra i pixel un rumore di lettura: il BIAS FRAME perfetto è quello che più si avvicina alla sua struttura, tuttavia come abbiamo visto, difficilmente possiamo avvicinarci alla perfezione: esiste sempre qualche segnale indesiderato di disturbo. Per minimizzare questi segnali indesiderati possiamo ricorrere ad una stratagemma: riprendiamo alcuni BIAS FRAME (una decina possono andare bene); uno lo teniamo da parte mentre degli altri nove otteniamo un "master" BIAS FRAME ovvero li combiniamo insieme facendone la mediana (ad es. utilizzando il comando Strumenti > Pretrattamento di Astroart).

Ora sottraiamo la mediana dal singolo BIAS FRAME: ciò che otteniamo è un READ NOISE FRAME ovvero una riproduzione del solo rumore di lettura della nostra camera CCD (immagine sopra). Anche se purtroppo rimane amcora traccia delle strutture orizzontali causate dai disturbi elettromagnetici, queste in realtà sono di debole intensità come ci conforta la visione dell'istogramma rappresentato da una campana quasi perfetta. Come abbiamo già visto, la deviazione standard, ovvero l'ampiezza della campana, ci dà una stima numerica del rumore presente nel frame, circa 2,7 ADU (l'ADU è l'unità utilizzata per indicare il valore del pixel dopo la digitalizzazione, ovvero dopo la trasformazione da una differenza di potenziale ad un numero intero determinato dal convertitore analogico-digitale della camera CCD). Ma il rumore di lettura viene di solito riportato dalle case costruttrici in elettroni (per pixel): per trasformare il valore da ADU al corrispondente valore di elettroni occorre conoscere il gain della camera CCD, anch'esso spesso riportato nel foglio delle caratteristiche della camera CCD, ovvero a quanti elettroni corrisponde 1 ADU. Per l'Apogee Ap7p in dotazione all'Osservatorio di Cavezzo il gain è 4,4 e-/ADU che moltiplicato per 2,7 corrisponde a circa 11,9 e- di readout noise (il data-sheet dell'Apogee dichiara 10,2 e-).

lunedì 24 dicembre 2007

Il rumore

E veniamo ad introdurre uno degli argomenti più controversi per il giovane astrofilo digitale: il rumore.
Uno potrebbe essere portato a pensare che il DARK FRAME sia una forma di "rumore" da togliere dalle nostre immagini grezze: non è esattamente così. Il DARK FRAME rappresenta un SEGNALE: un segnale di disturbo ma pur sempre un segnale: il segnale generato dalla corrente di buio emessa dalla camera CCD (o DSLR) ad una data temperatura e per un dato tempo di posa. E per fortuna si tratta di un segnale! Per fortuna perchè, se facciamo lavorare il sensore nelle stesse condizioni d'esposizione e di temperatura che abbiamo utilizzato per riprendere l'immagine GREZZA, questo segnale è "quasi" perfettamente riproducibile.

Ma è in quel "quasi" che si nasconde, subdolo, il concetto di rumore.

Proviamo infatti a riprendere due DARK FRAME nelle stesse identiche condizioni (stesso tempo di posa e stessa temperatura). Ora analizziamoli attentamente pixel per pixel: sono identici? Ogni pixel di coordinate (x,y) nel primo DARK FRAME ha lo stesso identico valore nel pixel corrispondente del secondo DARK FRAME? Certamente no. Di questo possiamo rendercene conto meglio facendo una semplice sottrazione: se sottraiamo il primo DARK FRAME dal secondo (o viceversa) il risultato sarà una nuova immagine con i pixel di valore intorno allo zero ma non esattamente tutti nulli come ci si potrebbe aspettare.

Astroart possiede gli strumenti essenziali per l'analisi numerica delle immagini come l'istogramma e la finestra delle statistiche.

Per analizzare meglio questo fenomeno possiamo generare un istogramma dell'immagine: un istogramma, lo vedremo meglio più avanti, è un grafico con in ascissa i valori dei pixel presenti nell'immagine ordinati in senso crescente e in ordinata il numero dei pixel con quel determinato valore. Ebbene, l'istogramma della nostra immagine ha la forma di una campana, con il picco in corrispondenza del valore zero. Questo significa che la maggior parte dei pixel presenti nell'immagine hanno valore nullo ma tanti altri hanno valori diversi da zero, in parte leggermente maggiori di zero ed in parte leggermente minori di zero. La forma a campana è dovuta al fatto che più ci si discosta dal valore medio dei pixel (lo zero in questo caso), minore è il numero di pixel presenti nell'immagine con quel determinato valore. Idealmente, se avessimo una camera CCD perfetta, in grado di riprodurre due DARK FRAME perfettamente uguali, sottraendo l'uno dall'altro, otterremmo un'immagine composta da tutti i pixel identicamente nulli. E' facile intuire che l'istogramma di questa immagine sarebbe composto da un'unica colonna in corrispondenza del valore zero di altezza pari al numero dei pixel contenuti nell'immagine. Ed è ancor più facile dedurre che l'ampiezza della campana ha una certa relazione con la distribuzione dei valori diversi da zero e quindi è direttamente correlata al "rumore" presente nelle immagini CCD riprese con la nostra camera. La deviazione standard, visibile nel riquadro delle statistiche dell'immagine, dà una misura diretta della dispersione dei valori dei pixel nell'intorno del valore medio (zero) ed è quindi una quantità correlata alla "rumorosità" dell'immagine: maggiore è la deviazione standard, maggiore è la dispersione e maggiore sarà il "rumore" che accompagna queste immagini. Ecco quindi che il concetto di "rumore" deve essere inteso come una serie di fenomeni che non permettono mai di poter riprodurre un'immagine CCD perfettamente uguale l'una all'altra pur operando nelle stesse identiche condizioni. In questo caso abbiamo utilizzato due DARK FRAME ma lo stesso identico ragionamento vale per qualsiasi coppia di FRAME ripresi con la camera CCD: due immagini GREZZE di un qualsiasi oggetto celeste, due FLAT FIELD, due BIAS FRAME ecc.: non riusciremo mai ad ottenere due FRAME esattamente uguali l'uno dall'altro.
Ma quel che è peggio è che, qualsiasi operazione matematica andremo a fare con i FRAME, come ad esempio la sottrazione del DARK FRAME dall'immagine GREZZA, noi andremo sì a sottrarre la mappa del rumore termico e del BIAS dall'immagine GREZZA, ma andremo altresì a SOMMARE il rumore presente nei due FRAME. Quali sono le sorgenti di rumore e come potremo fare per minimizzare (attenzione: potremo solo minimizzare e non toglierlo del tutto) il contributo del rumore nell'immagine finale lo vedremo nei prossimi post.

sabato 3 novembre 2007

Il DARK FRAME

Nel precedente post, "L'immagine GREZZA" , abbiamo visto cosa si ottiene facendo una semplice esposizione con una camera CCD applicata al telescopio. Abbiamo anche già visto che il termine "GREZZA" deriva dal fatto che essa contiene dei segnali non desiderati e dei quali dobbiamo liberarci per ottenere un'immagine finale esteticamente e fotometricamente perfetta.
Il primo di questi segnali indesiderati, soprattutto nelle piccole camere CCD o CMOS commerciali non raffreddate o raffreddate elettronicamente (attraverso una o più celle di Peltier), è il segnale termico o corrente di buio. Indipendentemente dal fatto che il nostro sensore sia o meno esposto alla luce, esso genera degli elettroni in numero proporzionale alla temperatura di esercizio. Infatti se copriamo il telescopio, e facciamo un'esposizione completamente al buio, non otteniamo un'immagine perfettamente nera con tutti i valori dei pixel nulli, come ci si potrebbe aspettare, bensì un'immagine "granulosa" con il tipico "effetto neve" dei ricevitori televisivi.

Il tipico aspetto con "effetto neve" di un dark frame. Si noti anche che è presente una "struttura" diagonale a 45° dal basso a sinistra in alto a destra: questa è tipica soltanto del CCD utilizzato in questo caso, un SITe retroilluminato: sono i segni visibili della fresa utilizzata per assotigliare lo strato di semiconduttore per renderlo più sensibile alle lunghezze d'onda più corte.
Gli elettroni generati nello strato di silicio durante l'esposizione vengono infatti scaricati nel registro del sensore e successivamente letti nel convertitore analogico-digitale per generare il così detto DARK FRAME. In realtà nel DARK FRAME è contenuto un altro segnale indesiderato: il segnale del BIAS, ma di questo ne parleremo più avanti. Per il momento ci basti sapere che possiamo registrare il segnale del BIAS semplicemente facendo un DARK FRAME con tempo d'esposizione nullo per ottenere così il BIAS FRAME. Con una semplice operazione aritmetica di sottrazione da pixel a pixel tra il DARK FRAME e il BIAS FRAME, otteniamo il THERMAL FRAME ovvero una mappa della degli elettroni termici generati dal nostro sensore:

I valori dei pixel che compongono il THERMAL FRAME dipendono sia dalla temperatura che dalla durata del tempo d'esposizione e questa dipendenza è generalmente molto regolare e lineare. Ad esempio è possibile vedere che in un sensore CCD gli elettroni contenuti nel THERMAL FRAME raddoppiano ogni aumento di temperatura di circa 6 °C mentre, fissata la temperatura, gli elettroni contenuti nel THERMAL FRAME aumentano linearmente con il tempo d'esposizione. Tutte queste informazioni ci saranno utili quando affronteremo l'importantissimo argomento del preprocessing delle immagini digitali. Solo attraverso un corretto preprocessing potremo finalmente ripulire di tutte le impurità le nostre immagini GREZZE.

martedì 16 ottobre 2007

L'immagine "GREZZA"

Entriamo nel vivo dell'astronomia digitale esaminando quella che in gergo viene chiamata immagine GREZZA (a volte chiamata anche "raw", vedi nota a fondo pagina, o "light frame").

Come si ottiene un'immagine GREZZA?

Molto semplice: si punta il telescopio sull'oggetto desiderato, si mette a fuoco, si imposta il tempo d'esposizione, eventualmente si posiziona il filtro necessario ed infine si schiaccia il pulsantino del software d'acquisizione. Dopo aver pazientemente atteso lo scorrere del tempo d'esposizione e dei secondi necessari al download dell'immagine dal CCD alla memoria del PC, avremo la nostra immagine RAW sullo schermo.

Nonostante l'aggettivo essa rappresenta quanto di più genuino e puro sia possibile ottenere, in termini d'informazione, di quell'oggetto con la nostra strumentazione e in quel determinato momento. D'ora in avanti, qualsiasi operazione noi andremo ad effettuare sull'immagine GREZZA, inevitabilmente la trasformerà, modificandone in qualche modo la struttura e spesso persino il significato fisico. Per questo è importante averne la massima cura e rispetto, magari salvandone immediatamente una copia in un'area di backup del nostro disco.

Una tipica immagine GREZZA: 3 minuti d'esposizione sul campo intorno a NGC 3718 fatta al 40cm. del telescopio Newton di Cavezzo con la camera CCD Apogee Ap7p. Sono evidenti vari i segnali di disturbo come i pixel più caldi generati dalla mappa termica del CCD, alcuni pixel "freddi" (più scuri), la vignettatura (il centro più luminoso dei bordi) e alcuni segni lasciati da granelli di polvere e da un particolare effetto dei CCD retroilluminati, le "fringes".

Tuttavia l'immagine GREZZA non contiene solamente il segnale emesso dalla sorgente desiderata: contiene purtroppo altri segnali indesiderati ad ognuno dei quali è associato un certo livello di rumore. Attenzione, qui viene il bello: il concetto di segnale e il concetto di rumore. Lo vedremo ampiamente nelle prossime pagine, per il momento ci basti sapere che, oltre al segnale principale proveniente dall'oggetto ripreso, nella nostra immagine GREZZA, ci troveremo:
  • il segnale del BIAS e il segnale termico: questi segnali non li vogliamo sia nel caso noi fossimo interessati a fare solo semplici fotografie, sia nel caso fossimo impegnati a fare delle misure astrometriche o fotometriche. Dovremo quindi eliminarli.
  • il segnale del fondo cielo (quello che i nostri amici anglosassoni chiamano "background") : il cielo fa ovviamente parte di qualsiasi immagine astronomica e non dà particolari fastidi (sempre che non sia eccessivamente luminoso!) ma nel caso di misure astrometriche e/o fotometriche è di estrema importanza calcolarne il valore con la massima precisione possibile. Anche qui, vedremo più avanti le tecniche più utilizzate per la misura del segnale di fondo cielo.
  • Non è finita: tutto ciò che si interpone nel cammino ottico tra il nostro oggetto e il sensore CCD, ne modifica il segnale originale, attenuandone in maniera diversa l'intensità. L'aspetto più evidente è la disuniformità di campo o vignettatura oppure gli inevitabili granelli di polvere che possono depositarsi sui filtri o sulle finestre di protezione del CCD. Ma esistono anche disuniformità più subdole come la differente sensibilità alla luce da fotoelemento a fotoelemento. Tutti questi problemi li risolveremo con quello che normalmente viene chiamato FLAT FIELD.
Questi segnali indesiderati (attenzione alla terminologia! Li ho proprio chiamati "segnali indesiderati" e non "rumori") non esistevano ai tempi della fotografia su pellicola, fatta eccezione per la vignettatura e i vari difetti di pellicola) ma al giorno d'oggi diventano importanti anche per chi utilizza in campo astronomico normali camere DSLR e persino webcam perchè sono disturbi tipici delle camere digitali, si tratti di CCD o CMOS non importa.

lunedì 15 ottobre 2007

Più strumenti in uno

Abbiamo visto che l'immagine digitale consiste in una matrice di elementi detti pixel ai quali viene assegnato un valore numerico. La posizione di ogni pixel è univocamente determinata dalle sue coordinate rispetto ad un'origine, esattamente come avviene in un sistema piano di riferimento cartesiano.
Il valore numerico associato ad ogni pixel ha poi un'altra importante caratteristica: adottando opportune cautele, attraverso calibrazioni e correzioni che vedremo in seguito, esso rappresenta un valore proporzionale al numero effettivo di fotoni che vengono emessi dalle sorgenti di luce inquadrate.
Queste sono proprietà straordinarie che trasformano la nostra camera CCD in qualcosa di ben più potente di una semplice fotocamera: insieme alla camera CCD abbiamo acquistato almeno altri due strumenti: un misuratore astrometrico e un fotometro! Prima dell'era digitale questi erano strumenti quasi impensabili per gli astronomi dilettanti, vedi l'immagine sopra di un vecchio microdensitometro utilizzato per le misure astrometriche e fotometriche sulle latre fotografiche(Courtesy University of Cambridge - Institute of Astronomy).
Oggi questi costosissimi strumenti sono oramai obsoleti nonch'è meno precisi se confrontati con lo studio di un'immagine digitale attraverso opportuni software di analisi numerica.
I giovani astrofili spesso non sono pienamente consapevoli della strumentazione che hanno a disposizione e del sostanziale contributo che potrebbero dare alla ricerca scientifica con una camera CCD, qualche filtro e tanta, tanta passione. Spesso ci si limita purtroppo a fare tante fotografie tutte simili di oggetti celesti più o meno affascinanti: ricordo anch'io l'entusiasmo nel vedere piccole galassie e nebulose con poche decine di secondi d'esposizione utilizzando una delle primissime camere CCD commerciali della californiana SBIG, la ST4 montata al fuoco diretto del 40 cm. dell'Osservatorio di Cavezzo. Erano i primi anni 90, oggi si sono fatti passi da gigante e accanto a tanti bravissimi astrofili specializzati nell'imaging, vi sono anche alcuni astronomi dilettanti che contribuiscono a raccogliere dati a volte importantissimi per le ricerche dei professionisti.
E' fondamentale che tutti, anche gli astrofili che si dilettano nel fare semplici fotografie, siano consapevoli che per mano hanno uno strumento che potrebbe fare molto ma molto di più...

domenica 7 ottobre 2007

Campionamento e potere di separazione

Dimentichiamoci per un momento di tutte le problematiche relative al seeing e alla qualità delle ottiche e ragioniamo esclusivamente su basi teoriche: una delle prime cose che si imparano quando si vuole acquistare un telescopio è il cosidetto Limite di Dawes:

a" = 115/D

dove a" è l'angolo minimo risolvibile o minimo dettaglio osservabile in arcosecondi, 115 è una costante che si applica in caso di sistemi ottici perfetti (costante di Dawes) e D è dell'obiettivo in millimetri. E' d'uso pratico utilizzare 120 come costante di Dawes, anzichè 115, in quanto quest'ultimo valore si riferisce nel caso teorico di ottiche perfette.

Questa semplicissima formula è una diretta conseguenza di un fenomeno ottico ben conosciuto: la diffrazione. Qualsiasi fenomeno fisico di tipo ondulatorio, come il suono o le onde elettromagnetiche come la luce, subisce fenomeni d'interferenza quando passano attraverso una fenditura o ad un foro.
Una situazione del tutto analoga si verifica nel caso in cui un fascio di luce parallelo proveniente da una sorgente puntiforme viene fatta focalizzare nel piano focale di un sistema diottrico o di uno specchio parabolico. In questo caso non si avrà un punto immagine, ma un dischetto circondato da anelli alternativamente chiari e scuri, ossia una figura di diffrazione. In realtà si tratta dell'immagine miniaturizzata dell'obbiettivo: normalmente gli obbiettivi sono circolari, ma se, per ipotesi, un ottico si divertisse a costruire una lente o uno specchio a sezione quadra l'immagine di una stella sul piano focale ne riprodurrebbe le fattezze divenendo essa stessa quadrata!

Anche in ottime condizioni atmosferiche è molto difficile vedere oltre il primo anello brillante; anzi, riuscire a notare quest'ultimo è indice di una buona fattura dell'obbiettivo: solo se le superfici ottiche sono perfettamente liscie, ovvero con asperità che non superano la grandezza di 1/4 della lunghezza d'onda della luce incidente, si può avere la possibilità di osservare la figura di diffrazione.
Per determinare il potere di separazione di uno strumento ottico occorre determinare la grandezza di questa figura di diffrazione: il raggio lineare a del primo minimo (l'anello scuro tra la centrica e il primo anello luminoso) è dato dalla formula:

a = 1.22 · l / D

con l la lunghezza d'onda, D il diametro dell'obbiettivo e 1.22 è una costante.
Per esprimere il valore in secondi d'arco, occorre moltiplicare per 206265 (i secondi d'arco contenuti in un radiante):

a'' = (1.22 · l · 206265) / D

Se esprimiamo tutto in millimetri e attribuiamo a l il valore al quale l'occhio è maggiormente sensibile (circa 0.56 micron) otteniamo la nota espressione:

a'' = 135 / D

chiamata Limite di Rayleigh.

Tuttavia, se consideriamo che nella figura di diffrazione l'85% della luce si concentra nella centrica, e che il rimanente va a cadere sugli anelli brillanti — che usualmente non si vedono salvo, al limite, il primo — è possibile nella pratica guadagnare un 15% sul valore minimo di separazione; in tal caso l'espressione precedente diviene:

a'' = 120 / D

chiamata appunto Limite di Dawes.

Teniamo presente che si tratta di un potere di separazione angolare più che un potere di risoluzione, particolarmente efficacie nel caso di dover distinguere due stelle di eguale colore ed intensità luminosa. Vedremo che non è esattamente quello che normalmente intendiamo come potere risolutivo, ovvero la capacità di discernere i particolari più piccoli di un oggetto.

Esempio: il telescopio C14 ha un diametro di 355 mm. Il suo potere risolutivo secondo la Legge di Dawes è di 115/355 = 0.34 secondi d'arco.

Attraverso le regole del campionamento abbiamo visto che per risolvere "un dettaglio nel piano bidimensionale" della nostra immagine occorrono almeno 4 fotoelementi per ciascuna dimensione, quindi il lato di ciascun fotoelemento quadrato deve sottendere 0.34/4 = 0.085 secondi d'arco. Purtroppo non è possibile cambiare a piacere le dimensioni dei fotoelementi del nostro sensore (a parte l'utilizzo del binning con il quale possiamo solo ingrandirli).

Possiamo però facilmente agire sulla focale del telescopio.

Se indichiamo con d la dimensione del fotoelemento, che focale occorre per ottenere il campionamento desiderato C = 0.085? Dalla relazione sul campionamento è semplice ricavare la formula:

Esempio: la fotocamera Audine monta un sensore KAF-0401E della Kodak composto da 768 x 512 fotoelementi quadrati da 9 micron di lato. Che focale occorre utilizzare per ottenere un campionamento di C = 0.085 secondi d'arco? L = 206265 (0.009/0.085) = 21840 mm. Il che equivale a lavorare con un'apertura f =L/D = 21840/335 = 65.2 ! Utilizzando invece la webcam Philips Toucam Pro con fotoelementi da 5.6 micron la focale necessaria diventa di circa 14700 mm e la corrispondente apertura diverrà f = 44 .

Ma sono davvero necessari dei campionamenti e delle aperture così spinte per lavorare in alta risoluzione? Proviamo a vedere un esempio reale messoci gentilmente a disposizione da Giorgio Mengoli, un bravissimo astrofilo dedicato da anni all'alta risoluzione.

15.03.2007 Saturno: webcam Toucam Pro (15fps)/ S.C.280mm / IRcut / Barlow AE-3X / Courtesy G. Mengoli

La straordinaria immagine di Saturno visibile qui sopra (probabilmente è difficile ottenere di meglio con la stessa strumentazione) è stata ottenuta in un piccolo paese della bassa pianura modenese, San Felice s/P (Modena) con una webcam Philips Toucam Pro applicata a un Schmidt-Cassegrain C11 Celestron®. Il C11 è un 280 mm di diametro a f/10: in questo caso è stata applicata una Barlow 3x che l'ha portato a f/30. Che campionamento e che focale equivalente è stata utilizzata per realizzare questa foto? La lunghezza focale equivalente si calcola facilmente con 280x30=8400 mm. e conseguentemente il campionamento, tenendo conto che la Toucam Pro ha fotoelementi quadrati di 5,6 micron di lato, sarà C=206265·(0.0056/8400)=0.14 secondi d'arco per fotoelemento.

Il limite di Dawes in questo caso ci dice che può risolvere stelle o particolari con una separazione angolare di 0.4 secondi d'arco. Secondo il criterio del campionamento dovremmo lavorare con C = 0.4/4 = 0.10 secondi d'arco per fotoelemento, un valore quindi del tutto confrontabile con quello utilizzato da Mengoli. E questo trascurando i fattori (peggiorativi!) del seeing e delle ottiche e dei possibili errori nella messa a fuoco.

Il potere di separazione non tiene comunque in considerazione altri effetti che possono in alcuni casi addirittura migliorare le capacità visive dei nostri occhi come il contrasto. Esistono infatti delle testimonianze sia visive che oggettive che ad es. è possibile osservare l'ombra di un satellite di Giove (Europa 0,6") con un 80 mm (quindi con un potere di separazione teorico di soli 115/80 = 1,4"). In tali condizioni favorevoli di contrasto (ombra nera e netta di un satellite sulla superficie luminosa di Giove), il vero potere risolutivo sembra superare di oltre due volte il potere teorico di separazione!

lunedì 1 ottobre 2007

Sfatiamo un mito: il criterio di Nyquist


Harry Nyquist (1889 - 1976)

Per carità... lungi da me l'intenzione di voler mettere in dubbio i risultati di questo straordinario scienziato di origini scandinave. Piuttosto occorre sempre fare attenzione ai tam tam della rete che spesso, anche se inconsapevolmente, deformano in modo brutale la realtà fisica delle cose. Se questo avviene per la fisica rabbrividisco al pensiero di quello che può circolare in politica, economia, ecc...

Con l'avvento dell'era digitale è diventato di fondamentale importanza capire come avviene la digitalizzazione dei segnali: digitalizzare infatti significa discretizzare (o campionare) e discretizzare in genere significa perdere informazioni: un'onda sinusoidale continua, es. un'onda sonora, diventa un'onda seghettata, un'immagine con profili morbidi e naturali diventa sgranata e dall'aspetto innaturale.

Il criterio di Nyquist definisce una regola importante per tutte le operazioni di campionamento: esso stabilisce che, dato un segnale, con larghezza di banda finita e nota, la frequenza minima di campionamento di tale segnale deve essere almeno il doppio della sua massima frequenza.

Nyquist pensò al teorema del campionamento riferendosi a dei segnali analogici spaziali monodimensionali come il suono o i segnali elettrici che sono caratterizzati da due grandezze, l'intensità e la frequenza: quest'ultima come l'unica grandezza spaziale in gioco. Una applicazione dei giorni nostri del suo principio è ad esempio la musica digitale con i suoi formati tra i quali il diffusissimo mp3. Non a caso la frequenza media di campionamento di un file mp3 è di 44.1 kHz praticamente il doppio delle massime frequenze udibili dall'orecchio umano (20 kHz) che è il nostro sensore (analogico) eletto alla percezione dei suoni.

Differente però è la questione nel caso di immagini su un piano: oltre all'intensità (luminosità in questo caso) occorre campionare due coordinate spaziali, la larghezza e l'altezza che delimitano la superficie dei fotoelementi: è quindi un problema di segnale analogico spaziale bidimensionale.

Con dei semplici esempi è possibile vedere che in questo caso bidimensionale il criterio di Nyquist in realtà a noi astronomi dilettanti ci sta un po' stretto...

Primo caso: il campionamento è uguale al potere risolutivo dell'ottica (esempio: il disco stellare ha un diametro di 4" e il campionamento è di 4" per fotoelemento).
Il disco stellare, in giallo, può essere esattamente inscritto nel perimetro del fotoelemento (sopra) oppure cadere esattamente al centro dell'intersezione di 4 fotoelementi (in basso). Come è possibile vedere a destra del segno uguale, nella rappresentazione dei pixel che compongono la relativa immagine digitale, la forma del disco stellare è indistinguibile in entrambi i casi e a maggior ragione è impossibile avere una separazione ottica di due oggetti.

Secondo caso: il campionamento è pari alla metà del potere risolutivo dell'ottica ovvero soddisfa il criterio di Nyquist.
Il disco stellare può cadere esattamente al centro di un fotoelemento coprendo in parte i 6 fotofotoelementi adiacenti oppure cadere esattamente sull'intersezione di quattro fotoelementi. Per quest'ultimo caso, come è possibile vedere nella rappresentazione dell'immagine digitale, il disco stellare non appare ancora distinguibile come non appaiono separabili i due oggetti posti al limite della risoluzione ottica. Il primo caso invece è più favorevole anche se la separazione appare ancora ambigua.

Terzo caso: il campionamento è pari ad 1/4 del potere risolutivo delle ottiche (esempio il disco stellare ha un diametro di 4" e il campionamento è di 1" per fotoelemento.
Sia che il centro del disco stellare coincida con il fotoelemento, sia che coincida con l'intersezione di 4 fotoelementi, la forma circolare e la separazione degli oggetti appare inequivocabilmente distinguibile.

In sostanza, il miglior campionamento per registrare un segnale spaziale bidimensionale come può essere appunto un'immagine, è pari ad 1/4 del segnale minimo (nel nostro caso stabilito dal potere risolutivo) che possiamo rilevare con le nostre ottiche.

Ma, ahimè, non è finita qui: noi "poveri" astronomi dilettanti non raggiungeremo mai i limiti teorici dati dalle ottiche dei nostri seppur perfetti telescopi. Il nostro limite è il cielo, ovvero il seeing direttamente misurabile con la FWHM di una stella campione.

Dunque, la miglior camera CCD o CMOS per il nostro telescopio sarà quella che risolverà il seeing per almeno 1/4 della sua dimensione spaziale (FWHM). Purtroppo, o per fortuna, il seeing oltre a dipendere fortemente dal luogo d'osservazione, non è una costante del luogo ma subisce parecchie variazioni anche nell'arco di una sola notte. Dobbiamo quindi ragionare per "seeing medio" cioè il seeing che mediamente ci possiamo aspettare durante una serata d'osservazione nel nostro sito.

Conoscendo il seeing medio è possibile impostare una tabella d'uso pratico

Ora, possiamo vedere che, proseguendo l'analisi dell'esempio precedente dell'Osservatorio di Cavezzo, considerando per esso un seeing medio di 3.5 arcosecondi, il campionamento ideale diverrebbe in questo caso di 0.875 arcosecondi/fotoelemento. In realtà abbiamo un campionamento di 2.24 arcosecondi/fotoelemento quindi mediamente si lavora sottocampionati di almeno due volte e mezzo! Quando invece al fuoco Newton si monta la camera CCD Audine con fotoelementi da 9 micron, si raggiunge il campionamento quasi perfetto, essendo di 0.840 arcosecondi per fotoelemento.

sabato 29 settembre 2007

Proprietà geometriche dei sensori: 3 - Il campionamento

Campionare significa convertire qualcosa di continuo (ad es. un segnale, nel nostro caso luminoso) in qualcos'altro di discreto. Infatti un sensore, CCD o CMOS che sia, è composto da un numero finito ("discreto") di punti che chiamiamo appunto fotoelementi.

Questa è una prima importante caratteristica: a parità di dimensioni del sensore, maggiore è il numero dei fotoelementi che lo compongono e maggiore è la risoluzione dell'immagine finale.

Occorre però fare i conti con un altro aspetto: il potere risolutivo del nostro telescopio. Infatti, prima ancora di raggiungere il sensore, la luce dell'oggetto che vogliamo riprendere attraversa le ottiche del telescopio che notoriamente hanno un limite nel loro potere di risoluzione: tale limite (teorico) è inversamente proporzionale al diametro dell'obiettivo del telescopio. Per le lunghezze d'onda nel visibile normalmente si utilizza la formula (formula di Dawes):

a = 120/D

dove a è l'angolo minimo risolvibile in arcosecondi o minimo dettaglio visibile in arcosecondi , 120 è una costante (costante di Dawes) e D è dell'obiettivo in millimetri.

Esempio: il telescopio principale dell'Osservatorio di Cavezzo ha un diametro di 400 mm. Il suo potere risolutivo secondo la Legge di Dawes è di 120/400 = 0.3 secondi d'arco.

Se vogliamo sfruttare al massimo il nostro telescopio dovremo quindi scegliere un sensore con le dimensioni dei fotoelementi tali da mantenere il potere di risoluzione teorico: qui subentra il famoso criterio di Nyquist che tradotto per il nostro caso specifico stabilisce che la dimensione del minimo elemento del sensore (fotoelemento) deve essere al massimo la metà del più piccolo particolare che si vuole distinguere.

Esempio: il telescopio principale dell'Osservatorio di Cavezzo ha un potere risolutivo teorico di 0.3 secondi d'arco. Per poter mantenere questo potere risolutivo i fotoelementi del sensore da accoppiare al telescopio devono campionare al massimo 0.3/2 = 0.15 secondi d'arco.

E torniamo finalmente al concetto di campionamento: il campionamento è direttamente proporzionale alle dimensioni del fotoelemento e inversamente proporzionale alla lunghezza focale del telescopio.

In sostanza il campionamento rappresenta l'area di cielo coperta da un singolo fotoelemento.

Tradotto in una pratica formuletta diventa:

dove il campionamento C è espresso in secondi d'arco (per questo compare il fattore di conversione 206265, altrimenti sarebbe espresso in radianti) mentre la dimensione del fotoelemento d e la lunghezza focale del telescopio L devono essere riportati entrambi con la stessa unità di misura ad esempio in millimetri)

Esempio: che campionamento dell'immagine otteniamo se al telescopio principale dell'Osservatorio di Cavezzo vogliamo utilizzare un sensore CCD composto da fotoelementi quadrati di dimensione 24 x 24 micron? Il sensore va posto sul fuoco Newton del telescopio con focale L = 2210 mm. Un micron equivale ad 1/1000 di millimetro dunque i fotoelementi hanno lati di 0.024 mm. Il campionamento che ottengo con quel sensore al fuoco Newton del telescopio sarà dunque di (206265*0.024)/2210 = 2.24 secondi d'arco per fotoelemento.

Dunque, stando all'esempio precedente, siamo completamente fuori strada! Un fotoelemento di 24 micron di lato coprirebbe una porzione di cielo ben sette volte più grande del potere di risoluzione del telescopio; per non parlare poi del criterio di Nyquist che richiederebbe un campionamento di soli 0.15 secondi d'arco per fotoelemento se vogliamo mantenere il potere risolutivo del telescopio anche nelle nostre immagini digitali! In questo caso si dice che stiamo sottocampionando il segnale luminoso. Al contrario, quando il fotoelemento sottende una porzione di cielo più piccola del limite imposto dal criterio di Nyquist si dice che stiamo sovracampionando il segnale.

Purtroppo abbiamo a che fare con un altro effetto del quale dobbiamo tenere conto e che in parte può giustificare la scelta di fotoelemento più grandi del dovuto: la turbolenza atmosferica. Prima ancora che la luce degli oggetti celesti possa raggiungere le ottiche del telescopio e quindi il nostro sensore, essa deve attraversare una lente naturale in continua deformazione: la nostra atmosfera.

Seeing pessimo


Seeing medio


Seeing ottimo

le animazioni qui sopra sono state ottenute con l'ottimo software freeware Aberrator e mostrano chiaramente come avviene il degrado dell'immagine di una sorgente puntiforme (stella) al variare delle condizioni di seeing. In particolare si nota che peggiore è il seeing e maggiore è l'area sulla quale viene distribuita la luce proveniente dalla stella.

La misura più comune del seeing è data dalla larghezza piena a mezza altezza (FWHM, dall'inglese Full Width Half Maximum) della PSF e viene espressa in secondi d'arco. La FWHM è un'utile punto di riferimento anche per comprendere la risoluzione angolare massima ottenibile con i telescopi.

Le migliori condizioni di seeing da terra permettono di avere una FWHM di circa 0,4 secondi d'arco e si ottengono solo in luoghi particolari e per poche notti all'anno.

Un momento... allora, in base agli esempi precedenti il telescopio di Cavezzo con un potere risolutivo teorico di 0.3 secondi d'arco sarebbe già sufficiente per sfruttare al massimo le migliori serate nei migliori siti d'osservazione sulla Terra?! Teoricamente sì ma le cose non stanno esattamente così: purtroppo, dati alla mano, in serate rare e di eccezionale calma atmosferica, il seeing a Cavezzo (come in molte zone dell'Italia) è intorno ai 2 secondi d'arco mentre mediamente oscilla tra i 3 e i 4 secondi d'arco. Ecco allora che il valore trovato prima di campionamento (2.24 secondi d'arco per pixel) appare più accettabile in quanto permette di campionare quasi esattamente il seeing medio del sito d'osservazione soddisfacendo in parte anche al criterio di Nyquist.

venerdì 28 settembre 2007

Proprietà geometriche dei sensori: 2 - Aspect Ratio

I sensori utilizzati in campo astronomico sono generalmente di forma quadrata o rettangolare: l'immagine che riprodurranno sullo schermo del computer sarà conseguentemente di forma quadrata o rettangolare. In tal caso si parla di Image Aspect Ratio che sarà uguale a 1 nel caso di sensori quadrati, maggiore di 1 se il sensore è rettangolare con il lato orizzontale maggiore di quello verticale e minore di uno se viceversa il lato orizzontale è minore di quello verticale. La definizione precisa dell'Image Aspect Ratio è data dalla formula:

dove Ix è la lunghezza dell'asse orizzontale del sensore e Iy la lunghezza di quello verticale.
E' importante sottolineare che Ix e Iy sono le dimensioni fisiche del sensore e non il numero dei fotosensori per ogni asse perchè i fotosensori stessi, come vedremo più avanti, possono essere a loro volta rettangolari.

Come abbiamo detto in precedenza, i fotosensori che compongono la matrice del sensore possono a loro volta essere di forma quadrata o rettangolare. In tal caso si parla di Pixel Aspect Ratio e questo determina importanti conseguenze per la ricostruzione finale dell'immagine sullo schermo del PC. La definizione del Pixel Aspect Ratio è del tutto simile alla precedente:


dove Px è la lunghezza dell'asse orizzontale del fotoelemento e Py la lunghezza di quello verticale.

Esempio: la fotocamera Audine monta un sensore KAF-0401E della Kodak composto da 768 x 512 fotosensori quadrati da 9 micron di lato. Qual'è il suo Image Aspect Ratio e Pixel Aspect Ratio? Nel datasheet della casa costruttrice del CCD troviamo che le dimensioni fisiche dell'area fotosensibile sono di 6.91 mm in orizzontale per 4.6 mm in verticale quindi la Image Aspect Ratio sarà Iar = 1.5 . Si noti che molto spesso i costruttori riportano questo numero con un rapporto frazionale, ovvero, nel nostro esempio Iar = 3:2. I fotosensori sono quadrati, quindi la Pixel Aspect Ratio sarà Par = 1.

L'utilizzo di sensori con un Iar diverso da 1 non è raro anzi, è frequentemente utilizzato anche in astronomia e non comporta particolari conseguenze alla geometria finale dell'immagine. Diverso è il discorso per il Par: i sensori con un Par diverso da 1 ovvero con i fotosensori rettangolari sono, quando possibile, da evitare, soprattutto in campo astronomico. In primo luogo la rappresentazione a schermo (che generalmente è composto da elementi quadrati) di un'immagine ricavata da un sensore con elementi rettangolari ne determina sempre una distorsione geometrica. In secondo luogo ci sono parecchi dubbi sulla effettiva validità e precisione delle misure astrometriche eseguite su immagini generate con fotosensori rettangolari.

Immagine originale dell'ammasso del Tucano
eseguita con una camera Starlight Express MX-5 . (Courtesy J.Cutler - Australia)


La stessa immagine di sopra trasformata
per ripristinarne la corretta geometria

L'immagine qui sopra è stata ripresa con una camera CCD Starlight Xpress MX5-C che monta un sensore Sony ICX055BK. Questa particolare camera CCD a colori ha varie modalità di ripresa: in questo caso è stata utilizzata la modalità standard 500 x 290 con sensori di dimensioni 9.8 x 12.6 micron, quindi con un Par = 0.777778. Questo comporta che per ripristinare le corrette proporzioni dell'immagine occorre "deformarla" lungo l'asse verticale del 100 / 0.777778 = 128.6%.

Utilizzando software specializzati come Astroart è possibile ripristinare le corrette proporzioni semplicemente selezionando il modello di camera CCD nella finestra del comando Ridimensiona.

Il comando "Ridimensiona" di Astroart permette
una veloce correzione della proporzione delle
immagini in caso di fotoelementi rettangolari

Curiosità e approfondimenti

Non è un caso che molti sensori CCD o CMOS abbiano un Image Aspect Ratio pari a 3:2: deriva direttamente dal formato fotografico standard delle pellicole 35 mm che hanno un'area sensibile di 36 mm di larghezza per 24 mm di altezza cioè un Iar = 1.5. I sensori di derivazione televisiva invece hanno generalmente dei Iar pari a 4:3 e 16:9.

giovedì 27 settembre 2007

Proprietà geometriche dei sensori: 1 - Premessa

Un sensore CCD o CMOS è essenzialmente una matrice di elementi semiconduttori sensibili alla luce chiamati fotoelementi (photosite). La forma e le dimensioni di questi fotoelementi, oltre alla forma e alle dimensioni complessive della matrice che compongono il sensore, ne determinano le proprietà geometriche.

I fotoelementi stanno al sensore come i pixel stanno all'immagine digitale.

I fotoelementi del sensore posti sul piano focale del telescopio scompongono l'immagine continua dell'oggetto che si sta osservando in tante piccole parti discrete (pixel) che verranno ricomposte nell'immagine digitale sullo schermo del computer.

Il dischetto giallo a sinistra rappresenta l'illuminazione di un disco stellare
sui fotoelementi di un sensore CCD. A destra come esso viene rappresentato
sullo schermo del personal computer


Stiamo subito attenti alla terminologia che utilizzeremo: è importante distinguere la differenza sostanziale tra fotoelemento e pixel: il primo è l'elemento minimo che fisicamente compone il chip del sensore mentre il secondo è l'elemento minimo virtuale che rappresenta l'immagine digitale finale (in sostanza è un numero!)

Le proprietà geometriche del sensore sono fondamentali per capire come vanno le cose sul piano focale del nostro telescopio: infatti è solo in base esse (oltre che alla lunghezza focale del telescopio e al potere risolutivo dello stesso) che possiamo determinare due importanti quantità per il nostro lavoro di astronomi dilettanti: il campionamento dell'immagine insieme all'ampiezza del campo di ripresa e il rapporto d'aspetto (aspect ratio) finale dell'immagine.

mercoledì 26 settembre 2007

Una doverosa introduzione

Carissimo amico,

benvenuto nel mio BLOG. Se mi stai leggendo è evidente che hai qualche interesse per una scienza straordinaria: l'Astronomia. Questo, credimi, al giorno d'oggi non può che farti onore: gli astronomi, professionisti o dilettanti non importa, li considero degli eroi moderni insieme a tanti altri ricercatori delle scienze più pure come la matematica, la fisica, la chimica ecc.

Si parla di persone laboriose e silenziose, che di norma non partecipano a trasmissioni televisive (se non rispondendo agli inviti di Piero Angela, una delle poche persone che ne capisce l'importanza e che grida, inascoltato, a politici ed istituzioni, la cronica indifferenza per della ricerca scientifica in Italia).

Pensate a quanti sacrifici devono fare i giovani ricercatori italiani che per un pezzo di pane conducono ricerche impensabili e, purtroppo, inspiegabili ai più (la cultura scientifica popolare in Italia è quasi nulla: come fai a spiegarle le cose?) Giovani che non si lasciano facilmente manipolare e condizionare se non da un unica cosa: il metodo scientifico. Veri eroi!

Per questo, forse con tanta presunzione, da anni accarezzavo l'idea di scrivere qualcosa sulla Rete circa le mie competenze nell'utilizzo dei moderni strumenti informatici nel campo dell'Astronomia: volevo dare seguito alle tante domande che mi rivolgevano i visitatori dell'Osservatorio Astronomico di Cavezzo e contribuire, nel mio piccolo, a sconfiggere l'analfabetismo scientifico in Italia.

La mia cronica pigrizia e insicurezza mi hanno sempre trattenuto, consapevole anche del fatto che è un lavoro molto difficile da mantenere con una certa continuità.

Ora ho preso coraggio e inizio quest'avventura, conscio che il BLOG, strumento ideale per fare informazione, probabilmente non è il più adatto per fare quello a cui tengo di più, cioè formazione. D'altro canto il blog mi dà l'indiscutibile vantaggio di pubblicare velocemente i concetti a me noti come tante piccole pillole d'informazione velocemente fruibili, senza dovermi preoccupare di attendere la chiusura di un'opera complessa come potrebbe essere un manuale completo di astronomia digitale.

Attenzione: i primi post si concentreranno essenzialmente sui concetti di base dell'immagine digitale applicata all'astronomia. Concetti ben conosciuti soprattutto se lavori e ti documenti da anni in questo campo. Ti invito comunque alla loro lettura per due semplici motivi: il primo, forse scontato, è che mi farà estremamente piacere avere un tuo commento in proposito (soprattutto nel caso tu ravvisassi delle imprecisioni e/o inesattezze); il secondo, è che mi sforzerò sempre e comunque di esporre questi concetti in modo chiaro ma al contempo originale, riportando, quando possibile, argomentazioni non del tutto ovvie e banali.

Grazie per la tua attenzione e buona lettura!

Martino Nicolini

martedì 25 settembre 2007

L'immagine digitale


Un'immagine digitale è composta da una matrice di elementi, detti pixel organizzati in R righe e C colonne. Ad ogni pixel è associato un valore numerico che può essere intero o a virgola mobile. Avremo quindi tre numeri che mi identificheranno univocamente un pixel all'interno dell'immagine:
  • la coordinata di colonna c con valori compresi tra 0 e C-1
  • la coordinata di riga r con valori compresi tra o e R-1
  • il valore del pixel PV che viene generalmente riprodotto sullo schermo con un'intensità luminosa ad esso proporzionale (più grande è PV e maggiore è l'intensità luminosa).
Queste sono tutte le informazioni a nostra disposizione: sono preziose, soprattutto per gli astronomi, e le dobbiamo conservare con cura nella loro originale integrità e completezza.

Tre numeri per ogni pixel potranno sembrare poca cosa ma non è così: questi tre numeri hanno rivoluzionato l'Astronomia degli ultimi 30 anni. Con essi e soltanto con essi è possibile ricavare la posizione e la luminosità degli astri ovvero praticamente le basi di tutto ciò che conosciamo dell'Universo: la dinamica e la fisica delle comete, la composizione delle stelle, l'evoluzione delle galassie ecc. ecc. E' la potenza dei numeri, è la potenza del metodo scientifico!

OK, ma torniamo con i piedi per terra. Nell'immagine sopra (dove per chiarezza i pixel sono stati esageratamente ingranditi) notiamo che l'origine del nostro sistema di riferimento nell'immagine è il primo pixel in basso a sinistra e ha le coordinate (0,0). Di conseguenza l'ultimo pixel della prima riga ha coordinate (C-1,0) e l'ultimo pixel della prima colonna ha coordinate (0,R-1). Questa è la convenzione standard adottata dal formato FITS e conseguentemente dai programmi di visualizzazione ed elaborazione di immagini astronomiche come SAOImage DS9, il programma di visualizzazione di IRAF, FV Fitsviewer della NASA e Astroart .


Purtroppo però non è l'unica convenzione. Anzi, il sistema di coordinate più utilizzato nel campo della fotografia digitale è quello mostrato nella figura sopra. L'origine delle coordinate è il primo pixel in alto a sinistra e non più in basso a destra: la prima fastidiosa conseguenza di tutto ciò è che chi esporta immagini riprese con un programma che adotta la convenzione astronomica standard in un qualsiasi programma di fotoritocco (e nella maggior parte anche dei programmi astronomici commerciali o freeware) si ritrova con l'immagine invertita (l'alto al posto del basso e vicecersa). E ovviamente vale anche il contrario cioè importando un'immagine salvata con un programma di fotoritocco in un altro che adotta gli standard astronomici, essa apparirà invertita.