Immagine: NASA / Samuel Buchmann
Retroscena

Ho cercato di sviluppare immagini più belle di quelle della NASA e ho fallito

Samuel Buchmann
11/8/2022
Traduzione: Leandra Amato

La scorsa settimana la NASA ha pubblicato una nuova immagine del telescopio spaziale James Webb che mostra la Cartwheel Galaxy. Vorrei sapere come vengono create queste immagini e se posso ottenere un'immagine migliore di quella ufficiale a partire dai dati grezzi.

L'ultima immagine del James Webb Space Telescope (JWST) mi stupisce ancora una volta. Mostra la cosiddetta Cartwheel Galaxy (in italiano: galassia ruota di carro) con un livello di dettaglio rivoluzionario. Si trova a circa 500 milioni di anni luce di distanza. Secondo i ricercatori della NASA, la sua forma unica è dovuta a una collisione con un'altra galassia. Se vuoi maggiori dettagli astronomici, ti consiglio questo articolo del New York Times.

Come nerd della macchina fotografica, tuttavia, sono interessato ad altre domande: come fa il JWST a scattare queste immagini? Che aspetto hanno i dati grezzi? Come si sviluppano? Ma soprattutto: posso farcela anche io? La risposta all'ultima domanda in anticipo: sì, ma mai quanto la NASA.

Lo strumento di misura della NIRCam è costituito da quattro sensori, ciascuno con una risoluzione di circa 4 megapixel.
Lo strumento di misura della NIRCam è costituito da quattro sensori, ciascuno con una risoluzione di circa 4 megapixel.
Fonte: NASA

In primo luogo, è necessario spiegare il funzionamento delle fotocamere del JWST. Hai letto bene: fotocamere. Al plurale. Più precisamente, in questo caso si parla di strumenti di misura. Il JWST ne ha quattro tipi. Tutti registrano una parte diversa del campo visivo del gigantesco modulo a specchio rivestito d'oro, che invia la luce ai sensori. Per semplicità, mi concentrerò sui due strumenti rilevanti per la mia immagine: la Near-Infrared Camera (NIRCam) e il Mid-Infrared Instrument (MIRI).

Sia la mia immagine (a sinistra) che quella della NASA (a destra) sono una combinazione di diverse immagini della NIRCam e del MIRI.
Sia la mia immagine (a sinistra) che quella della NASA (a destra) sono una combinazione di diverse immagini della NIRCam e del MIRI.
Fonte: NASA / digitec

Inizia dove i nostri occhi si fermano: la Near-Infrared Camera (NIRCam)

Importante: tutti i colori che si vedono nelle immagini del JWST sono fittizi. Sia nella mia foto (quella a sinistra) che in quella della NASA. I sensori non registrano i colori visibili come la tua Canon o la mia Sony. Sono invece costruiti per vedere l'infrarosso. Questo «colore» ha onde più lunghe di quelle che i nostri occhi possono percepire – e le onde lunghe sono l'unica cosa che penetra fino a noi da galassie lontane. Qualche mese fa, il collega David ha spiegato più dettagliatamente il perché di questa situazione nel suo articolo. In breve: l'universo, e quindi anche le onde luminose provenienti da oggetti lontani, sembrano espandersi. Inoltre, gli infrarossi penetrano meglio la polvere cosmica.

I diversi filtri e le corrispondenti lunghezze d'onda della luce che la NIRCam è in grado di registrare.
I diversi filtri e le corrispondenti lunghezze d'onda della luce che la NIRCam è in grado di registrare.
Fonte: NASA

Come si può vedere nel grafico, il sensore della NIRCam registra lunghezze d'onda da circa 0,6 μm a 5 μm. L'abbreviazione «μm» sta per micrometro, un millesimo di millimetro. Le onde del rosso visibile sono lunghe fino a circa 0,7 μm. La NIRCam non scatta una singola immagine contenente tutti questi «colori» combinati come li conosciamo dalle nostre fotocamere. Ha solo un sensore monocromatico: è una fotocamera in bianco e nero.

Per distinguere ancora le diverse lunghezze d'onda, la NIRCam effettua diverse esposizioni della stessa sezione di immagine. Ogni volta viene inserito un filtro diverso, che lascia passare solo una specifica lunghezza d'onda della luce (o colore infrarosso). Puoi vedere come si presenta meccanicamente nel seguente video della ruota del filtro MIRI.

Cattura anche le onde più lunghe: il Mid-Infrared Instrument (MIRI)

Il sensore del MIRI (Mid-Infrared Instrument) si spinge oltre. Può registrare lunghezze d'onda da 5 μm a 28 μm. Si tratta di un'operazione rivoluzionaria, perché consente al MIRI di vedere lo spazio in modo più profondo e dettagliato di quanto sia mai stato possibile prima. Per fare un confronto, il telescopio Hubble vede solo lunghezze d'onda fino a 2,4 μm. Affinché il sensore del MIRI funzioni, il freddo deve essere di almeno -267° centigradi. Questo è uno dei motivi per cui la NASA lo ha mandato nello spazio, lo ha ombreggiato con una vela e deve ancora raffreddarlo attivamente.

Lo spettro cromatico del MIRI si estende in profondità nella gamma dell'infrarosso.
Lo spettro cromatico del MIRI si estende in profondità nella gamma dell'infrarosso.
Fonte: NASA

Un puzzle di dati grezzi

Se tutto va bene, il risultato di tutti i sensori e filtri è un insieme di immagini in bianco e nero dello stesso oggetto. Questi dati grezzi sono disponibili pubblicamente su questo sito web con un design uscito dagli anni '90. Un tutorial su come filtrare e scaricare i dati è disponibile qui. Per la mia immagine, limito la ricerca alla data di pubblicazione, il 2 agosto 2022.

Ecco come appare una singola esposizione della NIRCam, qui con il filtro f444w.
Ecco come appare una singola esposizione della NIRCam, qui con il filtro f444w.
Fonte: NASA

Il mio bottino: dieci sottocartelle, etichettate con il filtro che si trovava di fronte al sensore per lo scatto specifico, ad esempio f1000w, che lascia passare la luce solo nell'intervallo di 10 μm. I file nelle cartelle sono in formati che non ho mai visto prima. Dopo una breve ricerca, si scopre che si tratta di file FITS, un formato per i dati astronomici che la NASA ha sviluppato appositamente nel 1981. Può essere aperto con programmi speciali. Ad esempio, con PixInsight, per il quale sono disponibili licenze di prova di 45 giorni. Oppure con programmi gratuiti più semplici come FITS Liberator.

Apro le dieci immagini in PixInsight. Dopo alcuni tutorial su YouTube e disperate ricerche su Google, ho esportato dei TIFF. Va già meglio. Se vuoi approfondire questo processo, nel video che segue ti mostro come fare.

Che colore deve essere?

Con le dieci immagini nel formato per i comuni mortali, passo a Photoshop, che è più adatto alla mia zona di comfort. Qui le metto una sopra l'altra come livelli in un unico documento. L'obiettivo è ora quello di unire tutti e dieci i livelli in un'unica immagine colorata. Per farlo, devo renderli permeabili e allo stesso tempo colorarli. Ti spiego come funziona in dettaglio nel video.

Centrale nel processo di editing: assegno a ciascuna delle dieci immagini di partenza monocromatiche il proprio colore. Quale debba essere è in linea di principio una questione di gusti. Sono comunque tutti dei fake. Decido di prendere l'ordine dal nostro spettro di colori visibili. Quindi dall'immagine con le lunghezze d'onda invisibili più corte – quella con il filtro f090w – ricavo il colore con le lunghezze d'onda visibili più corte: viola. Seguono il blu, il turchese, il verde e così via.

Ho colorato ogni scatto con un colore diverso: quello con il filtro f200w è azzurro.
Ho colorato ogni scatto con un colore diverso: quello con il filtro f200w è azzurro.
Fonte: NASA

Le immagini della NIRCam hanno una risoluzione significativamente più alta (circa 18 megapixel) rispetto a quelle del MIRI (solo circa 1 megapixel). Nel caso della Cartwheel Galaxy, le immagini riprese con i filtri nella gamma da 2 μm a 4 μm sembrano avere il miglior rapporto tra informazioni dell'immagine e rumore. Posso ottenere il massimo da loro. Le immagini del MIRI devono essere pesantemente «upscalate». Devo anche cambiare massicciamente i valori tonali per poter riconoscere qualcosa. Tuttavia, alla fine si possono vedere cose che la NIRCam non mostra – in particolare l'immagine MIRI con il filtro da 10μm, che ho colorato di giallo, confluisce chiaramente nel composito finito.

L'immagine finale sviluppata, una combinazione di dieci scatti individuali.
L'immagine finale sviluppata, una combinazione di dieci scatti individuali.
Fonte: NASA

Conclusione: lascio la parola ai professionisti

Sono soddisfatto solo a metà del risultato finale. I colori mi piacciono di più di quelli della NASA. Nell'immagine ufficiale, invece, sono visibili molti più dettagli e meno artefatti, soprattutto nell'area dei «raggi» della galassia. Tra l'altro, questo è dovuto al fatto che ho completamente ignorato cose elementari come le immagini di calibrazione. Le mie conoscenze non sono sufficienti per questo e lo sforzo per lo sviluppo di un'immagine pulita sarebbe gigantesco per me. In futuro preferirei lasciar fare ai professionisti, ma l'esperimento è stato sicuramente un'esperienza emozionante nel mondo del telescopio spaziale.

L'immagine della NASA è molto più pulita e dettagliata della mia.
L'immagine della NASA è molto più pulita e dettagliata della mia.
Fonte: NASA
Immagine di copertina: Immagine: NASA / Samuel Buchmann

A 83 persone piace questo articolo


Potrebbero interessarti anche questi articoli

  • Retroscena

    Quando una foto è reale?

    di Samuel Buchmann

  • Retroscena

    6 domande e risposte sul sistema global shutter di Sony

    di Samuel Buchmann

  • Retroscena

    In vacanza scatterò solo foto analogiche

    di Samuel Buchmann

Commenti

Avatar