Astronomia
«I cieli sono immensi in confronto alla Terra»
(Nicola Copernico, De revolutionibus orbium caelestium)
L’Universo delle galassie, eredità di Galilei
di Alfonso Cavaliere e Andrea Lapi
15 gennaio
All’insegna del motto L’Universo, a te scoprirlo, l’UNESCO inaugura nella sua sede di Parigi l’Anno internazionale dell’astronomia, dedicato ai 400 anni delle prime osservazioni con il telescopio astronomico, effettuate da Galileo Galilei nel 1609. Numerose iniziative coinvolgeranno 135 nazioni allo scopo di stimolare, specialmente nei giovani, l’interesse per l’astronomia e la scienza.
Una congerie di innumerevoli Stelle
Il 2009, proclamato dall’ONU Anno internazionale dell’astronomia di concerto con la International Astronomical Union e l’UNESCO, segna il 400° anniversario dell’annus mirabilis 1609, contraddistinto – oltre che dalla pubblicazione delle prime due leggi delle orbite planetarie da parte di Johannes Kepler – anche dalle prime scoperte realizzate da Galileo Galilei con il suo cannocchiale: congegno noto da anni come curiosità, che Galilei elaborò in strumento scientifico e successivamente raffinò e che Kepler riconfigurò in telescopio rifrattore. Ma soprattutto lo scienziato pisano ebbe la grande intuizione, a partire dall’autunno 1609, di puntare sistematicamente il cannocchiale verso il cielo, realizzando nel giro di alcuni mesi una serie impressionante di scoperte. Le principali furono il riconoscimento sulla superficie lunare di caratteristiche terrestri; la risoluzione della Via Lattea in una moltitudine di stelle; la scoperta dei quattro satelliti maggiori di Giove e l’interpretazione del loro moto periodico. Seguirono poi l’identificazione delle fasi di Venere e infine la definizione della rotazione del Sole tramite l’evoluzione delle macchie solari.
Le prime scoperte, non appena pubblicate, nel marzo 1610, sulle pagine del Sidereus Nuncius, scossero l’Europa scientifica, culturale, e anche politica. Esse furono percepite non solo come le prime estensioni dopo molti secoli del catalogo ufficiale dei corpi celesti, ma anche come passi cogenti verso la struttura eliocentrica del Sistema Solare; a più largo raggio, Galilei e Kepler minarono alla base la millenaria mitologia delle sfere cristalline e avviarono la moderna prospettiva dell’Universo nello spazio e nel tempo. Nel Sidereus Nuncius si legge (trad. M. Timpanaro Cardini, Firenze, Sansoni, 1948): «Quel che fu da noi in terzo luogo osservato è l’essenza, ossia la materia, della stessa Via Lattea, che in virtù del cannocchiale si può scrutare tanto sensibilmente da esserne risolte con la certezza data dagli occhi tutte le dispute che per tanti secoli tormentarono i filosofi, ed esser noi liberati da verbose discussioni. Infatti la Galassia è nient’altro che una congerie di innumerevoli Stelle, disseminate a mucchi; in qualunque parte di essa si rivolga il cannocchiale, sempre si presenta alla vista un’ingente folla di Stelle, delle quali parecchie si vedono abbastanza grandi e ben distinte, mentre la moltitudine delle piccole è del tutto inesplorabile». Una tale struttura della Galassia-Via Lattea composta da stelle era stata discussa fin dai tempi di Democrito come un’opinione in contrasto con altre basate su fenomeni meteorologici. Galilei invece ne dà una prova certa e riproducibile, con una diretta ma grande dimostrazione operativa del moderno paradigma della ricerca scientifica fondato sull’uso di nuovi strumenti e di «sensate esperienze» alternate con «certe dimostrazioni».
Galassie e nebulose
Oggi sappiamo che la Galassia è costituita da circa 1011 (100 miliardi) stelle, una complessità in apparenza disumana, ma in realtà molto inferiore a quella di un cervello umano che comprende sì 1011 neuroni, ma ognuno dei quali ha 104-105 interconnessioni.
Sappiamo che la Galassia è una tra molte altre, simile per struttura a M31 in Andromeda, come ha accertato una storia contorta e combattuta durata per ben tre secoli. Infatti, già nel 18° secolo il concetto di galassie esterne alla nostra era diffuso, come Immanuel Kant efficacemente sintetizza nel 1755 nella sua Allgemeine Naturgeschichte und Theorie des Himmels: «Abbiamo visto con stupore nel cielo figure, le quali altro non sono che sistemi di stelle fisse proiettati su un piano comune, Vie Lattee per così dire; esse mostrano configurazioni ellittiche in posizioni diverse rispetto all’occhio, con splendore fortemente indebolito dalla loro enorme distanza». Espressioni che chiaramente delineano la nozione di galassie comparabili alla Via Lattea, immerse in una prospettiva cosmica. Tuttavia, nel seguente secolo e mezzo questa nozione si sfilaccia e si perde, nel senso che le galassie, sotto il termine di nebulose, sono assimilate alle nubi di gas realmente interne alla Via Lattea. Così nel 1905 la storica dell’astronomia Agnes Mary Clerke nel suo Modern cosmogonies riecheggiava l’opinione prevalente tra gli astronomi: «La questione se le nebulose siano galassie esterne non necessita quasi più di discussione. La risposta è arrivata dai progressi della ricerca. Si può sicuramente dire che nessuno studioso competente, con il complesso dell’evidenza disponibile davanti a sé, può sostenere che una qualsiasi nebulosa sia un sistema stellare dello stesso rango della Via Lattea».
Invece la evidence era completamente distorta da un’inattesa selezione osservativa. Infatti, oggi è noto che la polvere abbondantemente presente entro il disco della Via Lattea annebbia e oscura le nebulose, salvo quelle viste perpendicolarmente al piano galattico. Quindi le nebulose visibili sembravano connesse con la struttura della Via Lattea, e per errata implicazione a essa associate e interne.
La controversia ebbe termine durante la 33a riunione della American Astronomical Society, dal 30 dicembre 1924 al 1° gennaio 1925, quando l’astronomo americano Edwin Powell Hubble fece comunicare il suo risultato cruciale: la nebulosa M31 in Andromeda era un sistema stellare ben esterno e simile alla nostra Galassia. La prova era stata ottenuta con un nuovo strumento, il telescopio da 100 pollici (2,5 m); con esso Hubble aveva identificato in Andromeda alcune Cefeidi, stelle variabili periodiche già note nella Via Lattea (per esempio, la Stella Polare), caratterizzate da un’alta luminosità intrinseca fino a L~104LSole. Hubble ne misurò il flusso F che giungeva al telescopio, e poi usò la relazione di Lambert, F=L/(4π D2), per determinare la distanza D~800.000 anni luce; essa risultava quindi molto maggiore del diametro della galassia, che era già stimato fosse attorno a 30.000 anni luce. Con questo, Hubble dimostrò che M31 era esterna alla Via Lattea e di dimensioni comparabili con essa: una intera galassia! Sappiamo oggi che la determinazione di Hubble era troppo piccola quasi di un fattore 3, e che M31 è in realtà più grande della Via Lattea; ma la sua dimostrazione ne esce semmai rafforzata.
In conclusione, alla fine del 1924 nessuno sapeva cosa realmente fossero le nebulose; dall’inizio del 1925 tutti lo seppero. Come le scoperte di Galilei avevano aperto la strada al riconoscimento della struttura della Galassia, così la scoperta di Hubble stabilì una pietra miliare verso l’Universo delle galassie.
La ricerca attuale
Oggi sappiamo che la Via Lattea è una galassia di media stazza, in cui il Sole figura come una stella media fra altre 2·1011 (200 miliardi). La massa galattica media ammonta a 2·1011 MSole, cioè 200 miliardi di masse solari. I moti circolari e oscillatori propri delle stelle la tengono in equilibrio contro la gravità, formando un sistema stabile in cui ogni stella contribuisce alla gravità che trattiene le altre. In realtà da alcuni decenni è noto che, oltre alle stelle, le galassie contengono una quantità da 5 a 30 volte maggiore di materia oscura. Quest’ultima è costituita da particelle di diversa natura rispetto a quelle della materia a noi familiare (barioni), in quanto esse interagiscono solo gravitazionalmente e non, per esempio, direttamente con i fotoni. Quale sia la reale natura microscopica della materia oscura non è stato ancora stabilito e attualmente rappresenta un campo affascinante di intensa ricerca. Una cosa sorprendente è che, mentre le strutture di equilibrio raggiunte dalla materia oscura nelle galassie hanno una sostanziale simmetria sferica, i barioni si strutturano invece in due morfologie ben distinte: spirali ed ellittiche. La Via Lattea, in particolare, è una galassia a spirale, così come M31, M81 e così via. Nelle spirali la gravità viene bilanciata dalla rotazione di una struttura basica a disco, spesso solcata da braccia a spirale e con un rigonfiamento (bulge) centrale. Nei dischi i barioni sono abbondanti e compressi a densità abbastanza alte da poter formare continuamente stelle; tra queste le più massive sono giovani, calde ed emettono una intensa radiazione blu, la quale domina il colore complessivo di queste galassie.
D’altra parte, nelle galassie ellittiche quali M87 la gravità è bilanciata primariamente dalla agitazione delle stelle. La densità di barioni in queste configurazioni distese è attualmente così bassa da impedire la formazione stellare; sopravvivono solo le stelle piccole e fredde che emettono radiazione rossa, conferendo tale colore complessivo alle galassie ellittiche. Oggi le galassie a spirale costituiscono circa il 50% e le ellittiche il 40% del totale. Solo il 10% è di forma irregolare, in parte intrinseca e in parte dovuta a collisioni tra gli altri tipi di galassie. Anche queste galassie sono blu, in quanto di formazione recente e ancora ricche di gas che alimenta la formazione stellare. Queste percentuali medie non valgono ovunque. Infatti, anche le galassie nell’Universo sono «disseminate a mucchi» (come diceva Galilei per le stelle nella Galassia) in gruppi e ammassi; questi raggruppano da centinaia a migliaia di galassie e molta materia oscura fino a masse complessive di 1015 MSole, e costituiscono ambienti dove le ellittiche sono molto più frequenti e raggiungono dimensioni gigantesche. Sorge quindi naturale la domanda sulla forma e la struttura delle galassie ancora più lontane da noi nello spazio e più remote nel tempo; da pochi decenni questo argomento costituisce un ricchissimo campo della ricerca astrofisica, in cui si sono avuti sviluppi recenti. Per affrontare il problema, occorre considerare che le galassie marcano l’espansione dell’Universo; anche questa è stata scoperta da Hubble nel 1929, e oggi è stata verificata da WMAP (Wilkinson Microwave Anisotropy Probe) sino a soli 380.000 anni dopo il big-bang iniziale. Infatti, nel viaggio verso di noi da una sorgente lontana, la luce emessa con lunghezza d’onda λe viene osservata a lunghezza d’onda λ0 maggiore; quindi appare arrossata come quantificato dal redshift z=(λ0-λe)/ λe.
La legge fisica che regola il fenomeno è semplice: la lunghezza d’onda, come ogni altra distanza, è stirata in modo proporzionale al fattore di scala complessivo dell’Universo in espansione, secondo la formula λe/λ0=Re/R0=1/(1+z). Per esempio, una delle più distanti galassie finora rivelate ha un redshift z=7,6, cioè emise la sua luce in un Universo circa 10 volte più piccolo. È poi ovvio che esista una correlazione inversa tra l’età dell’Universo e la sua dimensione misurata da 1/(1+z).
Oggi, dopo che sono stati esplorati con i moderni strumenti volumi cosmici apprezzabili, si conoscono circa 106 galassie, e si prevede che ve ne siano dell’ordine di 1011 nell’Universo visibile. Questa abbondanza è stata dedotta dalle osservazioni profonde del telescopio spaziale Hubble; guardando a lungo una regione del cielo apparentemente vuota, sono emerse migliaia di galassie primordiali, arrossate dal redshift e frammentate. Una delle più lontane galassie comprese nel campo osservato ha redshift z=5,4, pari a 12,9 miliardi di anni luce e a soli 0,8 miliardi di anni dal big-bang.
Per andare a distanze ancora maggiori o a tempi ancora più remoti, da alcuni anni si è iniziato a utilizzare nuovi telescopi cosmici a lenti gravitazionali. In accordo con la relatività generale, i raggi di luce provenienti da una galassia lontana vengono curvati e amplificati dalla massa di un ammasso antistante, come A2218. Più l’ammasso interposto è massivo, più l’immagine delle galassie retrostanti viene amplificata e distorta a forma di arco, senza però modificare la lunghezza d’onda rivelata. Ciò consente sia di misurare la massa totale (barionica + oscura) dell’ammasso, sia di rivelare galassie molto distanti. Per esempio, il telescopio gravitazionale costituito da A1689 amplifica l’immagine della galassia più lontana nota all’inizio del 2009, con redshift z=7,6 e distanza D=13 miliardi di anni luce, a 0,7 miliardi di anni dal big-bang. Oggi è dunque possibile rivelare galassie lontanissime con grandi telescopi terrestri, o spaziali, o gravitazionali. Si può dunque riprendere la domanda su quando si siano formate e come evolvano le galassie primordiali. Per quanto riguarda le galassie a spirale, queste si trovano a redshift z<2, hanno luce blu e formazione stellare moderata ma continuamente attiva da allora sino a oggi, a livelli di 1-10 MSole per anno. La questione che riguarda le ellittiche è più complessa, controversa e forse interessante. Esse sono state osservate a z~2 già pienamente formate, rosse e inerti, cioè con formazione stellare terminata; i loro progenitori primordiali si stanno campionando fino a z~6 e oltre, e sono caratterizzati da masse in stelle di 1010-1011 MSole già ricche di elementi più pesanti dell’idrogeno, quali carbonio, ossigeno, magnesio, e da una formazione stellare rapidissima, a livelli di 100-1.000 MSole per anno, sebbene fortemente oscurata da abbondanti grani di polvere interstellare. I tempi brevi disponibili da z~6 verso il big-bang richiedono un iniziale collasso rapido, che infatti è stato recentemente confermato da estesissime e dettagliate simulazioni numeriche effettuate con supercalcolatori. Come poi si sia spenta la formazione stellare e sia stata spazzata la polvere costituisce un tema caldo della ricerca attuale; una distinta, e condivisibile, possibilità coinvolge l’intervento distruttivo di potenti quasar centrali. Questi stadi primordiali saranno un obiettivo attraente per le missioni spaziali Planck e Herschel, lanciate insieme dall’Agenzia spaziale europea nel maggio 2009, e per le reti terrestri di interferometri submillimetrici in costruzione, quali ALMA (Atacama Large Millimeter/submillimeter Array).
In conclusione, oggi conosciamo e investighiamo un Universo esteso su spazi e tempi ben al di là di quanto poteva immaginare Galilei e possiamo riflettere in modo razionale anche sull’origine e sull’evoluzione dell’Universo stesso. Ma lo dobbiamo innanzi tutto al cammino da lui iniziato nel 1609.
Cenni di storia dell’astronomia
L’astronomia nell’antichità e nel Medioevo
Della grande attenzione posta già nella preistoria ai movimenti del Sole, della Luna e delle stelle nella volta celeste, così strettamente connessi al ciclo diurno e al ciclo stagionale della vita umana, rimane impressionante testimonianza nei monumenti megalitici, come quello di Stonehenge in Inghilterra.
La prima astronomia quantitativa ed elaborata per iscritto fu quella mesopotamica (Babilonesi, Assiri e Caldei); essa fu patrimonio della classe sacerdotale e aveva prevalentemente funzioni religiose e pratiche. In questo periodo fu stabilita la corrispondenza tra il moto del Sole relativamente alle stelle e alle costellazioni dello Zodiaco, fondamento dell’astrologia. In generale, attraverso accurate osservazioni dei corpi celesti fu possibile determinare un calendario, costruire orologi e fornire ai naviganti strumenti di orientamento.
Una vera e propria cosmologia razionale, però, apparve solo nella civiltà greca. Aristotele, nel suo trattato De coelo, descrive l’Universo come formato da parecchie sfere concentriche di cui la centrale, immobile, è costituita dalla Terra e la più esterna sorregge le stelle fisse e nel contempo ruota, compiendo un giro in 24 ore. Tra di esse i pianeti e i satelliti sono sostenuti da altrettante sfere, animate ciascuna da un moto appropriato. Questa concezione costituì la base di tutte le cosmologie successive fino alla rivoluzione copernicana. Tuttavia, per spiegare le particolarità del moto dei pianeti e della Luna occorsero successive e sempre più complicate correzioni e aggiunte al modello aristotelico. Esse furono lungamente studiate nel periodo alessandrino, in particolare da Claudio Tolomeo (2° secolo d.C.). Nella cosmologia tolemaica i pianeti sono sorretti e guidati da sfere secondarie più piccole, che ruotano senza strisciare sulle sfere primarie; si genera così un moto (epiciclo) non uniforme che costituisce un’ottima approssimazione di quello osservato.
L’opera principale di Tolomeo, l’Almagesto, si perse nella tradizione medievale cristiana, ma fu conservata e studiata dagli Arabi, attraverso i quali arrivò anche in Spagna nel 13° secolo. A parte il contributo arabo, l’astronomia medievale fu sostanzialmente limitata all’astrologia.
Verso l’astronomia moderna
Questa lunga stasi terminò nel 16° secolo sotto due spinte potenti. Da un lato il raffinarsi degli strumenti di osservazione e delle tecniche di calcolo rese sempre più difficile e complesso adattare le gerarchie di sfere rotanti all’esperienza; dall’altro, l’asserzione rinascimentale del primato dell’uomo e della sua ragione aprì le porte alla ricerca oggettiva e sperimentale, condotta indipendentemente dalla tradizione culturale e religiosa. Così Galileo Galilei (1564-1642) scoprì la legge della caduta dei gravi, ponendo i fondamenti della dinamica che sarebbero serviti poi di base a Isaac Newton (1642-1727), e mediante l’uso attento e selettivo del cannocchiale mise in evidenza nuovi fatti astronomici in contraddizione con l’astratto ideale di perfezione della cosmologia aristotelica.
L’idea chiave che segnò l’inizio dell’astronomia moderna, dando luogo a una vera e propria rivoluzione scientifica, fu quella di Nicola Copernico (1473-1543) che abbandonò la concezione della centralità della Terra a favore di una cosmologia in cui il Sole è al centro e tutti gli altri corpi celesti ruotano attorno a esso. La cosmologia copernicana costituiva una diversa maniera, più semplice e razionale, di descrivere il moto dei pianeti e dei satelliti; ma non ne dava una giustificazione razionale in base a leggi fisiche universali.
Per raggiungere questo scopo era necessario afferrare la connessione tra la forza di gravità, sperimentata quotidianamente sulla Terra, e il moto dei pianeti. Ciò fu possibile solo quando, con Newton, furono posti i fondamenti teorici della meccanica e tutti i fenomeni gravitazionali furono ricondotti a un’unica legge, detta appunto della gravitazione universale. Ancora oggi le precisissime osservazioni del moto dei pianeti e dei satelliti artificiali sono interpretate nell’ambito della teoria newtoniana. Nacque così una nuova scienza, la meccanica celeste, portata a un altissimo grado di perfezione soprattutto dalla scuola matematica francese (in particolare, Pierre Simon de Laplace, 1749-1827).
Dal punto di vista sperimentale il perfezionamento e l’uso metodico e paziente del telescopio arricchirono l’astronomia di oggetti e fenomeni nuovi: le comete, le stelle variabili, altri pianeti oltre ai cinque noti nell’antichità, gli asteroidi ecc. L’uso di strumenti ottici dispersivi in grado di separare la luce nelle sue componenti permise la scoperta e l’identificazione nella radiazione emessa dai corpi celesti di righe spettrali; da esse si poté risalire a parecchie proprietà chimiche e fisiche della sorgente, in particolare la composizione chimica, il movimento, la temperatura, il campo magnetico ecc. La spettroscopia astronomica ha costituito pertanto il principale strumento di ricerca dell’astronomia classica.
Il problema cruciale da risolvere per ogni nuova classe di oggetti celesti è la valutazione della loro distanza, per poter risalire poi dalla luminosità apparente a quella assoluta e stimare quindi le altre grandezze intrinseche, in particolare la potenza radiativa e le dimensioni. Senza di ciò la ricerca astronomica rimane una descrizione morfologica, difficilmente accessibile alla comprensione razionale. Le distanze astronomiche sono correntemente misurate in anni luce, prendendo come unità lo spazio percorso dalla luce in un anno, cioè circa 10.000 miliardi di km. Per le stelle, le prime determinazioni di distanza furono compiute nel 1837-39 mediante il metodo della parallasse, che consiste nel misurare lo spostamento angolare subito da una stella vicina rispetto alle altre più lontane nel giro di 6 mesi per effetto del moto della Terra attorno al Sole. Ciò è possibile, tuttavia, solo per sorgenti che non distano più di circa 30 anni luce; per distanze più grandi occorre usare altri metodi meno precisi. Il più importante di essi fa uso di una classe particolare di stelle, le Cefeidi, la cui luminosità varia periodicamente. Henrietta Swan Leavitt per prima osservò nel 1912 la relazione tra luminosità apparente e periodo con cui questa varia nel tempo per le Cefeidi della Piccola nube di Magellano; essendo queste Cefeidi praticamente tutte alla medesima distanza dalla Terra, Harlow Shapley, tra il 1914 e il 1920, concluse che la stessa relazione doveva valere per la luminosità assoluta. Poiché quindi il periodo dipende in modo noto dalla luminosità assoluta è possibile stimare quest’ultima e, conoscendo la luminosità apparente, risalire alla distanza di ogni gruppo di stelle che comprende una Cefeide. Il problema della sorgente dell’energia stellare rimase senza soluzione fino agli anni 1930, quando furono scoperte e studiate le reazioni nucleari di fusione e venne individuato il loro ruolo essenziale nelle stelle.
L’astronomia extragalattica ebbe inizio negli anni 1920, quando si riconobbe che le nebule, zone di debole luminosità diffusa nel cielo, contengono un gran numero di stelle e sono pertanto giganteschi sistemi, le galassie, simili a quella dove si trova il nostro Sistema Solare. L’orizzonte dell’astronomia si allargò a dismisura e nuovi, impressionanti oggetti diventarono accessibili alla ricerca. La scoperta di Edwin Powell Hubble (1926) che le galassie sono animate da un moto ordinato di allontanamento dalla nostra aprì la strada a una nuova disciplina, la cosmologia scientifica, in cui l’Universo intero diventa oggetto di indagine sperimentale.
Astronomia e astrofisica
Nella seconda metà dell’Ottocento, dall’applicazione all’astronomia delle metodologie e delle tecniche sperimentali proprie della fisica nacque l’astrofisica, che per la peculiarità dei metodi usati e soprattutto per l’importanza dei risultati conseguiti (per es., quelli relativi alla correlazione tra luminosità e temperatura superficiale delle stelle, all’espansione dell’Universo ecc.) presto assunse un ruolo fondamentale. Oggi gli aspetti razionali e teorici della ricerca sono così avanzati e indissolubilmente legati agli aspetti osservativi che la distinzione fra astronomia e astrofisica ha perso gran parte del suo significato. A partire dagli anni 1960 l’astronomia e l’astrofisica hanno avuto giganteschi sviluppi, anche per l’introduzione di nuove tecniche di osservazione. Accanto all’astronomia nel visibile e alla radioastronomia, basate prevalentemente su osservazioni effettuate dalla superficie terrestre, l’uso di rivelatori di varia natura su palloni, satelliti artificiali e sonde spaziali ha portato alla nascita di altri settori dell’astronomia, fondati sull’osservazione dei corpi celesti in diverse bande della radiazione elettromagnetica. Si è così avuto un radicale mutamento della disciplina. I nuovi oggetti scoperti, quasar, pulsar, radiazione di fondo ecc., hanno messo in luce il ruolo primario giocato da oggetti collassati di elevata densità e da fenomeni catastrofici o, comunque, caratterizzati da una scala temporale assai breve. In queste condizioni spesso le leggi note della meccanica classica e dell’elettromagnetismo non sono valide ed è necessario ricorrere a strumenti teorici più raffinati, come la relatività generale e la fisica delle particelle elementari. In certi casi questi strumenti teorici sono essi stessi soggetti a incertezze, inconsistenze e provvisorietà, il che rende le nuove scoperte astronomiche interessanti anche dal punto di vista della fisica fondamentale. Questi sviluppi scientifici sono stati accompagnati da una impressionante crescita delle dimensioni e delle complessità dei grandi progetti di ricerca astronomica, che richiede oggi ingenti investimenti e la collaborazione tra specialisti di numerose discipline. In particolare, l’uso di satelliti artificiali e di telescopi spaziali ha instaurato una stretta relazione tra l’astronomia e la ricerca spaziale, con importanti implicazioni nei riguardi della politica scientifica.
Il telescopio
Caratteristiche generali
Il principio che sta alla base del telescopio sembra essere stato delineato per la prima volta da Giambattista Della Porta nell’opera Magiae naturalis libri IV (1558; ampliata 1589). Nel 1608, Johannes Lippershey di Middleburg costruì il primo cannocchiale conosciuto, che vendette per 300 fiorini, una somma circa pari allo stipendio annuale percepito all’epoca da un professore dell’Università di Leida. Nel 1609, Galileo realizzò a Venezia un cannocchiale per il quale fu ben ricompensato dalle autorità cittadine, che riconobbero subito il potenziale militare dello strumento. Con questo Galileo fece numerose scoperte astronomiche, compresa quella dei quattro maggiori satelliti di Giove. Al cannocchiale di Galilei, che egli chiamava occhiale, l’Accademia dei Lincei nel 1611 diede il nome di telescopium, dal greco «che vede lontano».
Gli sviluppi successivi mirarono a ottenere una migliore luminosità, con la costruzione di lenti più grandi, e una migliore scala angolare, con l’aumento della lunghezza focale. Questo portò a seri problemi meccanici di flessione e da allora le difficoltà inerenti alla costruzione dei telescopi sono state di natura più meccanica che ottica: sarebbe inutile avere un telescopio capace di una risoluzione angolare di un secondo d’arco se poi non si potesse puntarlo accuratamente e quindi seguire con altrettanta precisione il moto giornaliero apparente del cielo.
Il principale problema ottico sorse dagli effetti cromatici – la variazione dell’indice di rifrazione del materiale delle lenti in funzione della lunghezza d’onda – e fu parzialmente risolto dall’ottico Chester Hall, nel 1729, con l’invenzione di lenti composite formate da vetri differenti. Al crescere delle dimensioni delle lenti, poi, cominciarono a manifestarsi notevoli problemi di flessione meccanica causata dalla gravità, che limitarono a 1 m il diametro massimo dei telescopi a rifrazione (o diottrici).
Questi due problemi principali sono risolti dai telescopi a riflessione (o catottrici), nei quali le lenti sono rimpiazzate da specchi: in essi non vi sono effetti cromatici e, con supporti appropriati sul retro dello specchio, le flessioni possono essere in gran parte eliminate. Comunque, un prezzo va pagato: le superfici riflettenti tendono ad avere maggiori perdite di luce rispetto alle lenti e, dal momento che quasi sempre vi è uno specchio secondario sul cammino del raggio di luce incidente, gli effetti di diffrazione peggiorano l’immagine finale. Tuttavia, i vantaggi dei telescopi a specchi compensano largamente questi inconvenienti e sono stati realizzati telescopi a riflessione fino a 10 m di diametro. I primi specchi erano fatti di speculum, una lega di rame e stagno, e andavano soggetti a deformazioni causate dalle variazioni di temperatura. Con l’avvento di vetri a bassa espansione termica, come il pyrex, e specialmente dei materiali ceramici, questi problemi possono essere completamente superati. Per di più, dato che gli specchi possono essere dotati di supporti, anche gli inconvenienti dovuti alla flessione possono essere in gran parte risolti montando opportunamente gli strumenti ausiliari, come gli spettrografi.
A causa della rotazione terrestre, i telescopi astronomici devono essere in grado di seguire i corpi celesti che descrivono circonferenze attorno ai poli. A tale scopo è stata realizzata la montatura ‘equatoriale’, nella quale il telescopio ruota attorno a un asse puntato verso il polo. La struttura asimmetrica che ne risulta è squilibrata e nei grandi telescopi porta a seri problemi di flessione. Una struttura più semplice è la montatura ‘alt-azimutale’, nella quale il telescopio ruota intorno a un asse orizzontale e a uno verticale. Comunque, la necessità di seguire oggetti con velocità variabili lungo i due assi ha ritardato l’introduzione della montatura alt-azimutale fino a quando non sono stati sviluppati sistemi di guida computerizzati. I grandi telescopi della seconda metà del 20° secolo, a cominciare dal telescopio di 6 m di Zelenchuk in Russia, terminato nel 1977, seguono quasi tutti il principio alt-azimutale. Anche in questo caso c’è un prezzo da pagare: le immagini ruotano rispetto al telescopio e questo effetto va compensato.
Quando il telescopio viene puntato in direzioni differenti, anche lo specchio subisce una deformazione causata dalle forze gravitazionali. In passato questo problema era risolto realizzando specchi abbastanza rigidi da non deformarsi troppo se sostenuti da sistemi relativamente semplici di leve meccaniche. Tali specchi erano spessi e pertanto molto pesanti. Con i perfezionamenti introdotti per evitare le flessioni meccaniche della struttura del telescopio, tutto l’insieme divenne molto massiccio e costoso. L’avvento di strutture e sostegni controllati dal calcolatore ha reso possibile l’uso di specchi molto più sottili e le conseguenti riduzioni di peso hanno consentito di diminuire sensibilmente il costo dei telescopi e di aumentare le dimensioni degli specchi.
Anche se si risolvessero tutti i problemi opto-meccanici, vi sono diversi fattori ambientali che possono pregiudicare il buon funzionamento di un telescopio. L’indice di rifrazione dell’aria dipende dalla temperatura e quindi, se lo specchio è più caldo dell’ambiente circostante, la convezione che ne deriva, con sacche di aria turbolenta più calda e più fredda, porta a un deterioramento della qualità dell’immagine. I controlli termici all’interno della cupola e del telescopio sono un requisito fondamentale, così come è necessario tener conto dell’effetto della forza del vento su specchi molto grandi.
Vanno inoltre considerati gli effetti dell’atmosfera terrestre: infatti, anche la turbolenza atmosferica porta a un deterioramento dell’immagine, mentre la trasparenza atmosferica è ovviamente un elemento importante. Infine, per osservazioni di oggetti poco luminosi, il cielo notturno deve essere il più scuro possibile. In ultima analisi, il costo dei telescopi molto grandi è giustificato solo se il sito prescelto corrisponde strettamente a tali requisiti. Solo pochi luoghi sulla Terra sono veramente adatti e anche nei siti migliori gli effetti atmosferici limitano gravemente la qualità dell’immagine, tanto che un’immagine puntiforme (una stella) appare come una macchia diffusa con un diametro, a metà potenza, di mezzo secondo d’arco o anche più. Per correggere le immagini di oggetti astronomici alterate dagli effetti atmosferici si sono sviluppate varie tecniche che utilizzano stelle di riferimento naturali o artificiali.
Naturalmente la maniera migliore per ovviare ai problemi dovuti ai fattori ambientali consiste nel situare il telescopio nello spazio. A tutt’oggi il telescopio più riuscito di questo tipo è il telescopio spaziale Hubble (Hubble Space Telescope, HST) da 2,4 m, che, in effetti, fornisce immagini di stelle a diffrazione limitata con un diametro a metà potenza dell’ordine di 0,05 secondi d’arco. Nel 2003 la NASA ha lanciato il telescopio spaziale Spitzer basato sull’utilizzo delle radiazioni infrarosse, mentre per il 2014 è previsto il lancio del James Webb Space Telescope. Peraltro, l’elevatissimo costo dei telescopi spaziali rende necessario utilizzare i telescopi terrestri per la maggior parte delle osservazioni.
Le caratteristiche ottiche dei telescopi si sono evolute gradualmente nei secoli passati. Sono state ideate diverse combinazioni di elementi ottici, poi ottimizzate per applicazioni differenti. Attualmente i problemi ottici sono ben compresi e con i moderni programmi ottici per calcolatori la progettazione si è decisamente semplificata. Anche i problemi di progettazione meccanica sono divenuti molto più abbordabili con lo sviluppo del metodo degli elementi finiti. Questo progresso nell’opto-meccanica ha portato anche alla progettazione di apparecchi fotografici, spettrometri, polarimetri e altri strumenti ausiliari assai più efficienti.
Un problema che permane è il costo: un telescopio da 8-10 m completo di strumenti ha un costo dell’ordine di 100 milioni di dollari.
La funzione essenziale di un telescopio astronomico è quella di raccogliere luce. L’analisi del funzionamento dei telescopi esistenti ha mostrato che essi non vengono utilizzati in modo molto efficiente. Gran parte del tempo di osservazione si impiega per cambiare i fuochi, gli strumenti o gli oggetti da osservare. Molta dell’efficienza ottica si perde a causa della diminuzione del potere riflettente dello specchio, dovuta all’invecchiamento del rivestimento e ai difetti di allineamento degli elementi ottici. E infine, dal momento che la maggior parte degli astronomi ha la possibilità di accedere ai grandi telescopi solo poche notti all’anno, l’efficienza è ridotta dalla mancanza di esperienza da parte dell’osservatore. Risolvendo questi problemi si otterrebbe un incremento dell’efficienza dei telescopi molto maggiore di quello che potrebbe essere determinato da ulteriori affinamenti della progettazione ottica. Incrementare l’efficienza operativa dei telescopi è quindi divenuto un obiettivo essenziale della loro progettazione.
Finora sono stati considerati solo telescopi operanti nel campo del visibile. La scoperta di onde radio di provenienza extraterrestre (da parte di Karl Jansky nel 1931) ha condotto allo sviluppo di radiotelescopi capaci di prestazioni sempre migliori. Per la maggior parte delle lunghezze d’onda i radiotelescopi sono abbastanza simili a quelli ottici. Comunque, per lunghezze d’onda molto più grandi, le tolleranze geometriche sugli specchi sono maggiori, sicché si sono potuti costruire telescopi fino a 100 m di diametro. Inoltre, per lunghezze d’onda più elevate, il riflettore radio può essere costituito da una rete di fili anziché da una superficie solida.
La risoluzione angolare ottenibile con un telescopio è limitata dagli effetti di diffrazione a circa Δϑ=1,2 λ/d radianti, dove d è il diametro e λ la lunghezza d’onda. Quindi, se λ=1 m e d=100 m, la risoluzione angolare è di 0,5 gradi soltanto. Per migliorarla i radioastronomi hanno costruito interferometri composti da diversi telescopi situati a grande distanza l’uno dall’altro. Se si prendono due telescopi e se ne muove uno che campioni tutte le informazioni all’interno di un cerchio di diametro d, allora la risoluzione è, in linea di principio, uguale a quella di un singolo telescopio di diametro d. In pratica, se è presente un numero sufficiente di telescopi immobili, si può già ottenere una parte considerevole delle informazioni. Utilizzando la Very Long Baseline Interferometry (VLBI), che permette di combinare le informazioni raccolte da telescopi posti in continenti diversi, i radioastronomi sono riusciti a ottenere immagini con una risoluzione migliore di un millisecondo d’arco. Ulteriori miglioramenti derivano dall’impiego di radiotelescopi montati su satelliti. Naturalmente, l’interferometria non si limita alle lunghezze d’onda radio, ma nel campo del visibile l’appropriata combinazione delle informazioni ottenute da diversi telescopi è più difficile e le tolleranze nel posizionamento dei telescopi sono minori a causa delle lunghezze d’onda più brevi.
La scoperta, nel 1962, di sorgenti cosmiche di raggi X ha determinato la necessità di costruire telescopi adatti ai raggi X. Gli specchi ottici usuali hanno un potere riflettente molto basso per raggi X che incidono pressoché normalmente alla loro superficie. Comunque, per angoli di incidenza molto piccoli, ovvero per incidenza pressoché radente della radiazione sullo specchio, si può ottenere la riflessione totale combinando specchi parabolici e iperbolici nei telescopi a doppia riflessione. Poiché i raggi X possono essere osservati solo nello spazio, fino a oggi sono stati costruiti telescopi relativamente piccoli.
Aspetti tecnici e ambientali
Materiali per specchi. Gli specchi possono essere fatti di metallo, vetro o ceramica. Le principali caratteristiche richieste sono una buona resistenza meccanica, un’alta lucidabilità e, preferibilmente, un basso coefficiente di espansione termica. Per essere lucidabile un materiale deve essere sufficientemente duro e uniforme: metalli come l’alluminio sono troppo teneri.
Per tutta la prima metà del 20° secolo il vetro è stato quasi sempre il materiale preferito; ma, pur essendo notevolmente lucidabile, il vetro ha un coefficiente di espansione termica relativamente elevato, che, quando varia la temperatura dello specchio, porta a variazioni della lunghezza focale e anche a deformazioni più gravi. Si sono quindi realizzati numerosi materiali vetrosi o vetro-ceramici, come la silice fusa, l’ULE (Ultra Low Expansion glass), il CerVit (Ceramica Vetrificata) e lo Zerodur (vetro-ceramico), l’ultimo dei quali possiede un coefficiente di espansione termica cento volte inferiore a quello del vetro (10-7 °C-1).
Rivestimenti. Le superfici lucidate di vetro o di ceramica hanno bassi poteri riflettenti; devono quindi essere rivestite con uno strato di materiale riflettente, abbastanza sottile da non alterare la forma dello specchio. Di solito si utilizza uno strato di alluminio depositato sotto vuoto. Il potere riflettente di tale strato appena depositato è dell’ordine dell’85%, ma l’ossidazione e la corrosione lo riducono, per cui bisogna depositare un nuovo strato ogni due anni circa. Mentre l’alluminio sembra essere il materiale migliore per tutta la regione delle lunghezze d’onda superiori a 3.000 Å (al di sotto della quale l’atmosfera è opaca), altri materiali sono superiori in regioni più limitate dello spettro. Inizialmente si usava l’argento, il quale ha un potere riflettente migliore salvo che nell’ultravioletto, ma ha il difetto di essere facilmente esposto a danneggiamento da parte di agenti atmosferici inquinanti presenti anche solo in tracce. L’oro è decisamente migliore sotto questo aspetto ed è stato usato spesso nei telescopi che operano nell’infrarosso. Per sistemi ottici destinati a scopi particolari sono stati creati rivestimenti a strati multipli che hanno, in regioni limitate dello spettro, poteri riflettenti superiori al 99%.
Ottica attiva. Anche uno specchio spesso, pesante e rigido subisce gravi deformazioni dovute alla gravità quando il telescopio si muove. Lo specchio è quindi posto in una cella, dove è sostenuto da un appropriato sistema di leve che devono compensare le forze gravitazionali che variano. Se lo specchio è sufficientemente spesso basta un sistema piuttosto semplice. Nei grandi telescopi il peso di uno specchio di notevole spessore diviene proibitivo e si rendono perciò necessarie soluzioni alternative, tra cui spicca l’ottica attiva.
Se uno specchio subisce una deformazione, anche l’immagine di una stella risulta di conseguenza deformata. Con un analizzatore di immagini si può accertare la natura della deformazione e la si può rimuovere esercitando forze appropriate sullo specchio, ristabilendo la qualità dell’immagine. L’analizzatore di immagini può essere basato, per esempio, su uno schermo di Hartmann, cioè uno schermo provvisto di una serie regolare di fori, posto sul raggio parallelo o più vicino al piano focale. Quando si pone una lastra fotografica a una certa distanza dal piano focale, si visualizza un insieme di macchie. Se lo specchio è distorto da deformazioni macroscopiche, anche il reticolo delle macchie risulta deformato; sostituendo la lastra fotografica con un rivelatore a stato solido (CCD, Charge-Coupled Device) il cui segnale d’uscita è direttamente connesso al calcolatore, si ottengono le posizioni del reticolo in tempo reale.
I supporti dello specchio sono leve e martinetti azionati da motori che esercitano forze su di esso. Dopo aver calcolato il rapporto tra l’intensità di queste forze e le deformazioni dello specchio, diviene agevole convertire, mediante un elaboratore, i dati così ottenuti in comandi per i motori, in modo che questi applichino le forze necessarie ad annullare la deformazione stessa. In pratica, per controllare uno specchio di 8 m di diametro, sono richieste diverse centinaia di leve, ma attualmente sono disponibili calcolatori abbastanza potenti da permettere di controllarle tutte. Dal momento che non sempre si può disporre di una stella di riferimento sufficientemente brillante vicino all’oggetto da osservare, in pratica le misurazioni di ottica attiva sono effettuate solo di tanto in tanto e tra una misurazione e l’altra le leve vengono manovrate basandosi sull’estrapolazione dei dati ricavati nell’esperienza precedente.
Specchi di grandi dimensioni. Il più grande specchio di elevato spessore mai costruito è quello del già citato telescopio di 6 m di Zelenchuk, in Russia, pesante 42 t. A prescindere dal costo, il suo principale difetto è costituito dalla grande inerzia termica, per cui, quando la temperatura ambiente diminuisce lo specchio resta più caldo dell’aria sovrastante e la qualità dell’immagine viene danneggiata dai moti convettivi. Altri grandi telescopi sono realizzati seguendo altri criteri.
a) Grandi specchi sottili. Lo specchio è sottile (per esempio 18 cm per un diametro di 8,2 m negli specchi del VLT dell’ESO, European Southern Observatory, la maggiore organizzazione astronomica europea), è munito di supporto attivo e ha una superficie liscia e uniforme; il suo difetto principale è la fragilità. È difficile che si possano realizzare specchi del genere con diametri superiori agli 8 m.
b) Specchi più spessi ma in gran parte cavi. Lo specchio è composto da uno strato superficiale relativamente sottile, sostenuto da una struttura a nervature per massimizzare la resistenza meccanica mantenendo un peso ridotto. Anche in questo caso è difficile realizzare diametri superiori agli 8 m.
c) Specchi segmentati. Singoli elementi di 2-3 m sono combinati in modo da ottenere un’unica superficie ottica. Gli elementi possono essere relativamente spessi rispetto al loro diametro e sono sostenuti da supporti azionati da motori, controllati da un sistema ottico attivo. Gli elementi devono essere lucidati come paraboloidi fuori asse con identica lunghezza focale, evitando qualsiasi irregolarità agli spigoli. Naturalmente, il punto critico è la connessione dei vari elementi, dal momento che la presenza di vuoti creerebbe problemi di diffrazione. Il successo del telescopio Keck da 10 m, situato alle Hawaii, mostra che le varie difficoltà possono essere superate. Il vantaggio principale consiste nelle dimensioni ridotte dei singoli elementi che non necessitano di grandi impianti per la realizzazione o l’alluminatura.
d) Telescopi a specchi multipli. Vari specchi circolari vengono posti su un’unica montatura e la loro luce è combinata da un’ottica adeguata.
e) Telescopi a schiera. È stato abbandonato il principio della montatura in comune e i telescopi operano singolarmente. La luce può essere combinata mediante specchi, oppure le immagini ottenute dai rivelatori dei singoli telescopi possono essere composte elettronicamente. Il vantaggio degli ultimi due sistemi consiste nel fatto che la lunghezza focale degli specchi primari è inferiore a quella di un unico specchio monolitico con la stessa superficie e il medesimo rapporto focale (per rapporto focale si intende il rapporto tra la lunghezza focale e il diametro). Di conseguenza il telescopio è più corto, subisce una flessione meno accentuata e risulta otticamente più semplice adattarvi degli spettrografi. Lo svantaggio più rilevante consiste nella necessità di aumentare il numero degli specchi, e ciò può portare a notevoli perdite di luce, a meno di non utilizzare rivestimenti ad alto potere riflettente, che comunque riducono il campo delle lunghezze d’onda osservabili. Un’alternativa consiste nel connettere i telescopi mediante fibre ottiche. Questa soluzione, praticabile quando si osservano uno o pochi oggetti stellari, è meno adatta al trasferimento di immagini. In un sistema di telescopi a schiera alcuni elementi (motori, montature, cuscinetti) devono essere costruiti separatamente per ciascun telescopio, mentre un telescopio multispeculare prevede una sola unità, benché più grande. Il vantaggio di un sistema a schiera sta nel fatto che esso fornisce informazioni interferometriche più esaurienti.
Meccanica dei telescopi e cupole. Le flessioni meccaniche, che in passato, nelle montature equatoriali, creavano gravi problemi, sono state molto ridotte con l’introduzione della montatura alt-azimutale e dei moderni metodi di progettazione. Inoltre, i metodi di ottica attiva permettono di compensare le flessioni rimanenti. Ciò nonostante, conviene ancora far sì che la struttura del telescopio sia più compatta possibile, in modo da ridurre la necessità di costruire grandi cupole dai costi elevati e dall’elevata inerzia termica.
Siti. I telescopi (v. tab.), indipendentemente dalla accuratezza della loro realizzazione dai punti di vista ottico e meccanico, possono funzionare bene solo se collocati in luoghi adatti che minimizzino la degradazione ambientale della qualità dell’immagine davanti al (o all’interno del) telescopio. I requisiti richiesti sono la scarsa nuvolosità, un’atmosfera stabile, perché le turbolenze siano ridotte al minimo, la trasparenza atmosferica assicurata dall’altitudine. In base a ciò i telescopi dovrebbero essere collocati in alta montagna, vicino a un oceano freddo, a latitudini relativamente basse. I migliori siti conosciuti sono la sommità del Mauna Kea (4200 m) nelle Hawaii, il Nord del Cile (con montagne di 2000-3000 m molto vicine alla costa) e i luoghi più alti delle isole Canarie, dove però l’umidità non è altrettanto bassa. Anche la California e la Namibia sono posti relativamente favorevoli. Un altro luogo probabilmente molto adatto è il centro dell’Antartide.
riferimenti bibliografici
A. Cavaliere, Frecce del tempo, in Il Libro dell’anno 2003, Roma, Istituto della Enciclopedia Italiana, 2003, pp. 228-44; F.H. Shu, The physical Universe, Mill Valley, California, University Science Books, 1982.