Clima
SOS: si sciolgono i ghiacci del Polo
L'effetto serra nell'anno 2000
di Michele Colacino
24 marzo, 19 agosto
Il 24 marzo i quotidiani riportano che un gigantesco iceberg d'area pari a quella dell'Abruzzo, staccatosi dalla Ross Ice Shelf, in Antartide, va alla deriva, mettendo a rischio le rotte di navigazione. A circa cinque mesi di distanza, il 19 agosto, viene diffusa la notizia che due scienziati americani, James McCarthy e Malcom McKenna, nel corso di una spedizione nell'Artide, hanno rilevato in prossimità del Polo Nord la presenza di ghiaccio così sottile che la luce del Sole può attraversarlo e nutrire il plancton sottostante, mentre altri sondaggi eseguiti da un aereo sui ghiacciai della Groenlandia, in un programma di ricerca promosso dalla NASA, indicano un assottigliamento dello scudo di ghiaccio che ricopre quell'area. Tutte queste informazioni sullo scioglimento dei ghiacci delle calotte polari sembrano confermare in modo inequivocabile che la temperatura del nostro pianeta sta subendo un progressivo innalzamento, connesso forse al potenziamento antropico dell'effetto serra.
Bilancio energetico del pianeta ed effetto serra
Le notizie sullo scioglimento dei ghiacci polari diffuse dalla stampa nel corso del 2000 ripropongono i quesiti che ormai da diversi anni assillano i climatologi: se gli attuali andamenti climatici dipendano dalla variabilità naturale o siano, invece, indice di un cambiamento sostanziale e irreversibile; quali possano essere le prospettive di futura evoluzione e soprattutto in che misura si possano ritenere responsabili di questo processo di riscaldamento le attività dell'uomo che, inquinando, bruciando combustibili fossili, deforestando, modifica l'equilibrio energetico da cui il clima dipende.
Il clima del nostro pianeta è determinato dal bilancio di energia tra la radiazione solare incidente e quella emessa dal sistema Terra-atmosfera verso lo spazio esterno. Le condizioni climatiche sono quindi definite sia dall'andamento variabile dell'energia che giunge dal Sole sia dalle proprietà riflettenti, assorbenti ed emissive della superficie planetaria e dell'atmosfera.
Analizzando lo spettro della radiazione solare, ossia la sua composizione in termini di radiazioni di diversa frequenza e lunghezza d'onda, si osserva che il massimo di emissione si registra in corrispondenza della regione del visibile. Il flusso di energia rilevato su una superficie perpendicolare ai raggi del Sole al limite superiore dell'atmosfera è pari a 1376 watt/m2, quantità nota come 'costante solare'. In realtà il termine costante è improprio, poiché si tratta di un flusso che, come hanno confermato anche recenti misurazioni eseguite da satellite, subisce variazioni dell'ordine di qualche percento a causa delle macchie solari.
La radiazione che giunge sulla Terra non viene assorbita completamente, ma per circa il 30% viene rimandata direttamente verso lo spazio esterno. Il rapporto tra l'energia riflessa e quella incidente costituisce l''albedo planetaria' e dipende da vari fattori. I principali agenti riflettenti sono gli aerosol atmosferici, le nubi, il terreno privo di vegetazione, la neve e i ghiacci. L'albedo può quindi variare a causa delle modifiche indotte nella superficie del pianeta e una sua variazione positiva o negativa può indurre un cambiamento climatico, alterando la componente riflessa del bilancio energetico. Il restante 70% di energia viene assorbito dal sistema Terra-atmosfera, che a sua volta libera energia emettendo radiazione verso lo spazio esterno.
È ovvio che la quantità di energia assorbita è pari a quella emessa, altrimenti lo squilibrio energetico darebbe luogo a un crescente riscaldamento o, all'opposto, a un progressivo ghiacciamento, cioè al raffreddamento fino alla formazione di ghiaccio, del pianeta. Ne deriva che, assumendo un'albedo planetaria pari al 30% e tenendo conto del valore della costante solare, il flusso di energia dalla Terra verso lo spazio risulta pari a 240 watt/m2, al quale corrisponde una temperatura di equilibrio radiativo di -18 °C. L'emissione da parte della Terra avviene, pertanto, in corrispondenza della regione infrarossa dello spettro delle onde elettromagnetiche: a questo punto fa sentire la sua presenza l'atmosfera, che risulta trasparente per la radiazione visibile, mentre assorbe la radiazione infrarossa proveniente dalla superficie del pianeta. La radiazione assorbita viene rinviata in tutte le direzioni e, quindi, anche verso il suolo, che si riscalda: la temperatura superficiale si aggira, infatti, intorno a 15 °C e risulta essere di ben 33 °C più alta rispetto a quella che si avrebbe in assenza di atmosfera. In ciò consiste l''effetto serra', che deriva il nome dall'analogia con l'azione delle serre usate in agricoltura.
Responsabili dei processi di assorbimento sono alcuni gas, noti come costituenti minori perché presenti in piccolissima percentuale nella composizione dell'aria. Tra questi i più importanti sono il vapore d'acqua (H2O), l'anidride carbonica (CO2), il protossido di azoto (N2O) e il metano (CH4); in misura minore sono presenti anche i freon, noti anche come clorofluorocarburi (CFC), l'ozono (O3) e altri ancora. Senza entrare in dettagli su come la composizione dell'atmosfera sia variata nel corso della storia geologica del pianeta, ci interessa esaminare, per poter evidenziare il contributo delle attività antropiche, come la composizione si sia modificata in epoca recente, a partire cioè dalla rivoluzione industriale, nella seconda metà del 18° secolo.
La tab. 1 riporta le concentrazioni passate, quelle attuali, i ratei attuali di crescita e i tempi di residenza in atmosfera dei principali gas serra: come si nota, i livelli sono tutti in aumento; inoltre, tenendo conto dei tempi di residenza, eventuali provvedimenti di riduzione delle emissioni, assunti oggi, non avrebbero effetti significativi prima di alcune decine di anni.
Tabella 1
Nella tabella non sono riportati i dati relativi al vapore d'acqua. Come è noto, l'acqua, presente sul nostro pianeta in forma solida, liquida e aeriforme, è contenuta per il 97% negli oceani, per il 2% nei ghiacci polari e per il restante 1% nelle acque dei bacini terrestri (laghi, fiumi). In aria l'acqua è presente in percentuale trascurabile (solo lo 0,001%) ma svolge un ruolo determinante nei processi climatici sia nell'assorbimento della radiazione, sia nel ciclo idrologico, sia nel trasporto e nella ridistribuzione dell'energia. La stima della concentrazione del vapore e la previsione delle variazioni future sono molto difficili, perché il contenuto di vapore è fortemente variabile (basti pensare allo spostamento dei sistemi nuvolosi) nello spazio e nel tempo. Studi teorici indicano un aumento della concentrazione del vapore d'acqua pari al 6% per un aumento di 1 °C di temperatura e misurazioni sperimentali, condotte su lunghi periodi di tempo in modo da avere dati significativi, sembrano confermare la previsione.
Dopo il vapore d'acqua, il più importante gas serra è l'anidride carbonica (CO2), la cui concentrazione è cresciuta negli ultimi duecentocinquanta anni di più del 25%, passando da 280 a 370 ppmv. Il contributo antropico attuale alle emissioni deriva dai processi di combustione per 5,7 Gt/anno e dalla deforestazione per 1,5 Gt/anno. La valutazione di ciò che accadrà in futuro non è semplice, poiché gli scenari varieranno in funzione degli accordi sulle limitazioni alle emissioni che potranno essere raggiunti tra i vari Stati. Proseguendo con il ritmo attuale, senza misure di contenimento, si avrebbe per il 2050 una concentrazione di 575 ppmv, più del doppio di quella di partenza. Le ipotesi di riduzione possono essere diverse: per dare un'idea della complessità del problema è sufficiente dire che per mantenere la concentrazione ai livelli odierni occorrerebbe una riduzione delle emissioni di origine antropica del 60-80%. Anche la concentrazione del metano (CH4) è cresciuta in modo rilevante, passando dalle 0,8 ppmv dell'epoca preindustriale alle attuali 1,72. Una riduzione del 15-20% nelle emissioni, che sono dovute a sorgenti diverse (risaie, terre umide, attività estrattive, gasdotti), potrebbe stabilizzare la concentrazione. Il protossido di azoto (N2O) ha una concentrazione di 0,3 ppmv e l'emissione deriva da processi di combustione di biomassa oppure dall'uso di fertilizzanti in agricoltura. La stabilizzazione ai livelli attuali potrebbe essere raggiunta solo con un taglio delle emissioni del 70-80%.
Per i freon (CFC) manca il confronto con l'epoca preindustriale, perché queste sostanze sono state prodotte artificialmente a partire dagli anni Trenta del 20° secolo. Esse sono consumate dalle reazioni di fotolisi che in stratosfera liberano atomi di cloro, responsabili del processo di deplezione dell'ozono. Proprio per gli effetti distruttivi sulla ozonosfera, nei prossimi anni i freon sono destinati a uscire di scena; infatti la loro produzione dovrebbe cessare a partire dal 2005 (Protocollo di Montreal, 1987).
Un discorso più articolato merita l'ozono, presente sia nella troposfera sia nella stratosfera. Mentre il primo assorbe la radiazione infrarossa e contribuisce all'effetto serra, l'altro scherma la radiazione solare UV e dà un apporto inverso, tendendo a raffreddare il pianeta. L'O3 troposferico si produce come risultato di una complessa serie di reazioni fotochimiche che coinvolgono ossido di carbonio (CO), ossidi di azoto (NOx) e idrocarburi non metanici (NMHC). I dati di concentrazione sono fortemente variabili da un luogo all'altro e con la stagione; tuttavia, nell'emisfero nord sembra presente un incremento dell'ordine dell'1%. L'O3 stratosferico ha subito, invece, un processo di deplezione, dovuto all'azione dei freon, che è stato evidenziato a partire dagli anni Ottanta. La riduzione sembra essere di qualche percento, ma i provvedimenti assunti con la messa al bando dei CFC dovrebbero consentire nei prossimi anni il ritorno ai valori normali di concentrazione.
Scenari climatici
L'aumento della concentrazione di gas serra, derivante dalle attività dell'uomo, altera le proprietà radiative dell'atmosfera, che assorbe in misura maggiore la radiazione infrarossa emessa dalla superficie terrestre. Questo processo, noto come potenziamento antropico dell'effetto serra, dà origine a un cambiamento del bilancio energetico che provoca, con l'innalzamento della temperatura planetaria, anche profonde alterazioni del clima globale.
La valutazione dell'andamento futuro si effettua disegnando, mediante modelli matematici, i cosiddetti scenari climatici: l'obiettivo è quello di prevedere su scale temporali dell'ordine dei decenni sia la crescita della temperatura sia gli andamenti dei vari parametri che caratterizzano il clima stesso. A questo scopo vengono utilizzati modelli energetici e modelli di circolazione generale dell'atmosfera. I primi, basati sulle leggi della termodinamica, considerano la Terra come un corpo avente una determinata capacità termica, soggetto a un bilancio di calore che può variare nel tempo. Il bilancio è dato dalla differenza tra il flusso radiativo entrante e quello uscente dal sistema Terra-atmosfera, mentre come capacità termica del pianeta si assume in genere quella degli oceani nello strato superficiale, fino a un centinaio di metri di profondità. I calcoli sono relativamente semplici, ma come risultato si ottiene solo un dato di temperatura, che rappresenta la variazione di questo parametro su scala globale. I modelli di circolazione generale sono molto più complicati, contenendo equazioni per la statica, la dinamica, la termodinamica dei fluidi, la conservazione del vapore e della massa. Questi modelli, estremamente complessi, possono simulare alcuni processi fisici come le interazioni tra atmosfera e superficie (terra o mare). Per prevedere come cambierà il clima in funzione della crescita dei livelli di gas serra in aria, si effettua l'esperimento del raddoppio della concentrazione di CO2, che consiste in due fasi: nella prima si fa funzionare il modello in modo che rappresenti la distribuzione attuale della pressione, della temperatura e degli altri parametri climatici. Nella seconda, una volta simulato il clima attuale, si introduce la condizione corrispondente a un raddoppio del livello dei gas serra in aria; si modifica, pertanto, il bilancio di energia e si osserva come risultano modificati gli andamenti dei parametri di cui si è detto. La differenza riscontrata tra la nuova distribuzione e quella che rappresentava lo stato iniziale dà la stima del cambiamento.
Entrambi i tipi di modelli prevedono, per la metà del 21° secolo, un aumento di temperatura compreso tra 1,5 e 3,5 °C. L'aumento non sarebbe, però, uniforme, andando da ~0,5 °C nelle basse latitudini a oltre 5÷6 °C nelle zone polari. Oltre alla temperatura, la previsione riguarda anche altri parametri meteorologici, dato che la prima conseguenza del riscaldamento sarebbe l'alterazione della circolazione atmosferica e dei regimi meteorologici. Su questa materia le indicazioni non sono concordi e segnalano la necessità di ulteriori e approfonditi studi sulla fisica del clima.
Una volta determinate le probabili variazioni del clima, si passa a valutarne gli impatti che possono riassumersi in: scioglimento dei ghiacci, innalzamento del livello del mare, modifiche dei processi di evaporazione dalle superfici liquide ed evapotraspirazione dalla biosfera. Da ciò derivano come conseguenza cambiamenti nelle caratteristiche delle acque e delle correnti oceaniche, erosione delle coste e modifica ai regimi idrologici, con aumento dei rischi di precipitazioni molto intense e inondazioni in alcune regioni e forte diminuzione delle piogge, con prolungata siccità e rischi di desertificazione, in altre zone.
Come è facile immaginare, in questa prospettiva anche tutte le attività produttive sarebbero messe alla prova: produzioni agricole, insediamenti industriali, pesca, commerci, trasporti, tempo libero, turismo potrebbero essere colpiti dal cambiamento del clima e sarebbero a rischio anche la salute e lo stato di benessere delle popolazioni. In termini economici i costi per fronteggiare l'impatto del cambiamento climatico sarebbero enormi: calcoli eseguiti in merito nell'ambito dell'IPCC (International panel on climate change) indicano per molti paesi in via di sviluppo oneri di gran lunga superiori al loro prodotto interno lordo. Per avere un'idea si può considerare il danno derivante dal sollevamento del livello del mare, previsto in ~ 60 cm per il 2050 e in ~ 1 m per il 2100. Se ciò avvenisse, potrebbero essere cancellate alcune isole come le Maldive o le Samoa, mentre Venezia e le altre aree lagunari sarebbero in buona parte sommerse; le stime indicano inoltre che sarebbero a rischio 345.335 km di coste basse, 6400 km di lungomare urbani, 10.725 km2 di spiagge e 1756 km2 di aree portuali, con un costo per le opere di protezione stimato in cinquecento miliardi di dollari, mentre una valutazione prodotta nei primi mesi del 2000 dal Ministero dell'Ambiente britannico indica in 1,3 miliardi di sterline la spesa prevista per i prossimi cinquanta anni al fine di potenziare le difese delle coste e delle rive dei fiumi in Inghilterra e Galles.
Secondo studi pubblicati in Inghilterra sempre nel 2000, la progressiva intensificazione dell'effetto serra avrebbe un impatto catastrofico anche sui rapporti tra gli Stati e i popoli. I paesi in via di sviluppo, avendo ovviamente meno risorse per affrontare il problema, sarebbero ulteriormente penalizzati rispetto a quelli avanzati. Tenderebbe, quindi, ad aumentare il divario tra le condizioni di vita delle popolazioni.
Anche evitando di essere catastrofisti fino a questo punto, non vi è dubbio che gli scenari prodotti e i conseguenti impatti danno indicazioni per il futuro assai poco tranquillizzanti: tuttavia i risultati dei modelli vanno considerati con estrema cautela.
Anzitutto va osservato che quello climatico è un sistema complesso i cui componenti - atmosfera, idrosfera, criosfera, litosfera, biosfera - sono in continua interazione, con scambi di energia e materia e processi di retroazione che gli attuali modelli, pur essendo molto sofisticati, non sono in grado di rappresentare in modo soddisfacente. In particolare devono essere meglio analizzati il ruolo dell'oceano come accumulatore e distributore di energia, quello delle aree polari nella circolazione generale dell'atmosfera, il contributo degli aerosol e dei sistemi nuvolosi nel bilancio radiativo globale e l'impatto della variabilità della radiazione solare.
Un altro motivo di prudenza deriva dal fatto che le simulazioni sono, temperatura a parte, fortemente divergenti tra un modello e l'altro; notevoli differenze si manifestano soprattutto quando dalle previsioni su scala globale si passa a quelle su scala regionale che, riferendosi a specifiche aree del mondo, assumono carattere di maggiore concretezza, necessaria per assumere provvedimenti o promuovere iniziative di riduzione o contenimento delle emissioni.
Infine, è importante ricordare che il clima è per sua natura variabile e, come risulta dalla storia geologica del nostro pianeta, nell'ultimo milione di anni ha oscillato tra fasi glaciali e interglaciali, con una periodicità di circa 100.000 anni. L'ultima glaciazione ha avuto il massimo di espansione 18.000 anni fa e da 10.000 anni (Olocene) la Terra si trova in una fase interglaciale (tab. 3).
Tabella 3
Ovviamente durante ciascuna fase, calda o fredda, la temperatura planetaria ha subito continui cambiamenti su scale di tempo più o meno lunghe: non è quindi da escludere che l'attuale andamento possa rientrare nella variabilità naturale.
Analisi dei dati
Le previsioni climatiche effettuate mediante i modelli di scenario indicano un aumento della temperatura dell'aria e un cambiamento del clima causati dalla crescita della concentrazione dei gas serra. Poiché, a partire dalla rivoluzione industriale, il livello di questi gas ha subito un incremento di oltre il 30%, è lecito chiedersi se qualche segnale sia già rilevabile dall'analisi di lunghe serie di dati o emerga da evidenze diverse, come lo scioglimento dei ghiacci e l'innalzamento del livello del mare.
Naturalmente il parametro considerato più rappresentativo del cambiamento climatico è la temperatura dell'aria, il cui andamento è analizzato a partire dalla metà del 19° secolo, cioè da quando i dati meteorologici sono stati raccolti in modo sistematico. Le serie, prima di essere usate per le analisi, sono attentamente controllate per verificarne la continuità, la rappresentatività, l'omogeneità e l'attendibilità. Gli studi in materia, condotti da diversi gruppi, danno risultati sostanzialmente coincidenti, indicando che la temperatura su scala globale è cresciuta di circa 0,6 °C nel periodo 1860-1999. Tale crescita non è però uniforme: esaminando l'andamento dei dati si vede che, partendo dal 1860, la temperatura oscilla intorno allo stesso valore fino agli inizi del 20° secolo, per crescere poi fino agli anni Quaranta. Successivamente si registra una tendenza negativa fino alla metà degli anni Settanta e quindi una nuova fase di crescita che diventa molto intensa nella seconda metà degli anni Ottanta e in tutti gli anni Novanta.
Passando a esaminare i dati delle precipitazioni, si può ricordare che queste ultime sono attualmente misurate in oltre 140.000 stazioni pluviometriche e in circa 40.000 stazioni meteorologiche. Sono inoltre disponibili dati di circa 20.000 stazioni a partire dall'inizio del 20° secolo (tab. 4).
Tabella 4
Tuttavia, solo una piccola parte di tutte queste informazioni risulta attendibile, e di conseguenza i risultati sono molto contraddittori e non consentono di trarre conclusioni certe. Sembra, dai lavori pubblicati, che nell'emisfero Nord vi sia una tendenza alla riduzione delle piogge nelle basse latitudini, accompagnata da una tendenza alla crescita delle precipitazioni oltre i 50° di latitudine e nelle zone polari. Nell'emisfero australe le conclusioni sono ancora più incerte, poiché i dati sono raccolti solo su terraferma e non si hanno informazioni riguardanti le piogge sugli oceani.
Altri indicatori su scala globale del cambiamento climatico sono la grandezza dei ghiacciai e il livello del mare. Per quanto riguarda le indagini condotte dai glaciologi, i risultati non indicano variazioni significative nell'estensione e nella consistenza delle calotte polari, il cui bilancio di massa è sostanzialmente in equilibrio, come è emerso nel corso di un convegno svoltosi a Tokyo nel luglio 2000 nell'ambito della riunione biennale dello SCAR (Scientific committee for Antarctic research). Per il livello del mare, invece, la variazione registrata dalla rete mondiale dei mareografi indica un sollevamento di ~ 16 cm negli ultimi cento anni.
Accanto a ciò che succede su scala planetaria, è interessante esaminare l'evoluzione del clima nel nostro paese e nella regione mediterranea in generale. L'analisi ha preso le mosse dallo studio della pressione atmosferica, perché la riduzione della differenza di temperatura tra equatore e poli, dovuta all'intensificazione dell'effetto serra, può dare luogo allo spostamento dell'anticiclone delle Azzorre sul Mediterraneo centro-occidentale. Utilizzando i dati raccolti in superficie e in quota in un circuito di stazioni che copre il bacino centro-occidentale, si è trovato che, a partire dal 1950 circa, la pressione atmosferica ha subito una crescita come valore medio, in accordo con l'effetto prima considerato. La crescita, tuttavia, non è lineare e al trend positivo si sovrappone una oscillazione di periodo di ventidue anni. Associata alla crescita della pressione è la diminuzione della nuvolosità, alla quale si collega un aumento della radiazione solare e della temperatura. Per quest'ultima l'andamento coincide con quello riscontrato su scala globale: solo in alcune città sembra esservi un maggiore riscaldamento, in connessione probabilmente con l'effetto dell'isola di calore. Le città, infatti, agiscono come trappole termiche, bloccando la radiazione incidente e dando luogo a un innalzamento della temperatura dell'aria, rispetto alle zone rurali circostanti, che è tanto più elevato quanto maggiore è la grandezza dell'agglomerato urbano.
Insieme alla crescita della temperatura si registra una diminuzione delle precipitazioni, il cui livello si è ridotto di oltre il 15% negli ultimi cinquanta anni. In particolare, tale diminuzione è molto più marcata nella parte meridionale del bacino in esame, dove supera largamente il 20% e dove, se questa tendenza continuerà, esistono ampie zone a rischio di desertificazione. Un'altra caratteristica che si va evidenziando riguarda l'intensità delle piogge, che si misura come rapporto tra quantità di pioggia e durata dell'evento: sembrano infatti in diminuzione le piogge di intensità medio-bassa e in aumento, invece, quelle di maggiore intensità, e ciò manifesta una tendenza alla tropicalizzazione del clima. Questo studio, a livello regionale, è stato esteso anche ai fenomeni estremi come venti forti, bombe meteorologiche e onde di calore. L'analisi dei venti forti, definiti come venti con intensità superiore a 25 nodi per almeno sei ore, ha riguardato maestrale, bora e scirocco: in tutti e tre i casi si è riscontrato un trend negativo, con una riduzione del numero dei casi del 35% per il maestrale e del 50% per bora e scirocco. Le bombe meteorologiche sono depressioni molto intense della durata di almeno ventiquattr'ore, in cui la pressione subisce una caduta di circa 20 hPa. A questo fenomeno ciclonico si accompagnano venti molto intensi, piogge torrenziali e mare molto mosso. I dati, disponibili in tal caso solo a partire dagli anni Sessanta, indicano una diminuzione di questi eventi. In crescita, invece, sono le onde di calore, che si manifestano in estate e durante le quali la temperatura dell'aria risulta essere più alta rispetto a quella media stagionale di 8÷15 °C. Questo fenomeno ha un impatto notevole sia sulla salute umana, a causa della forte afa, sia sulla propagazione degli incendi boschivi, una piaga ormai ricorrente durante il periodo estivo. Infine, per quanto riguarda il livello del mare, negli ultimi cento anni è stato registrato un sollevamento medio di 15 cm; in particolare a Venezia, dove esistono problemi peculiari, è stato misurato un innalzamento di 27 cm alla Punta della Salute. Per i ghiacciai alpini sembra invece in atto una fase di regressione, anche se in questo caso gli andamenti non sono del tutto uniformi. Le tendenze rilevate dall'analisi dei dati sono coerenti con l'ipotesi del potenziamento dell'effetto serra: tuttavia, date la ridotta entità delle variazioni e la relativa brevità del periodo considerato, queste tendenze potrebbero
anche essere associate alle oscillazioni naturali del clima.
Iniziative internazionali e strategie di risposta
Punto di partenza delle iniziative internazionali sul clima può essere considerata la prima Conferenza climatica mondiale che, indetta dalle Nazioni Unite, si è svolta a Ginevra nel febbraio 1979. Al termine dei lavori è stato varato il Programma climatico mondiale (WCP, World climate program), articolato su quattro temi: monitoraggio e raccolta dei dati; applicazioni alle attività dell'uomo delle conoscenze climatiche; studi di impatto climatico, finalizzati alla valutazione delle conseguenze di eventi estremi come onde di calore, siccità, uragani; sviluppo e approfondimento delle ricerche sul clima. In quest'ultimo settore è particolarmente raccomandata l'intensificazione delle osservazioni sia con strumenti tradizionali sia con nuove tecnologie, soprattutto di telerilevamento. Infatti, malgrado il numero molto elevato di sensori dedicati alla raccolta di dati, molte aree del pianeta sono relativamente scoperte e questo va ovviamente a detrimento dell'attendibilità sia delle previsioni sia delle verifiche dei cambiamenti. Per ovviare a questi inconvenienti è stato varato il Programma di osservazioni globali del clima (GCOS, Global climate observation system), con l'obiettivo di creare un sistema di misurazioni su terraferma, oceano e atmosfera in grado di fornire dati continui, omogenei e attendibili. Va ricordato inoltre che l'ICSU (International council of scientific unions), che coordina tutti i Consigli nazionali delle ricerche, ha promosso l'IGBP (International geosphere and biosphere program) per monitorare le modificazioni nel corso del tempo delle caratteristiche climatiche, geomorfologiche ed ecologiche del pianeta, valutare l'entità dei cambiamenti e, infine, realizzare modelli che consentano una previsione realistica degli andamenti futuri. Un'attenzione particolare viene dedicata agli impatti sulla popolazione; al riguardo è in atto un progetto di ricerca, denominato Human dimension of global environment change (HDGEC).
Anche da parte dell'Unione Europea sono stati promossi programmi di ricerca finalizzati allo studio dei cambiamenti globali e di quelli climatici. Tra le aree campione degne di particolare attenzione vi è la regione mediterranea, che presenta caratteristiche del tutto peculiari, tanto che il clima mediterraneo è definito in modo a sé stante. Questo farebbe presupporre un impegno considerevole del nostro paese in questo campo di ricerca, mentre, in realtà, le risorse dedicate alla ricerca sul clima sono scarse e non esiste un programma di riferimento che coordini i diversi lavori ed esprima la rappresentanza italiana nelle sedi internazionali. Solo recentemente, in seguito a una delibera del CIPE (Comitato interministeriale per la programmazione economica) del 21 dicembre 1999, il Ministero dell'Ambiente ha costituito una commissione per redigere un Programma nazionale clima, che dovrebbe assicurare le risorse necessarie anche per svolgere le ricerche.
Le iniziative, però, non riguardano solo i programmi di studio e di ricerca. Nel 1986 aveva luogo, sempre a Ginevra, una riunione per pianificare la seconda Conferenza climatica mondiale, prevista per il 1990 e, nel frattempo, cominciavano a essere pubblicati i primi lavori sugli scenari climatici. In seguito all'attenzione da essi suscitata nella comunità scientifica e nell'opinione pubblica, due agenzie delle Nazioni Unite, l'Organizzazione meteorologica mondiale (WMO, World meteorological organization) e il Programma ambiente (UNEP, United Nations environmental program), creavano nel 1988 l'IPCC, articolato su tre gruppi di lavoro: il primo dedicato allo studio delle basi scientifiche del cambiamento climatico; il secondo mirato alla valutazione degli impatti dei cambiamenti del clima; il terzo rivolto allo studio delle strategie di risposta e orientato quindi a proporre in concreto sia provvedimenti per limitare le emissioni di gas serra sia soluzioni ai problemi che dal cambiamento possono derivare.
Nel 1990 si verificarono due eventi molto importanti. A Washington si tenne il primo convegno dell'IPCC, nel corso del quale fu effettuata una ricognizione dei risultati raggiunti dai vari gruppi di lavoro. Successivamente a Ginevra si svolse la seconda Conferenza climatica mondiale, che chiuse i lavori con la proposta di prolungare il WCP per altri dieci anni.
A livello politico-economico si faceva strada, soprattutto per iniziativa del governo norvegese, il concetto di sviluppo sostenibile. Questa nozione, approfondita nel saggio Our common future, venne ripresa dalle Nazioni Unite, che programmarono per il 1992 un vertice mondiale da tenersi a Rio de Janeiro sul tema 'Ambiente e sviluppo'; tali termini non devono risultare antitetici, come finora è stato, ma devono essere strettamente connessi poiché i prezzi che rischiamo di pagare per le disattenzioni contro l'ambiente tendono a divenire troppo elevati. Nel corso del vertice furono approvati due importanti documenti: l'Agenda 21, una sorta di elenco dei programmi e delle attività da intraprendere per la salvaguardia dell'ambiente nel 21° secolo, e la Convenzione quadro sul cambiamento climatico, un documento con la finalità di prevedere un impegno comune di tutti i paesi aderenti all'ONU per la protezione del clima. Va osservato che, nelle discussioni su questo secondo documento, non tutti i partecipanti al vertice erano in sintonia, ma si fronteggiavano sostanzialmente due punti di vista: i sostenitori del 'principio di precauzione' caldeggiavano l'adozione di provvedimenti immediati anche in assenza di certezze assolute sulla natura antropica del cambiamento del clima, mentre i sostenitori del 'principio di certezza scientifica' sostenevano, data l'onerosità degli interventi, l'opportunità di una fase di studio preliminare al fine di verificare che il cambiamento del clima sia effettivamente in corso e che dipenda dalle attività dell'uomo.
A livello politico, i paesi concretamente interessati alla prevenzione sembravano essere ben pochi: in realtà, solo quelli facenti parte dell'Unione Europea. Infatti, gli Stati Uniti e altri paesi sviluppati temevano di dover modificare il loro tenore di vita, riducendo o quanto meno limitando i consumi energetici, mentre i paesi in via di sviluppo ritenevano più opportuno dare la priorità allo sviluppo economico e quelli in fase di espansione vedevano minacciata la loro possibilità di crescita economica. Il risultato di questo confronto è stato un compromesso, per cui nella Convenzione sono stati enunciati solo principi, rinviando l'adozione di misure concrete a Conferenze delle parti e privilegiando, come si espresse in quell'occasione il segretario dell'ONU Boutros Ghali, "il massimo di partecipazione a scapito del massimo di impegni". La Convenzione, entrata in vigore nel nostro paese il 21 marzo 1994, prevede una serie di obblighi di tipo sia scientifico sia politico. Per il primo aspetto, l'impegno più rilevante dovrebbe consistere nello sviluppo di programmi nazionali di ricerca sul clima, con l'obiettivo di approfondire tutte le implicazioni del problema che, come si è visto, è di notevole complessità. Per il secondo aspetto, i paesi firmatari devono adottare provvedimenti volti a ridurre le emissioni di gas serra. A questo scopo è prevista anche una più intensa collaborazione con i paesi in via di sviluppo, in termini di redistribuzione di risorse, di formazione e di trasferimenti tecnologici. La fase di incertezza negoziale sulla riduzione delle emissioni è stata superata nel vertice di Kyoto del 1997, in cui tutti i paesi sviluppati, Stati Uniti inclusi, hanno preso l'impegno di diminuire, entro il 2010-12, le emissioni di gas serra del 5% rispetto ai livelli del 1990. Ma ancora nella Conferenza internazionale sul clima, tenutasi all'Aia nel novembre 2000, sono emerse sostanziali divergenze sui metodi attraverso i quali può essere raggiunto questo obiettivo.
Conclusioni
Il problema dell'effetto serra e delle sue conseguenze sui mutamenti climatici può quindi essere preso in esame sotto diversi punti di vista.
Anzitutto, vi sono le certezze scientifiche, sulle quali basare le nostre analisi: esiste un effetto serra naturale, che fino a oggi è stato benefico perché ha consentito lo sviluppo e l'evoluzione del pianeta nelle forme che conosciamo; l'effetto tende a intensificarsi perché è aumentata in misura consistente, a partire dall'epoca della rivoluzione industriale, la concentrazione dei gas che lo provocano (gas serra); l'analisi dei dati mette in evidenza un innalzamento della temperatura media planetaria: tale fenomeno, pur essendo in linea con le ipotesi degli scenari climatici, non consente tuttavia di trarre conclusioni definitive poiché potrebbe rientrare nella normale variabilità del clima.
In secondo luogo, si possono fare alcune previsioni, basate sulle certezze scientifiche e sull'esame dei dati raccolti: la concentrazione dei gas serra è destinata ad aumentare in misura sempre crescente e dovrebbe risultare raddoppiata alla metà del 21° secolo, a meno che non vengano adottati provvedimenti di riduzione delle emissioni; a causa del potenziamento dell'effetto serra si registrerà un aumento di temperatura compreso tra 1,5 e 3,5 °C, con conseguente variazione del clima planetario; come effetto della variazione del clima, si verificheranno cambiamenti sul piano fisico, geomorfologico e ambientale, con danni economici ingenti e impatto sulla popolazione: particolarmente rischioso potrebbe essere l'innalzamento del livello del mare. Infine, è necessario esaminare i provvedimenti da adottare per contenere i danni ambientali e climatici: fissare dei limiti per le emissioni di gas serra; sviluppare tecnologie innovative, che consentano uno sviluppo economico compatibile con la salvaguardia dell'ambiente; sostenere dal punto di vista finanziario e tecnologico i paesi in via di sviluppo; realizzare un sistema di monitoraggio che consenta una sorveglianza continua e affidabile del clima e dei parametri che lo rappresentano; promuovere studi e ricerche per comprendere meglio i processi chimico-fisici alla base del sistema climatico, in modo da migliorare la qualità e l'attendibilità delle previsioni. Qualche anno fa l'Organizzazione meteorologica mondiale pubblicava i dati relativi all'incidenza degli eventi catastrofici naturali e ai danni da essi provocati, soprattutto in termini di vite umane (tab. 5).
Tabella 5
Questi dati evidenziavano in modo netto come, tra le catastrofi naturali, quelle legate al clima fossero di gran lunga le più perniciose. Tenuto conto delle tendenze climatiche attuali, che implicano un'intensificazione degli eventi estremi, dovremmo sicuramente guardare al futuro con grande preoccupazione. Tuttavia, sembra esservi in questi ultimi tempi un motivo di maggior ottimismo: dopo il vertice di Kyoto e la Conferenza dell'Aia, tutti i paesi sembrano aver acquisito una maggiore consapevolezza del problema ed essersi convinti della necessità di pervenire a una riduzione delle emissioni di gas serra. Soltanto con un impegno comune avrà senso, infatti, l'adozione di strategie di risposta in grado di evitare o di ridurre i rischi, perché il cambiamento del clima è un processo globale che coinvolge tutte le popolazioni della Terra.
Il monitoraggio del clima
Il clima è tradizionalmente definito come la media degli stati del tempo meteorologico. Una valutazione degli eventuali cambiamenti climatici può essere effettuata soltanto attraverso una raccolta di dati, dalla cui analisi si possono evidenziare le variazioni avvenute nel corso del tempo. In altri termini, occorre attuare un continuo e attento monitoraggio, cioè un complesso di rilevamenti che possono venire raggruppati in tre principali ambiti: rilevamento in superficie e in quota dei parametri che caratterizzano lo stato fisico dell'atmosfera; misurazione della concentrazione dei costituenti atmosferici minori, con particolare riguardo ai gas a effetto serra; controllo delle altre componenti del sistema climatico (idrosfera, criosfera, litosfera, biosfera) in modo da individuare segnali che possano essere indicativi di un cambiamento in atto.
La base osservativa di questi rilevamenti è la stessa usata in meteorologia. I parametri oggetto di rilevazione, pertanto, sono: la radiazione solare, la pressione barometrica, la temperatura e l'umidità dell'aria, la copertura del cielo, le precipitazioni, l'intensità e la direzione del vento. Le procedure di osservazione sono standardizzate, nel senso che in tutte le stazioni di rilevamento le misurazioni devono essere effettuate con gli stessi criteri e gli strumenti devono operare con determinate precisioni e devono essere esposti rispettando condizioni ben stabilite. I criteri da adottare nell'installazione degli strumenti e nell'esecuzione delle misurazioni sono numerosi e complessi: le relative norme, emanate a cura dell'Organizzazione meteorologica mondiale, occupano infatti un intero volume, soggetto a continui aggiornamenti. Nella tab. 2 sono riportate in forma riassuntiva le indicazioni relative ai parametri citati.
Tabella 2
Considerando gli aspetti generali della normativa, va ricordato che le misurazioni debbono essere eseguite in tutte le stazioni del globo alle stesse ore, che corrispondono alle 00.00, 06.00, 12.00, 18.00 TMG (tempo medio di Greenwich); sono anche raccomandate, ove possibile, le misurazioni alle ore intermedie 03.00, 09.00, 15.00, 21.00. Queste stazioni sono definite sinottiche perché la raccolta di tutte le informazioni avviene simultaneamente; ciò consente di avere una visione globale dello stato dell'atmosfera.
Per quanto riguarda i singoli strumenti, ricordiamo che il piranometro deve essere esposto perfettamente in piano e senza ostacoli vicini; gli altri apparati (termometro, igrometro e barometro) vanno inseriti in una capannina meteorologica che deve avere la base a 2 m dal suolo al di sopra di una zona erbosa ed essere aperta verso nord, per evitare che la radiazione solare, incidendo sugli strumenti, possa alterare le misurazioni. La copertura del cielo viene eseguita solo nelle stazioni gestite da specialisti, in quanto è effettuata a vista: si tratta ovviamente di una valutazione la cui attendibilità dipende dall'esperienza dell'operatore. Attualmente queste stime tendono tuttavia a essere abbandonate, a vantaggio dei rilevamenti compiuti da satellite. Per effettuare le misurazioni delle precipitazioni e del vento, infine, va accuratamente evitata la presenza di ostacoli di qualsiasi tipo, che potrebbero influire, nel primo caso, sulla quantità di acqua che finisce nel pluviometro e, nel secondo caso, sull'anemometro, che potrebbe dare valori alterati sia della direzione sia della velocità del vento. Oltre che in superficie, i parametri atmosferici vengono rilevati anche in quota, mediante i radiosondaggi. Questi si effettuano lanciando due volte al giorno, alle ore 00.00 e 12.00, un pallone gonfiato con elio e munito di una sonda con sensori di pressione, temperatura e umidità; a mano a mano che il pallone sale, la sonda trasmette a una stazione ricevente a terra i dati dei vari parametri meteorologici rilevati. Inoltre il pallone, che arriva a oltre 30 km di altezza, viene seguito da un radar; essendo la velocità ascensionale di 5 m/s più o meno costante, dalla misurazione degli angoli si può risalire alla velocità orizzontale del vento alle varie quote. Attualmente nel mondo esistono circa 10.000 stazioni sinottiche, che effettuano oltre 30.000 osservazioni al giorno per i dati in superficie; per le misurazioni in quota sono operative circa 900 stazioni, con un totale di 1400 rilevamenti quotidiani. Anche se queste cifre possono sembrare elevate, in realtà esistono ampie zone della superficie terrestre dove i dati sono insufficienti: gli oceani, le zone impervie di montagna, le aree polari, i deserti. Per gli oceani si cerca di sopperire con le osservazioni effettuate dalle navi militari o mercantili, anche se non sempre i dati raccolti sono completamente attendibili.
Le osservazioni, una volta usate per le analisi e le previsioni meteorologiche, possono essere inserite in banche dati e utilizzate per studi di climatologia. Per questi ultimi sono di grande utilità altre raccolte di dati, anche se non rilevati con i criteri prima descritti, purché rappresentativi di almeno un trentennio di osservazioni e affidabili dal punto di vista della qualità.
Un contributo determinante al miglioramento delle osservazioni è venuto dalla messa in orbita dei satelliti meteorologici che, con i loro apparati, consentono di raccogliere informazioni in tutte quelle regioni in cui è difficile impiantare e gestire reti di rilevamento. Dal lancio del primo TIROS (Television infra red observation satellite) nel 1963, la tecnologia è molto progredita e attualmente esistono due tipi di satelliti meteorologici: quelli geosincroni e quelli eliosincroni.
I satelliti geosincroni sono detti anche geostazionari, perché la loro orbita è studiata in modo che occupino sempre la stessa posizione rispetto alla superficie terrestre: per ottenere ciò, essi devono ruotare a una quota di 36.000 km e di conseguenza la loro utilizzazione è limitata alla ripresa di immagini dei sistemi nuvolosi mediante telecamere operanti nelle bande visibile e infrarossa dello spettro luminoso. Questi dati sono di grande aiuto per le previsioni: dato che le immagini vengono trasmesse ogni 30 minuti, in base allo spostamento delle nuvole si può, infatti, valutare meglio il movimento delle perturbazioni e, al tempo stesso, ottenere indicazioni sull'andamento del vento. Attualmente sono in orbita cinque satelliti geostazionari, che assicurano la copertura dell'intero globo terrestre.
I satelliti eliosincroni si muovono invece su un'orbita polare bassa, a una distanza di circa 800÷1000 km dalla Terra. Questi satelliti hanno lo svantaggio di muoversi rispetto alla superficie terrestre, ma in compenso la risoluzione degli strumenti ottici montati a bordo risulta molto più alta di quella dei satelliti geosincroni: essi possono quindi effettuare rilevamenti che gli altri satelliti non sono in grado di fare. Infatti, è possibile installare a bordo anche radiometri per ricavare i profili verticali di temperatura e umidità, consentendo quindi la raccolta di dati utili in tutte quelle zone che, come si è detto, risultano in altro modo difficilmente accessibili.
Per quanto concerne il controllo delle concentrazioni dei gas serra, esiste a livello mondiale una rete di rilevamento nelle cui stazioni viene effettuato il monitoraggio secondo regole e procedure fissate a livello internazionale. Va osservato al riguardo che, mentre per i parametri fisici occorre un numero elevato di stazioni, per i costituenti chimici basta un numero limitato di punti di rilevamento, in quanto le concentrazioni di questi gas sono uguali su tutta la superficie terrestre.
Ultimo, ma non di minore importanza, è il controllo di tutte le altre componenti del sistema climatico. Innanzi tutto la crescita della temperatura, che si riflette, per es., sull'innalzamento del livello del mare: questo parametro viene rilevato attraverso la rete mareografica mondiale, dai cui dati è emerso un aumento del livello marino di circa 15 cm nell'ultimo secolo. Un altro parametro dipendente dalla temperatura è l'estensione dei ghiacciai, sia alpini sia polari. Per quelli alpini il controllo si può eseguire in loco, confrontando l'estensione attuale con quella rilevabile nei secoli o nelle decine di anni precedenti. Anche per i ghiacciai polari si può effettuare un bilancio di massa per evidenziare eventuali variazioni. In ogni caso il metodo migliore per verificare questi andamenti è il controllo da satellite. Per queste osservazioni risultano utili i sensori a microonde, impiegati anche per il rilevamento dei sistemi nuvolosi e delle precipitazioni. Attraverso i satelliti, inoltre, è possibile esaminare le modifiche all'assetto del territorio, come per es. la deforestazione, che possono avere un impatto diretto sui cambiamenti climatici.
Il controllo del clima implica dunque un notevole impegno a livello mondiale. Gli esperti del settore concordano sulla necessità di incrementare tale impegno perché soltanto un'ampia e solida base di dati sperimentali affidabili può consentire di migliorare le previsioni del futuro climatico e dare certezza alla valutazione di un possibile cambiamento.
L'organizzazione della meteorologia
Come si è visto, la raccolta dei dati meteorologici deve seguire regole ben precise: a dettare queste regole è l'Organizzazione meteorologica mondiale che fu creata come agenzia delle Nazioni Unite negli anni successivi alla Seconda guerra mondiale. Essa è l'erede dell'Organizzazione meteorologica internazionale fondata a Vienna nel 1878.
Il processo di sviluppo della cooperazione per la meteorologia è tuttavia ben più antico e risale alla metà del 17° secolo, allorché venne fondata a Firenze, presso la corte del granduca di Toscana Ferdinando II, l'Accademia del Cimento. Questa istituzione, formata essenzialmente da discepoli di Galileo Galilei, si dedicava agli studi sperimentali, come annuncia lo stesso motto "provando e riprovando". Tra i suoi oggetti di ricerca rientrava anche l'atmosfera. Proprio ai membri dell'Accademia si deve la realizzazione dei primi strumenti di misurazione: oltre al barometro, ideato da Evangelista Torricelli, agli accademici va attribuito il merito di avere messo a punto anche i primi termometri, i primi pluviometri e i primi igrometri. In virtù di questa capacità tecnica, la corte del granduca propose nel 1654 la creazione di una vera e propria rete di rilevamento, formata da stazioni ubicate in Italia e all'estero. Tutti gli strumenti di cui erano munite le stazioni provenivano da Firenze, realizzati dagli stessi artigiani, applicando gli stessi criteri. La rete funzionò soltanto per un decennio circa, tuttavia lasciò in eredità alla comunità scientifica dell'epoca alcuni principi validi ancora oggi, quali l'uniformità degli strumenti di misurazione e la standardizzazione delle modalità di esposizione e delle procedure per l'esecuzione dei rilevamenti.
Prosecutrice dell'opera degli scienziati fiorentini fu la Meteorologica Societas Palatina: creata nel 1781 a Mannheim presso la corte del principe elettore Carlo Teodoro, realizzò la prima rete di rilevamento in Europa, coinvolgendo trentanove osservatori che coprivano l'intero continente, dal Mare Artico al Mediterraneo e dall'Oceano Atlantico agli Urali. Anche la Societas forniva strumenti e indicazioni circa la loro esposizione, l'ora di misurazione e l'esecuzione delle osservazioni. Tutti i dati dovevano convergere a Mannheim dove, dopo un'accurata revisione da parte del segretario della Societas, Jacob Hammer, venivano pubblicati nelle Ephemerides Meteorologicae Societatis Palatinae. Questi volumi rappresentano il primo esempio di banca dati e costituiscono una raccolta preziosa per lo studio climatico della fine del 18° secolo. La rete rimase attiva fino al 1791, quando il Palatinato fu invaso dai francesi e si interruppero tutte quelle attività che, nella seconda metà del Settecento, avevano reso Mannheim un polo di attrazione per tutta la cultura europea.
Accanto alle misurazioni strumentali, altri contributi agli studi dell'atmosfera derivarono dalle osservazioni effettuate dai velieri nelle loro navigazioni. L'intensificarsi delle traversate comportò la necessità di ridurre i tempi di viaggio e nello stesso tempo di accrescere la sicurezza della navigazione. Oggetto di particolare attenzione furono gli alisei, o venti del commercio (trade winds), il cui studio condusse alle prime teorie della circolazione generale dell'atmosfera. Di pari passo crebbe l'esigenza di scambio delle informazioni meteorologiche. L'invenzione del telegrafo da parte di Samuel Morse (1835) rese possibili la trasmissione dei dati in tempo reale e la loro confluenza in un'unica sede in cui effettuare le analisi e le previsioni. Sull'esempio dell'America, dove la prima rete di rilevamento era nata nel 1849, cominciarono a sorgere in quasi tutti i paesi veri e propri servizi meteorologici. L'approfondimento degli studi mise in evidenza il vantaggio che sarebbe derivato ai vari centri prognostici dallo scambio di informazioni. Malgrado tale esigenza fosse avvertita da tempo, fu solo a causa di un evento bellico che si raggiunse un accordo in tal senso. Il 14 novembre 1854, durante la guerra di Crimea, una violenta tempesta abbattutasi su Balaklava provocò l'affondamento di molte navi della flotta franco-inglese. L'astronomo Urbain-Jean-Joseph Le Verrier, incaricato di studiare l'evento, giunse alla conclusione che esso sarebbe stato facilmente previsto se si fosse organizzato un servizio a livello internazionale e si fossero quindi conosciuti per tempo i dati. Sotto la spinta di questi fatti si svolse a Lipsia nel 1872 il primo Congresso internazionale di meteorologia, che pose le basi per la creazione, nel 1878, dell'Organizzazione meteorologica internazionale.
Anche in Italia, dove esistevano numerosi osservatori meteorologici, si svilupparono iniziative per promuovere la creazione di un Servizio nazionale, che fu fondato presso il Ministero dell'Agricoltura nel 1876 come Servizio reale di meteorologia, appoggiato all'osservatorio del Collegio Romano diretto da padre Angelo Secchi. Questi era un valente astronomo ed esperto di meteorologia (negli Stati Uniti aveva a lungo collaborato con il comandante di marina Matthew Maury, all'epoca uno dei massimi esperti del settore). Vale la pena ricordare che padre Secchi vinse la medaglia d'oro all'Esposizione universale di Parigi del 1867 per la realizzazione del meteorografo, una prima versione di stazione meteorologica automatica.
Negli anni successivi lo sviluppo dell'Aeronautica evidenziò l'importanza della meteorologia per la pianificazione e la sicurezza dei voli; dopo la Prima guerra mondiale, con i progressi dell'Aviazione civile, il Servizio meteorologico (allora detto Servizio Presagi) venne trasferito al Ministero dell'Aeronautica (1925), che ne ha tuttora la competenza. Il servizio cura la raccolta dei dati sinottici, esegue in cinque stazioni i sondaggi in quota, tiene il collegamento con il Centro europeo per la previsione a medio termine, produce le previsioni su scale di tempo diverse e, infine, ha compiti di rappresentanza del nostro paese nei consessi internazionali. Oltre al servizio dell'Aeronautica militare, esistono altri due servizi a livello nazionale. Il primo appartiene all'Ufficio centrale di ecologia agraria; quale erede del primo servizio istituito in Italia, possiede serie secolari di dati, utilissime per gli studi sull'evoluzione recente (ultimi 100-150 anni) del clima italiano e mediterraneo. Il secondo appartiene al Servizio idrografico della Presidenza del Consiglio, che ha come finalità il controllo dei bacini idrografici e gestisce una rete di oltre 4000 stazioni termopluviometriche, cioè che rilevano soltanto temperatura e precipitazioni. Sono stati poi istituiti i servizi meteorologici regionali, con il compito di produrre analisi e previsioni per i diversi utenti nel territorio (operatori di agricoltura, industria, turismo), per i quali l'informazione meteorologica può contribuire in modo determinante al miglioramento delle attività.