Meteorologiche, previsioni
di Andrea Buzzi
Meteorologiche, previsioni
sommario: 1. Cenni storici. 2. I modelli numerici di previsione e l'avvento del calcolatore elettronico. 3. L'assimilazione dei dati. 4. Atmosfera e caos. 5. La previsione probabilistica e di ensemble. 6. La previsione meteorologica in Italia. 7. Prospettive: problemi da affrontare e miglioramenti attesi. □ Bibliografia.
1. Cenni storici
Lo sviluppo della meteorologia come scienza moderna risale alla metà del Seicento: l'invenzione del termometro, dell'igrometro a condensazione (attribuita al granduca di Toscana Ferdinando II de' Medici) e del barometro (a opera di Torricelli) permisero di iniziare le misurazioni delle variabili fondamentali dell'atmosfera (temperatura, umidità, pressione) che, assieme alla velocità e direzione del vento, ne definiscono lo stato e l'evoluzione. Ma un passo in avanti altrettanto significativo fu quello di progettare la costruzione, a partire dal 1654, di una rete di misurazione su scala europea. Tale iniziativa, che purtroppo ebbe vita breve, coglieva l'importanza di investigare la struttura spaziale dei sistemi meteo-climatici - che possiedono una scala orizzontale molto maggiore di quella osservabile da singole stazioni - mediante strumenti standardizzati. Si cercava dunque di superare i limiti derivanti dalle osservazioni locali che non fornivano, se prese singolarmente, indicazioni valide ai fini della previsione meteorologica.
Una vera e propria rete meteo-climatica su scala europea - con oltre una trentina di stazioni (e con l'aggiunta di una stazione americana) - venne ricostituita oltre cent'anni dopo, verso la fine del Settecento, e benché anche questa iniziativa abbia avuto vita breve, tuttavia essa pose le basi per gli sviluppi della meteorologia sinottica del secolo successivo, quando l'invenzione del telegrafo permise finalmente uno scambio di dati in tempo reale e quindi la stesura delle prime carte sinottiche. Su di esse i dati meteorologici vennero posti in forma grafica mediante simboli e linee, quali isoterme e isobare, che gradualmente consentirono di riconoscere le configurazioni spaziali dei sistemi meteorologici (come i cicloni e gli anticicloni delle medie latitudini) associandovi 'tipi di tempo' caratteristici ed evidenziandone evoluzione e percorso. Le prime basi della previsione operativa si fondarono pertanto sulle nozioni empiriche dell'esistenza di sistemi sviluppati su scale spaziali dell'ordine di mille o più chilometri, in spostamento progressivo da una regione all'altra (spesso, ma non sempre, da ovest verso est) con velocità di circa 30-40 chilometri orari, e con evoluzione delle loro strutture su tempi caratteristici da un giorno a qualche giorno. Il metodo base della previsione sinottica consisteva quindi nell'identificazione dei sistemi meteorologici attivi e del tempo meteorologico a essi associato, e in una stima della loro velocità e direzione di spostamento: si effettuava in pratica un'estrapolazione grafica al giorno successivo.
Tra il Settecento e l'Ottocento furono posti i principî e definite le leggi della fisica classica che, a partire dalla dinamica dei fluidi, vennero gradualmente applicate - dopo la metà dell'Ottocento - allo studio della dinamica dell'atmosfera terrestre, permettendo la nascita della meteorologia dinamica come branca che si occupa di interpretare la circolazione atmosferica e i suoi moti alle diverse scale, da quella planetaria a quelle locali. A questo approccio più teorico si affiancava lo sforzo dei meteorologi sperimentali-osservativi nell'organizzare reti di misurazione sempre più vaste, nell'interpretare le carte del tempo e i fenomeni che su di esse si andavano evidenziando - innanzi tutto i cicloni - e nel cercare nuove regole e norme, ancora in buona parte empiriche ma corroborate dall'applicazione, sia pur parziale e approssimata, delle leggi fisiche. Finché nel 1904 il norvegese Vilhelm Bjerknes - il quale aveva contribuito a sviluppi fondamentali della meteorologia che mettevano in evidenza la stretta connessione esistente in atmosfera tra gli aspetti dinamici e quelli termodinamici - enunciò con chiarezza il principio, che si considera alla base della moderna previsione meteorologica, secondo cui la previsione del tempo costituisce un problema fisico ai valori iniziali. Tuttavia, poiché le leggi del moto consistono in un sistema di equazioni non lineari alle derivate parziali - per le quali non si disponeva (né si dispone tuttora) di soluzioni generali analitiche - le tecniche usate per la previsione meteorologica operativa per molti decenni ancora si svilupparono non secondo i principî fisico-matematici, bensì nell'ambito della meteorologia sinottica, che nel frattempo compiva progressi notevoli soprattutto per merito della Scuola norvegese di Bergen, fondata dallo stesso Bjerknes (v. meteorologia, vol. IV). I metodi della meteorologia sinottica non sono estranei alla meteorologia dinamica, ma pongono l'accento sul riconoscimento di strutture o sistemi relativamente coerenti nello spazio e nel tempo che si succedono nelle carte del tempo, definendo in tal modo modelli concettuali delle strutture tipiche (cicloni, anticicloni, fronti, uragani, ecc.) rilevabili dall'analisi delle osservazioni. La previsione con questo metodo si basa sul fatto che tali sistemi presentano analogie di comportamento con quelli rilevati in casi precedenti, per cui diventa fondamentale l'esperienza del previsore: su questa, infatti, egli fonda la sua abilità nel riconoscere i precursori dei cambiamenti meteorologici. Tale metodo, tuttora utile se affiancato ai metodi modellistici, mostra però i suoi limiti dove e quando nuovi sistemi nascono o si estinguono rapidamente.
2. I modelli numerici di previsione e l'avvento del calcolatore elettronico
In meteorologia, così come anche in altre scienze, accade spesso che scoperte fondamentali - o almeno l'individuazione innovativa della via da percorrere - avvengano ben prima che sia possibile applicarle in pratica, di solito a causa di limiti di natura tecnica. Lewis F. Richardson, tra il 1916 e il 1922, riprendendo la via proposta da Bjerknes e partendo da osservazioni meteorologiche di un dato giorno sull'Europa, effettuò il primo tentativo di previsione meteorologica con uno schema numerico: le equazioni differenziali furono convertite in un sistema di equazioni algebriche alle differenze finite, dopo aver individuato una opportuna griglia di punti che approssimava il continuo del fluido atmosferico cui veniva attribuito un numero finito di variabili definite solamente sui punti (o nodi) della griglia medesima. Il tentativo di Richardson fallì per due ragioni: la prima era dovuta, come riconosciuto dallo stesso autore, all'insufficiente precisione dei dati relativi al vento; la seconda ragione fu chiarita in seguito (nel 1928) dai matematici Richard Courant, Kurt Otto Friedrichs e Hans Lewy, i quali stabilirono la condizione (nota come condizione CFL, dalle iniziali dei loro nomi) sul passo temporale Δt da utilizzare per integrare nel tempo le equazioni alle differenze finite, in funzione del passo spaziale Δx (distanza tra i nodi della griglia): Δt 〈 Δx/V. Quanto più piccolo è Δx (vale a dire, quanto migliore è la risoluzione spaziale della griglia che approssima il fluido continuo), tanto più piccolo deve essere Δt (e quindi più elevato il numero di calcoli da eseguire). V rappresenta il valore massimo tra la velocità del fluido (il vento, nel caso dell'atmosfera) e la velocità di propagazione delle onde all'interno del fluido stesso. Le onde più veloci nell'atmosfera sono quelle sonore. Pertanto, a meno che non si utilizzi un sistema di equazioni filtrato - ossia che elimini a priori questo o altri tipi di onde che non influenzano direttamente l'evoluzione dei fenomeni meteorologici - il passo temporale occorrente nel caso, ad esempio, di un Δx di 50 km (all'incirca quello utilizzato negli attuali modelli globali) è di un paio di minuti soltanto (in realtà è ancora inferiore se si considera il vincolo imposto dalla spaziatura Δz tra i livelli nella verticale). Se la condizione CFL non è soddisfatta, si va incontro a una instabilità dell'algoritmo che comporta una totale perdita di significato della soluzione, ed è appunto questo che capitò a Richardson. I calcoli che sarebbero stati necessari per effettuare una previsione utile erano di numero talmente elevato che nemmeno il servizio meteorologico numerico (la 'fabbrica del tempo') immaginato da Richardson, costituito da decine di migliaia di persone addette a effettuare simultaneamente i calcoli sotto la supervisione di un coordinatore, avrebbe potuto assolvere tale compito.
La prima vera previsione meteorologica numerica poté pertanto vedere la luce solo con l'avvento dei primi calcolatori elettronici. Questo fu possibile nel 1950 - grazie agli sforzi congiunti dei meteorologi Jule Charney e Ragnar Fjørtoft e del matematico Johann von Neumann (v. Charney e altri, 1950) - mediante il primo calcolatore elettronico ENIAC, sviluppato nel 1946 negli Stati Uniti. Nel frattempo Charney aveva elaborato - a partire dal lavoro precedente di Carl Gustaf Rossby sulla dinamica delle onde planetarie e sulla conservazione della vorticità assoluta - un sistema di equazioni dei moti atmosferici, detto 'quasi geostrofico', alquanto semplificato rispetto alle equazioni cosiddette 'primitive' (anche in termini di riduzione del numero di variabili) e in grado di 'filtrare' le onde veloci (sonore e di gravità). L'approssimazione quasi geostrofica si basa sull'ipotesi, valida per i moti su grande scala, di un 'quasi equilibrio' tra il gradiente della pressione e la forza di Coriolis. Il sistema di Charney è economico ai fini del calcolo, ma nello stesso tempo efficace, in quanto in grado di descrivere gli aspetti fisici importanti che determinano l'evoluzione del tempo meteorologico su scale spaziali dai 1.000 km in su. In questo primo esempio di previsione basata esclusivamente su leggi fisiche si pronosticava il campo di geopotenziale al livello della superficie isobarica di 500 hPa (a circa 5.500 m di quota) sull'emisfero nord. Da allora gli avanzamenti cui si è assistito hanno beneficiato in misura comparabile dei progressi tecnici nel settore del calcolo e di quelli scientifici nel settore della meteorologia dinamica e numerica. Non va tuttavia dimenticato l'apporto, altrettanto importante, del miglioramento delle osservazioni su scala globale, soprattutto grazie alla rete di radiosondaggio, basata su palloni sonda lanciati a intervalli di 12 ore. Questa rete di misure, a partire dagli anni quaranta, ha consentito un costante monitoraggio della circolazione planetaria alle diverse quote, fino ai 15-20 km di altezza (troposfera e bassa stratosfera), permettendo ad esempio di evidenziare le caratteristiche delle correnti a getto e la loro importanza per la previsione a breve termine. A tale proposito, si precisa che, convenzionalmente, una previsione meteorologica è definita a brevissimo termine se l'anticipo è fino a 12 ore (per periodi inferiori a 3-4 ore si parla di nowcasting, basato essenzialmente su tecniche di estrapolazione delle osservazioni); è invece detta a breve termine se l'anticipo è compreso tra le 12 e le 48 ore; e infine a medio termine se l'anticipo è compreso tra 2-3 giorni e 10 giorni. Oltre tale lunghezza, si parla di previsione a lungo termine, non effettuabile con metodi prevalentemente deterministici (v. sotto, capp. 4 e 5).
La previsione meteorologica negli ultimi decenni ha beneficiato dunque di un notevole perfezionamento dei modelli, che è andato di pari passo con l'aumento della potenza di calcolo. Si è passati dai modelli 'barotropici', nei quali si considera un solo livello medio di atmosfera, a modelli 'baroclini' multilivello (operativi dal 1955), che permettono di descrivere il principale meccanismo alla base dell'insorgenza delle perturbazioni atmosferiche, ossia l'instabilità baroclina, la quale fa sì che l'energia associata al gradiente termico meridionale sia trasformata in quella dei vortici a grande scala (1.000-3.000 km) delle medie e alte latitudini. Si dovettero attendere tuttavia gli anni sessanta perché le previsioni numeriche iniziassero ad avere un'importanza pratica nella meteorologia operativa, affiancandosi e quindi progressivamente sostituendosi in buona parte ai metodi sinottici tradizionali. A partire dalla fine degli anni cinquanta - per opera di Karl-Heinz Hinkelmann in Germania e di Norman Phillips negli Stati Uniti - sono state gradualmente abbandonate le equazioni filtrate per passare alle equazioni primitive, molto simili a quelle utilizzate da Richardson ma più accurate, specie per descrivere i moti atmosferici a scale inferiori ai 1.000 km, anche se più costose da risolvere in termini di tempo di calcolo. Nel corso degli anni sessanta i modelli sono diventati globali e l'uso delle equazioni primitive ha permesso di iniziare a sperimentare previsioni numeriche per la fascia intertropicale. Lo sviluppo graduale della previsione meteorologica numerica si è realizzato di pari passo con il raffinamento delle tecniche di soluzione delle equazioni, ad esempio per rendere più precisa ed economica la trattazione dei termini di avvezione o per eliminare le instabilità che possono rendere inefficaci i metodi di integrazione temporale. Nuove tecniche di discretizzazione del continuo, alternative all'uso di griglie numeriche, quali ad esempio i metodi spettrali o agli elementi finiti, sono state inoltre introdotte nei modelli numerici. Con questi metodi, la struttura spaziale dei campi delle variabili da descrivere è definita mediante funzioni valide su tutto il dominio (metodo spettrale: si usano in genere funzioni periodiche quali seni e coseni o armoniche sferiche) o valide a tratti, su tante piccole porzioni distinte del dominio stesso (metodo agli elementi finiti).
Al fine di estendere la previsione oltre i primi 2-3 giorni, ma anche di aumentarne l'accuratezza a breve termine, i modelli meteorologici, che inizialmente descrivevano solamente la dinamica di un fluido adiabatico, sono stati via via corredati di schemi tesi a simulare numericamente un elevato numero di processi della fisica dell'atmosfera. Si tratta in alcuni casi di veri e propri modelli aggiuntivi, quali quelli dedicati a rappresentare gli scambi turbolenti, specie vicino alla superficie terrestre (strato limite atmosferico); gli effetti del suolo, inclusa l'orografia terrestre, e della superficie marina; i processi del ciclo dell'acqua con i cambiamenti di stato nell'atmosfera associati alla formazione delle nubi e delle diverse forme di precipitazione liquida e solida (idrometeore); la convezione associata alla formazione di nubi cumuliformi e temporali; gli scambi radiativi che includono la radiazione solare visibile e quella infrarossa. Per i processi sopra elencati si parla in genere di 'parametrizzazione', intendendo con questo termine una rappresentazione mediante relazioni semplificate degli effetti di processi fisici le cui scale spaziali sono intrinsecamente più piccole di quella del passo di griglia dei modelli, e che quindi non possono essere trattati nello stesso modo esplicito con cui sono trattati i termini del moto su grande scala. In altre parole, le parametrizzazioni sono volte a definire delle relazioni aggiuntive tra le variabili esplicite del modello definite sui punti della griglia e la loro evoluzione temporale in funzione di effetti fisici non 'risolti', ossia non descrivibili se non con una griglia molto più fine e spesso anche introducendo nuove e più complesse equazioni. Si pensi ad esempio agli effetti della turbolenza che si crea nell'aria adiacente al suolo a causa del vento che interagisce con le rugosità della superficie o a causa dei moti verticali indotti dal riscaldamento solare: in tutti questi casi per descrivere tali processi occorrerebbe una griglia di qualche decina o al massimo un centinaio di metri di passo, non applicabile per ora a modelli globali o di grande scala.
Oltre alle parametrizzazioni dei processi non risolti dalla griglia, i modelli di previsione atmosferica devono essere corredati di schemi che descrivono gli scambi di massa (vapore) ed energia termica e meccanica con la superficie, rendendo quindi necessario 'accoppiare' il modello di atmosfera con modelli di suolo e di oceano. La componente descrittiva dei processi fisici del suolo deve tenere conto: della presenza di vegetazione, cui è associata l'evapotraspirazione; dell'eventuale copertura nevosa; delle diverse proprietà di capacità termica, contenuto idrico e conducibilità del terreno. Una buona descrizione dei processi del suolo è necessaria per la previsione di parametri quali l'umidità, la temperatura e il vento presso la superficie terrestre. Il modello marino può essere limitato a una descrizione della dinamica dello strato superficiale e delle onde, nel caso di previsioni a breve e medio termine. Data l'importanza dei processi alla superficie per quanto riguarda il ciclo dell'acqua, anche la previsione quantitativa della precipitazione risente dell'accuratezza dei modelli del suolo e del mare che devono far parte di un moderno modello meteorologico.
È utile a questo punto ricordare che il relativo successo delle prime previsioni meteorologiche numeriche - basate su modelli emisferici di bassa risoluzione spaziale e privi di componenti di modellistica del suolo e del mare - è dovuto al fatto che i moti meteorologici che dominano la circolazione atmosferica e la sua evoluzione a breve termine sono essenzialmente di grande scala, a causa dei vincoli dinamici introdotti sia dalla rotazione terrestre e dalla stratificazione dell'atmosfera alle medie latitudini, sia dalla distribuzione della forzatura radiativa, determinata da fattori astronomici, che impone in prima approssimazione un gradiente termico sviluppato in direzione meridionale. In altre parole, l'energia immessa nel sistema dalla radiazione solare si trasferisce solo per una frazione limitata sulle scale più piccole. D'altra parte, però, in conseguenza della disomogeneità della superficie terrestre e di processi come l'instabilità convettiva o l'interazione dei flussi con l'orografia, una parte dell'energia è direttamente immessa su scale piccole e si trasferisce, sia pur lentamente, alle scale grandi. Questa è una delle ragioni per cui i modelli meteorologici, dovendo utilizzare le parametrizzazioni dei processi non risolti dalla griglia e quindi incorrendo in errori inevitabili, sono soggetti a severi limiti per quanto riguarda l'intervallo di previsione utile. Per questo motivo nel corso degli anni è stata aumentata la risoluzione spaziale dei modelli meteorologici, ossia è stato diminuito il passo di griglia, passando, almeno per quanto riguarda i modelli globali, da intervalli di quasi 1.000 km agli attuali 40 km, con 50-60 livelli nella verticale. Se si considera che il numero di operazioni di calcolo necessarie (N) varia all'incirca proporzionalmente al numero di variabili (NV), al numero di livelli (NL), e in maniera inversamente proporzionale al quadrato del passo di griglia (Δx) e al passo temporale (Δt), il quale a sua volta è proporzionale a Δx per il vincolo di stabilità di CFL, ne risulta che:
N ~ NV • NL/(Δt • Δx2) ~ NV • NL/Δx3.
Considerando un fattore 20 di risoluzione orizzontale, un fattore 60 di risoluzione verticale (definita dal numero di livelli NL) e un fattore di circa 10 nel numero di variabili NV, se ne deduce che il rapporto tra il numero di operazioni effettuato negli attuali modelli globali e quello dei primi modelli (tranne quelli emisferici, con i quali si introdurrebbe un ulteriore fattore 3) è di circa 7 × 60 × 203 × 3 ≈ 9 × 106 (per un modello attuale, N ~ 5 × 107). La potenza di calcolo è nel frattempo passata da circa 1 kiloflop (mille operazioni in virgola mobile al secondo) dell'ENIAC (rallentato peraltro da un sistema di memorizzazione dei dati basato sulla perforazione meccanica di schede) a diverse centinaia di gigaflop (centinaia di miliardi di operazioni al secondo), ma con tecniche di calcolo parallelo estensivo degli attuali supercalcolatori utilizzati per la previsione meteorologica supera già il teraflop (mille miliardi di operazioni al secondo), con un fattore di aumento di circa 100 milioni. Questo significa che gli attuali modelli sono configurati per portare a termine una previsione in un tempo pari a circa un decimo rispetto a quello richiesto dai primi esperimenti. L'obiettivo è quello di realizzare una previsione in un tempo utile, per cui il calcolatore deve battere in velocità l'atmosfera. Mentre i primi modelli richiedevano operazioni che duravano una decina di ore per ciascuna previsione di 48 ore (includendo il tempo di acquisizione dei dati), oggi nei centri previsionali dotati di supercalcolatori paralleli - come il Centro Europeo di Previsione Meteorologica a Medio Termine (CEPMMT, o European Center for Medium-Range Weather Forecasts, ECMWF), situato a Reading, nel Regno Unito - con lo stesso tempo si effettuano molte previsioni di dieci giorni ciascuna. Si vedrà nel cap. 5 qual è la ragione per cui si preferisce effettuare un numero elevato di previsioni anziché investire tutte le risorse del calcolo in una sola previsione a risoluzione più elevata.
L'ECMWF, il più importante centro di meteorologia numerica, è stato fondato nel 1973 da diciassette paesi europei con lo scopo di effettuare previsioni a medio termine (fino a 7-10 giorni circa) mediante uno sforzo di cooperazione tecnica e scientifica multilaterale. Nel corso dei venticinque anni di operatività del centro si è assistito a un netto progresso nell'attendibilità e nell'allungamento del tempo utile della previsione meteorologica. Si può affermare che le previsioni attuali a tre giorni e mezzo di anticipo sono circa equivalenti, come attendibilità, a quelle a 24 ore effettuate all'inizio degli anni ottanta. Per apprezzare il progresso conseguito, si consideri che all'inizio degli anni ottanta una previsione utile arrivava a circa tre giorni, mentre ora si spinge a sei giorni; oppure che vent'anni fa una previsione a sei giorni era all'incirca altrettanto valida quanto la climatologia (ossia fondamentalmente inutile), mentre ora questo limite si è spostato a circa otto giorni. È importante notare che questo vale per l'emisfero nord (più ricco di osservazioni dell'emisfero sud) e per le medie latitudini, e che la qualità delle previsioni può variare considerevolmente da un giorno all'altro, specie se si considerano regioni specifiche del globo.
Si è accennato ai modelli globali, perché essi sono gli unici che consentono di effettuare previsioni oltre i due-tre giorni, date le forti interconnessioni che caratterizzano la circolazione su scala planetaria. Tuttavia, per aumentare ulteriormente la risoluzione su aree specifiche di interesse, effettuando, per così dire, uno zoom dinamico dove si intende raggiungere un migliore dettaglio, si ricorre ai modelli ad area limitata (LAM, Limited Area Model). Se infatti ci si limita a integrare le equazioni che determinano l'evoluzione dell'atmosfera su un volume parziale, è ovvio che a parità di tempo di calcolo si può sfruttare una griglia più fine. Pertanto i LAM vengono utilizzati soprattutto dai servizi meteorologici nazionali o regionali, ma richiedono, come condizioni al bordo del volume considerato, l'evoluzione delle variabili atmosferiche previste da un modello globale. In tal modo si possono effettuare previsioni operative fino a un passo di griglia dell'ordine dei 5-15 km. La tecnica di inserire griglie via via più fini permette di spingersi anche oltre, fino a passi di griglia di 2 o 3 km, ma su aree molto ristrette, il che comporta l'insorgere di problemi associati alla eccessiva limitatezza del dominio. Tuttavia, negli ultimi anni si è visto che la previsione quantitativa della precipitazione e quella di fenomeni legati, ad esempio, agli effetti dell'orografia e costieri (venti orografici, brezze, convezione) beneficiano fortemente dell'aumento di risoluzione. In Italia (v. sotto, cap. 7), il proliferare di servizi meteorologici regionali si è accompagnato all'uso di diversi modelli ad area limitata, soprattutto in seguito a episodi di tipo alluvionale che hanno spinto ad applicare metodi di previsione che permettessero una più precisa quantificazione delle precipitazioni intense. Se ci si vuole spingere oltre le pochissime ore consentite dai metodi basati essenzialmente sulle osservazioni dei sistemi precipitanti, lo strumento modellistico, benché imperfetto, è l'unico utilizzabile.
I LAM, dovendo consentire una risoluzione più elevata, utilizzano parametrizzazioni in genere diverse da quelle dei modelli globali ed equazioni che tengono conto di più aspetti, ad esempio descrivendo con maggiore dettaglio i fenomeni legati al ciclo dell'acqua e alla formazione delle idrometeore. Inoltre, per spingersi a passi di griglia inferiori ai 5 km è necessario abbandonare l'approssimazione idrostatica, che si adotta normalmente per i modelli su grande scala e che lega univocamente la variazione della pressione con la quota alla temperatura dell'aria. Si parla quindi di 'modelli non idrostatici', i quali, se operanti con risoluzioni di almeno un paio di km, permettono anche di 'risolvere' i fenomeni di convezione organizzata, evitando così di ricorrere a parametrizzazioni alquanto approssimative. A tal fine, devono anche essere in grado non solo di descrivere i rapidi processi di condensazione, ghiacciamento e produzione-trasformazione delle diverse forme di precipitazione liquida e solida che avvengono nelle nubi temporalesche, soggette a moti verticali fino a qualche decina di metri al secondo, ma anche di descrivere o parametrizzare almeno in parte gli effetti della turbolenza tridimensionale che si sviluppa nelle stesse nubi temporalesche o in altri fenomeni, come ad esempio le onde atmosferiche.
L'abbandono dell'ipotesi idrostatica comporta un costo aggiuntivo in termini computazionali, perché il sistema di equazioni non idrostatico descrive la propagazione di onde sonore, anche in direzione verticale, che pone severi limiti alla lunghezza del passo temporale, a causa della condizione CFL. In alternativa, si possono usare equazioni filtrate ('anelastiche') che richiedono però metodi di soluzione più complessi. In definitiva, i modelli non idrostatici vengono usati operativamente solo da poco, e tuttora a risoluzioni insufficienti a descrivere i fenomeni intensi di piccola scala, come ad esempio i temporali. Non si tratta tuttavia esclusivamente di limiti computazionali: come si accennerà nel cap. 3 e si riprenderà più in dettaglio nel cap. 6, emerge un problema relativo ai dati che dovrebbero fornire le condizioni iniziali per tali modelli.
3. L'assimilazione dei dati
La qualità di una previsione meteorologica a breve e medio termine dipende in maniera essenziale dall'accuratezza con cui viene definito l'istante iniziale, per quanto riguarda non solo l'atmosfera ma anche la superficie marina e il suolo. Si parte innanzi tutto dalla disponibilità di dati di osservazione che vengono raccolti in continuazione, tramite il sistema globale del World Weather Watch, grazie a reti di misurazione costituite dalle stazioni al suolo, dalle boe, dai sistemi di radiosondaggio con palloni, dagli aerei e dalle navi commerciali, dai satelliti orbitanti e geostazionari, dai radar meteorologici (v. fig. 3). Tutti questi dati devono concorrere a definire le variabili appropriate sui punti della stessa griglia del modello che sarà utilizzato per la previsione. La procedura impiegata a tale scopo è denominata 'analisi oggettiva' o, più in generale, 'assimilazione dei dati'; questa si riferisce in genere a uno schema in cui i dati raccolti entro un breve intervallo di tempo (circa due ore) da un certo istante prefissato vengono rielaborati mediante tecniche di interpolazione (la più comune è l'interpolazione ottimale, introdotta dal russo Lev S. Gandin nel 1963) che applicano criteri statistici e dinamici per determinare i valori delle variabili all'istante iniziale della previsione.
Si può dire, più in generale, che lo scopo dell'assimilazione dei dati è quello di produrre una rappresentazione tridimensionale (e di recente quadridimensionale) dello stato dell'atmosfera che sia regolare e in accordo con le leggi che ne determinano l'evoluzione; tutto questo a partire da osservazioni che campionano lo stato dell'atmosfera in maniera irregolare nello spazio e nel tempo. Il problema, in definitiva, è quello di ottenere uno stato completo dell'atmosfera pur partendo da un numero in genere insufficiente di osservazioni: sono necessarie pertanto informazioni aggiuntive, in genere costituite da un background field, che rappresenta la miglior stima dello stato del sistema all'istante considerato ('campo di prima scelta', o first guess), qualora nessuna osservazione sia disponibile per quell'istante. Da quando i modelli previsionali sono divenuti sufficientemente affidabili, il campo di prima scelta viene definito attraverso una previsione a breve termine (ad esempio di 6 ore), a partire da un istante iniziale precedente. La procedura di analisi viene ripetuta a intervalli regolari, estendendo l'informazione contenuta nelle osservazioni ai tempi precedenti e combinandola con quella relativa all'istante più recente.
La qualità del campo di prima scelta è molto importante - specie in aree dove i dati sono sparsi, come ad esempio sugli oceani - per la bontà dell'analisi e quindi della previsione susseguente. Scopo del sistema di assimilazione dei dati è quello di ottenere una stima dello stato dell'atmosfera all'istante di inizio della previsione che combini in maniera ottimale le osservazioni disponibili e lo stesso campo di prima scelta. Il sistema ciclico previsione-analisi-previsione - costituito dal modello meteorologico e dalle procedure di acquisizione e interpolazione dinamico-statistica dei dati - va visto come un tutt'uno: l'obiettivo della minimizzazione degli errori della previsione è strettamente legato a quello della minimizzazione degli errori dell'analisi (v. sotto, cap. 5).
Nel corso degli anni ottanta il problema dell'assimilazione dei dati è stato formalizzato in maniera più generale mediante la formulazione 'variazionale', che conduce a un problema matematico di minimizzazione di un funzionale molto complesso nell'applicazione meteorologica. Questa formulazione ha tuttavia consentito di estendere l'assimilazione dei dati alla dimensione del continuo temporale: non è più necessario, pertanto, definire un singolo istante di assimilazione, che consente l'utilizzo dei soli dati cosiddetti 'sinottici', riferibili a un piccolo intervallo di tempo attorno all'istante prescelto. Tale tecnica è chiamata 'analisi variazionale quadri-dimensionale': la sua applicazione - operativa da pochissimi anni e ancora limitata a pochi centri previsionali per il suo costo in termini sia di complessità di messa a punto, sia di calcolo - ha nondimeno reso possibile un salto qualitativo nell'utilizzo dell'informazione fornita da una grande varietà di sistemi osservativi, in precedenza non pienamente sfruttati. Questo riguarda soprattutto i dati da telerilevamento e da satellite: solo da pochi anni, infatti, le osservazioni dei satelliti meteorologici vengono utilizzate in maniera sostanziale per la previsione meteorologica numerica. L'ingente investimento richiesto per mettere a punto e rendere operativi i metodi moderni di assimilazione dei dati appare quindi giustificato dalla possibilità di sfruttare appieno gli ancora più costosi strumenti osservativi.
In definitiva, la pratica meteorologica contemporanea su scala globale va vista come un sistema integrato di grande complessità, in cui più modelli della circolazione atmosferica - assieme a modelli dell'oceano e dell'evoluzione del suolo (nelle loro porzioni superficiali) - operano in tempo reale in modalità di analisi e previsione, ricevendo di continuo i dati di osservazione, integrandoli in un unico insieme e fornendo più volte al giorno 'proiezioni future' (le previsioni meteorologiche) dello stato dell'intero sistema. Si potrebbe dire che, in tal senso, la meteorologia operativa ha anticipato i tempi della globalizzazione informatica e telematica, costituendo un prototipo di controllo di un sistema fisico globale di grande complessità, per il quale si effettua di continuo un processo largamente automatizzato di monitoraggio, diagnosi e prognosi.
4. Atmosfera e caos
Si definisce sistema dinamico deterministico un sistema dipendente dal tempo i cui stati successivi evolvono in funzione degli stati precedenti secondo leggi precise. Se gli stati del sistema sono definiti da un insieme X (detto vettore di stato) di variabili Xi (dove l'indice i varia da 1 al numero totale delle variabili, n), la legge evolutiva si può esprimere con: dX/dt = F(X(t)). Il termine a sinistra indica le derivate nel tempo (possono essere derivate parziali nel caso di un sistema fluido le cui leggi sono date da equazioni differenziali); F è un operatore che descrive l'insieme delle leggi evolutive del sistema, in generale funzioni non lineari delle variabili Xi (per un approfondimento, v. Lorenz, 1993).
La comprensione del comportamento dell'atmosfera (e non solo di questa) come sistema dinamico deterministico caotico si deve in larga misura agli studi del grande meteorologo Edward Lorenz. Verso la fine degli anni cinquanta del Novecento, Lorenz si cimentò al Massachusetts Institute of Technology con il problema della previsione meteorologica fondata su metodi statistici di regressione lineare: in quel periodo, infatti, si riteneva che questo metodo - basato sull'utilizzo di relazioni empiriche tra variabili (avendo a disposizione lunghe serie di osservazioni) - potesse competere sia con il metodo sinottico tradizionale (che è in un certo senso una forma di metodo statistico applicato soggettivamente), sia con i nuovi modelli dinamici. Per dimostrare i limiti di validità del metodo statistico, Lorenz costruì un modello molto semplificato della circolazione atmosferica, basato su 12 variabili spettrali (v. sopra, cap. 2) e 12 equazioni. Il modello costituiva un prototipo idealizzato di atmosfera, su cui mettere alla prova il metodo statistico. Per alcuni valori di certi parametri, tale modello portava a stati stazionari o periodici nel tempo, per i quali il metodo di previsione statistico funzionava perfettamente, ma che evidentemente non rappresentavano la complessità atmosferica. Tuttavia, per altri valori dei parametri le soluzioni nel tempo erano chiaramente aperiodiche, ossia irregolari, e il metodo statistico falliva nel prevederne l'evoluzione anche avendo a disposizione lunghe serie temporali ottenute dall'integrazione numerica. Ovviamente queste soluzioni erano quelle che, sia pur qualitativamente, meglio riproducevano l'irregolarità e comunque la non periodicità delle vicende del tempo meteorologico. Ma la proprietà che più colpì Lorenz (che aveva a disposizione un calcolatore elettronico grande come una scrivania e funzionante a valvole termoioniche che si potrebbe considerare un antenato del personal computer) fu la sensibilità alle condizioni iniziali: per quanto (numericamente) vicini siano due stati iniziali, inevitabilmente, nel caso di soluzioni irregolari, essi conducono in breve a stati molto diversi tra loro. Lorenz evidenziò la stretta associazione tra la sensibilità alle condizioni iniziali e il comportamento caotico in un lavoro presentato in un congresso a Tokyo nel 1960, e tre anni dopo pubblicò un secondo lavoro (v. Lorenz, 1963), questa volta basato su un modello di sistema dinamico ancora più semplice - costituito da tre equazioni in tre incognite - che descriveva non tanto la circolazione dell'atmosfera su grande scala, quanto un meccanismo di convezione, ossia il moto di un fluido riscaldato dal basso. Anche tale sistema, soggetto a forzatura e dissipazione (cioè con effetti di tipo 'attrito'), presentava un comportamento intrinsecamente caotico e mostrava sensibilità alle condizioni iniziali, nonostante il numero di variabili ('gradi di libertà') estremamente ridotto (una decina d'anni dopo verrà dimostrato che tre è, in effetti, il numero minimo di gradi di libertà che consente un comportamento caotico). La scoperta si è rivelata di portata fondamentale, ben al di là del campo della meteorologia: il caos non è necessariamente dovuto, come comunemente si riteneva in precedenza, a effetti casuali (stocastici) o comunque associati all'esistenza di un grandissimo numero di gradi di libertà, come nel caso del moto molecolare in un gas. Il comportamento caotico di un sistema deterministico è, piuttosto, una proprietà intrinseca, indipendente dalla casualità e dalla variabilità di un forzante esterno - che può anche essere costante o periodico - e strettamente associata alla sensibilità alle condizioni di partenza. Quest'ultima proprietà è a sua volta associata al concetto di impredicibilità: in pratica, non possiamo prevedere con esattezza, e oltre un certo intervallo di tempo, il comportamento di un sistema caotico dal momento che non ne possiamo conoscere con precisione infinita lo stato a un determinato istante, che definiamo istante iniziale.
Un'altra fondamentale proprietà dei sistemi dinamici forzati e con dissipazione, scelti da Lorenz per meglio comprendere le proprietà dinamiche dell'atmosfera, è quella di possedere un 'attrattore'. Per introdurre questo concetto in relazione al sistema atmosferico, partiamo dalla considerazione secondo la quale vi è ragione di ritenere che la circolazione atmosferica non si ripeta mai identicamente. È possibile che su determinate regioni si osservino 'tipi di tempo' tra loro simili, e in effetti questa proprietà di somiglianza è quella sfruttata dalla previsione con metodi sinottici, basati sull'esistenza di analogie tra diversi stati o configurazioni locali del sistema. Tuttavia, questo non avviene contemporaneamente su scala planetaria, e comunque anche su regioni limitate si avranno sempre piccole differenze locali, le quali faranno sì che due situazioni in apparenza anche molto simili evolvano successivamente in maniera decisamente diversa, limitando quindi a poco tempo (non oltre uno o due giorni) la validità della previsione basata sulle analogie. In termini più rigorosi, ciò equivale a dire che la circolazione atmosferica non è periodica ma caotica, nel senso del caos deterministico descritto sopra. Si può legittimamente ritenere che l'atmosfera sia anche soggetta a effetti di forzature esterne con componenti casuali. Questo dipende tra l'altro da come definiamo il sistema: potremmo comprendere in esso anche l'oceano, la criosfera (ghiacci) e la litosfera (terra solida). In tal caso, ad esempio, le eruzioni vulcaniche non sarebbero più da considerare effetti esterni casuali, ma continuerebbero a essere considerati tali gli effetti indotti dalla variabilità solare o quelli indotti dall'uomo, difficilmente riconducibili a un sistema fisico deterministico. In ogni caso, la gran parte, se non la quasi totalità, della variabilità meteorologica, ossia quella che ha luogo sulla scala di tempo dei giorni e delle settimane e che si vuole in definitiva prevedere, ha a che fare con il caos generato internamente all'atmosfera, il cui prototipo, come abbiamo visto, può essere descritto da un sistema con un numero di variabili enormemente inferiore a quello necessario per descrivere l'atmosfera stessa. E tuttavia, nonostante questa complessità, la dinamica atmosferica non assume se non un piccolissimo sottoinsieme degli stati teoricamente possibili secondo le equazioni del moto. Ad esempio, non osserviamo mai alle medie latitudini un'inversione totale del vento medio zonale, che soffia da ovest verso est, anche se possiamo osservare tali inversioni su regioni limitate per periodi limitati; analogamente, non assistiamo a fenomeni di inversione del gradiente medio meridionale di temperatura; né si verificano variazioni molto grandi della stabilità verticale dell'atmosfera, misurata dal profilo di temperatura in funzione della quota, e così via. Seguendo il ragionamento di Lorenz, si nota quindi empiricamente che l'atmosfera, nella sua evoluzione, descrive una successione di stati ('orbite'), il cui insieme complessivo, detto attrattore - peraltro non determinabile nella sua interezza - appare tuttavia molto limitato rispetto agli stati teoricamente possibili sulla base delle leggi fisiche elementari.
Sull'atmosfera non si possono eseguire esperimenti controllati, ma analoghi abbastanza realistici possono essere ottenuti tramite gli stessi modelli che si usano per le previsioni. Con uno di tali modelli si può, ad esempio, definire uno stato iniziale totalmente arbitrario, sia pure nel rispetto delle relazioni fondamentali tra le diverse variabili, lasciando poi evolvere il modello liberamente, soggetto solo a un forzante esterno e alla dissipazione interna. Ebbene, dopo una fase transiente che può durare anche abbastanza a lungo (un mese o più di tempo simulato), l'orbita tende a rientrare tra quelle consuete, ossia tra quelle appartenenti all'attrattore (che per il modello sarà magari diverso da quello dell'atmosfera che si vuole riprodurre). Il modello di convezione a tre componenti di Lorenz possiede esso stesso un attrattore, ma con proprietà geometriche frattali, che fu denominato quasi una decina d'anni dopo dal matematico francese David Ruelle 'attrattore strano'. La 'stranezza' di questo attrattore è strettamente legata al comportamento aperiodico, e quindi caotico, delle singole orbite. L'esistenza di un attrattore, pur implicando una notevole limitazione nelle configurazioni possibili del sistema, non aiuta a prevederne l'evoluzione.
La teoria scientifica del caos deterministico come paradigma universale di moltissimi fenomeni anche molto lontani dalla meteorologia, nonché la connessa teoria dei sistemi dinamici e dei frattali, hanno suscitato, come noto, un grandissimo interesse negli anni settanta e ottanta (le scoperte di Lorenz ebbero una grande risonanza ma con un ritardo di oltre dieci anni), e tuttora promettono fecondi sviluppi. Quello che spesso non è noto è però il ruolo giocato dal problema della previsione del tempo nel dare inizio a questo nuovo ramo della fisica e della matematica (con applicazioni vastissime: dalla chimica, all'ingegneria, alla biologia, alla medicina, ecc). Soltanto con lo sviluppo di questi strumenti concettuali si è potuta dare una risposta scientifica, peraltro ancora incompleta, all'antichissimo interrogativo del perché gli astri seguano (solitamente) leggi precise che consentono la previsione delle loro orbite con anni, decenni, secoli di anticipo e con una grande precisione, mentre non siamo in grado di prevedere, a volte nemmeno con poche ore di anticipo, l'evoluzione del mezzo in cui siamo immersi, l'atmosfera. Quali sono le differenze tra i due sistemi? La parte più sorprendente della risposta sta nel fatto che le discrepanze essenziali non risiedono tanto nella complessità degli elementi costitutivi dei due sistemi, ossia nel numero di variabili da considerare, quanto nella loro natura fisica intrinseca.
La storia della previsione meteorologica contemporanea, per quelli che sono gli aspetti non direttamente connessi con lo sviluppo dei modelli e dei sistemi osservativi, ha seguito in buona parte - almeno fino alla metà degli anni novanta - le idee sviluppate da Lorenz a partire dagli anni sessanta. Nel 1972, nel corso di una conferenza, Lorenz presentò quello che sarebbe successivamente diventato un famoso principio dagli aspetti apparentemente paradossali - noto come 'effetto farfalla' -, introducendolo con un celebre interrogativo: possono i battiti delle ali di una farfalla in Brasile scatenare un tornado nel Texas? Lorenz non dava una risposta perentoriamente affermativa, indicando che così come certe perturbazioni infinitesime possono effettivamente, in linea di principio, cambiare l'evoluzione dell'atmosfera, altre possono non avere alcun effetto (v. sotto, cap. 5), e comunque non cambiano il clima, ossia la frequenza con cui i fenomeni meteorologici si manifestano. Che tuttavia l'atmosfera sia, in molte circostanze, instabile e quindi sensibile a perturbazioni infinitesime lo si può ancora una volta sperimentare con un modello numerico: se si cambia, ad esempio, la temperatura anche in un solo punto di griglia e solamente di un centesimo di grado, dopo circa 10-15 giorni, confrontando due simulazioni gemelle - quella perturbata con quella non perturbata - si vedranno differenze crescenti e alquanto significative, ossia di parecchi gradi, su una regione in genere molto lontana da quella dove è stata introdotta la perturbazione. In questo consiste il dramma, o per meglio dire, il grave limite, della previsione meteorologica: la crescita all'incirca esponenziale degli errori di osservazione. Il campo di temperatura è noto nei punti di misurazione diretta, in situ, con errori dell'ordine dei decimi di grado, e nei punti di misurazione remota (ad esempio da satellite) con errori dell'ordine di almeno mezzo grado. Nelle regioni dove le misure sono sparse e dove i metodi di analisi (v. sopra, cap. 3) devono effettuare delle interpolazioni, l'errore può essere anche dell'ordine di uno o due gradi. Questo comporta che, con un tempo di raddoppio degli errori iniziali di circa due giorni (da sommare agli errori dovuti ai modelli), già dopo una settimana o poco più la previsione diventa inservibile o quasi.
Un altro contributo dovuto principalmente agli studi effettuati da Lorenz nel corso degli anni ottanta è consistito nel definire i limiti di predicibilità dell'atmosfera, distinguendo la previsione deterministica delle variabili a un singolo istante e per una singola località dalla previsione di valori medi nel tempo e nello spazio, in termini di deviazioni rispetto all'andamento climatologico. Nel caso della previsione meteorologica, che rientra nel primo dei due tipi di previsione, il limite massimo stimato non eccede i quindici giorni. Nonostante i recenti progressi, i limiti pratici attuali di previsione si collocano a circa la metà o poco più di tale valore. Sia le imprecisioni nei dati di osservazione che quelle nei modelli contribuiscono, grosso modo in eguale misura, alle attuali limitazioni.
5. La previsione probabilistica e di ensemble
Una volta accettata l'impossibilità di effettuare previsioni esatte o anche imperfette, ma comunque non valide oltre un certo anticipo, si è cercato di procedere in diversi modi, introducendo nelle previsioni dei criteri statistici o probabilistici. Se infatti non possiamo dire con esattezza che fra tre giorni vi sarà in una data località una precipitazione di 200 millimetri, accumulata su 24 ore, possiamo però tentare di valutare la probabilità che su tale località cada una precipitazione abbondante, per esempio superiore alla soglia di 150 millimetri. La semplice climatologia ci aiuta poco in quanto - a meno di non scegliere una regione dove piove abbondantemente durante il periodo monsonico - la frequenza di piogge di questa intensità è in genere bassa, certamente inferiore a un giorno su cento e probabilmente anche a uno su mille. Né può aiutare il criterio della persistenza, che pure per alcuni parametri (ad esempio la temperatura) in meteorologia viene considerato come un criterio di riferimento (benchmark), in quanto è molto raro che una pioggia di tale intensità si manifesti per più di un giorno o due sulla stessa località. L'unica via scientificamente e praticamente percorribile, date le limitazioni del calcolo, è quella di tener conto della sensibilità alle condizioni iniziali e alle caratteristiche dei modelli, per effettuare una rosa di previsioni, tutte a priori con simile probabilità di verificarsi. A tal fine si introducono variazioni nelle condizioni iniziali, compatibili con l'incertezza con cui si ricavano le osservazioni e le successive analisi, e variazioni nei modelli, compatibili con le incertezze introdotte dagli schemi numerici, dal tipo e risoluzione delle griglie, dalle parametrizzazioni fisiche. Se si riesce a generare un numero di previsioni (ossia un insieme, ensemble, da cui la denominazione del metodo previsionale) sufficientemente elevato da descrivere in maniera rappresentativa l'incertezza della previsione, così da ricavarne una stima della probabilità dell'occorrenza della precipitazione in un certo intervallo - per rimanere all'esempio considerato -, si ottiene una soluzione sia pure approssimata ed empirica del problema.
Si consideri ad esempio l'analisi iniziale di temperatura effettuata sui punti della griglia del modello meteorologico: sappiamo che l'errore tipico in ogni punto è di circa mezzo grado; possiamo quindi alterare tale analisi aggiungendo o togliendo dal valore della temperatura in ogni punto un valore a caso compreso tra 0 e 0,5 gradi. Questa procedura genera una nuova analisi, statisticamente compatibile con le osservazioni quanto quella di partenza. La stessa operazione può essere effettuata più volte, o anche su variabili diverse. Come accennato sopra, potremmo immettere ciascuna di queste i analisi iniziali in n versioni leggermente differenti del modello meteorologico, o anche - avendo a disposizione più modelli (ad esempio in numero m) scritti indipendentemente, e quindi diversi tra loro - in n × m modelli differenti, ottenendo alla fine i × n × m previsioni distinte, la cui realizzabilità dipende solamente dalle risorse di calcolo disponibili (esistono molti modelli meteorologici diversi tra loro, in parte per ragioni di opportunità - i diversi servizi meteorologici desiderano spesso elaborare propri modelli -, in parte per ragioni tecnico-scientifiche, data la grande varietà di scelte che si devono effettuare in termini di metodi numerici, configurazioni delle griglie, risoluzione e soprattutto parametrizzazione dei diversi processi fisici). L'uso, nell'ultima decina d'anni, di calcolatori ad architettura parallela ha facilitato questo approccio al problema, ma nei grandi centri, come l'ECMWF, non si supera per ora la cinquantina di membri dell'ensemble (anche se a breve se ne prevede un raddoppio) costituiti dalle singole previsioni. Questo genere di metodo fa parte delle cosiddette previsioni probabilistiche, nel senso che lo scopo finale è fornire informazioni sulla probabilità di occorrenza di un possibile spettro di fenomeni, in particolare di quelli estremi o di forte impatto economico e sociale: principalmente tempeste di vento, uragani, piogge alluvionali, tempeste di neve. Si parla, in generale, di 'metodo Monte Carlo', in quanto la generazione di una statistica per determinare l'evoluzione nel tempo delle medie e dei cosiddetti momenti d'ordine superiore (scarto quadratico medio e altre proprietà statistiche) si basa sulla generazione di un ensemble a partire da valori casuali, che possono entrare sia nella costruzione delle analisi, sia nella definizione di parametri interni ai modelli.
Generare una varietà di condizioni iniziali in modo totalmente casuale al fine di ottenere un ensemble di previsioni non è tuttavia soddisfacente per due ragioni, connesse con le proprietà dinamico-statistiche del sistema atmosferico. Innanzi tutto, l'attuale limitazione a qualche decina di membri dell'ensemble non è sufficiente a fornire stime di probabilità accurate: non si tratta di 'grandi numeri' su cui poter costruire statistiche affidabili. Sarebbe probabilmente necessario arrivare a molte centinaia, se non migliaia, di singole previsioni, con una moltiplicazione della potenza di calcolo necessaria. Inoltre, data la natura estremamente complessa dell'attrattore atmosferico (v. sopra, cap. 4), non vi è nessuna garanzia che anche un alto numero di condizioni iniziali generate casualmente attorno a un'analisi 'centrale' permetta di ottenere previsioni che realmente consentano di esplorare lo spazio delle orbite del sistema (ossia una porzione dell'attrattore) in maniera a priori equiprobabile. Ciò dipende principalmente da due fattori: 1) i modelli sono affetti da errori che non garantiscono che il loro attrattore sia rappresentativo di quello atmosferico; 2) molte delle componenti delle perturbazioni casuali dell'istante iniziale tendono ad annullarsi in un tempo relativamente breve, rendendo molti membri dell'ensemble (già, come abbiamo visto, non sufficientemente popolato) ridondanti e quindi inutili, perché 'collassano' sulla stessa previsione, senza che essa risulti necessariamente più probabile (in un sistema dinamico instabile, e quindi soggetto a caos, certe perturbazioni iniziali crescono nel tempo, determinando la sensibilità descritta nel cap. 4, ma molte altre decrescono fino praticamente ad annullarsi).
Per ovviare a questi problemi, nell'ultimo decennio si sono introdotte apposite tecniche finalizzate a generare condizioni iniziali che - tenendo conto delle particolari proprietà dinamiche costituite dal modello meteorologico e dal ciclo di assimilazione dei dati - possano fornire ensembles di previsioni più rappresentativi delle possibili evoluzioni del sistema atmosferico a partire da un determinato istante iniziale, considerati anche i limiti pratici nel numero di previsioni calcolabili (v. Palmer, 2000; v. Buizza, 2001).
Le procedure utilizzate hanno non soltanto condotto a un miglioramento nella distribuzione delle previsioni ottenute in termini di dispersione - ossia di esplorazione - degli eventi possibili e di stima della loro probabilità, ma hanno anche consentito di ottimizzare le procedure di assimilazione e analisi dei dati (v. sopra, cap. 3), riducendone gli errori. Molto si è investito, di recente, nel perfezionamento di queste tecniche. Esse si basano sull'individuazione, all'istante iniziale o in un suo intorno temporale, dei 'modi instabili' (o meglio, di quelli maggiormente instabili) del sistema modello-assimilazione, cioè quelle strutture spaziali organizzate su certe scale verticali e orizzontali che tendono a crescere più rapidamente in un certo intervallo di tempo considerato (all'incirca un paio di giorni). Sono stati proposti per questo diversi metodi: ad esempio quello dei 'vettori singolari', utilizzato dall'ECMWF, e quello del breeding (allevamento), sviluppato prevalentemente all'Università del Maryland e utilizzato dal National Center for Environmental Prediction negli Stati Uniti. Per quanto concerne l'utilizzo di tali tecniche al fine di migliorare la stessa previsione deterministica (ossia anche indipendentemente dalla generazione degli ensembles), va ricordato che la qualità previsionale dipende fortemente dall'analisi iniziale, la quale a sua volta dipende dal campo di prima scelta costituito da una previsione di 6 o 12 ore: la procedura di assimilazione dei dati, quindi, comporta indirettamente una modifica del campo di prima scelta. Nel nuovo approccio dinamico recentemente proposto, tale modifica viene modulata in funzione delle proprietà spaziali dei modi instabili definiti nel sistema osservazioni-analisi-previsioni e calcolati con le tecniche sopra descritte; ciò significa, in pratica, che i dati delle osservazioni vengono 'pesati' in maniera diversa sulla base delle instabilità locali (nello spazio e nel tempo) del sistema.
Come si accennava all'inizio del capitolo, un modo per creare una molteplicità di previsioni può anche essere quello di variare il modello - o componenti del modello utilizzato - anziché le condizioni iniziali. Si parla in tal caso di multimodel ensemble, per il quale i membri non sono più generati sfruttando la sensibilità alle condizioni iniziali, bensì diverse rappresentazioni modellistiche delle leggi che descrivono il sistema atmosferico. Il metodo di generazione di previsioni di ensemble mediante un singolo modello si deve basare sull'ipotesi, ovviamente non vera, che il modello sia 'perfetto'. Tale metodo ha il difetto di tendere a generare previsioni affette da errori correlati. Negli ultimi anni, con la messa a punto di una pluralità di modelli indipendenti e con lo sviluppo di tecniche statistiche atte a meglio sfruttarne le diverse caratteristiche, è emerso il fatto che l'uso combinato di più modelli consente di migliorare le previsioni e le stesse analisi a condizione che la durata delle previsioni sia confinata all'interno dei termini di validità deterministica. In altre parole, il metodo è rivolto a correggere errori più o meno casuali dei modelli ottimizzandone l'uso combinato, senza la pretesa di valutare le probabilità di una previsione in funzione delle condizioni iniziali. L'uso di più modelli e di più condizioni iniziali per ogni modello sembra costituire la via da seguire almeno in un futuro prossimo.
6. La previsione meteorologica in Italia
La meteorologia operativa in Italia è stata affidata all'Aeronautica Militare durante il ventennio fascista, e da allora la situazione non è cambiata: il Servizio meteorologico dell'Aeronautica svolge, oltre che l'assistenza meteorologica al volo militare e civile, anche le funzioni di Servizio meteorologico nazionale. Il fatto che l'attività operativa dipenda esclusivamente dalle competenze del Ministero della Difesa, anziché da un organismo di coordinamento interministeriale (vi sono parecchi altri organismi pubblici - Protezione civile, Ministeri dei Trasporti, della Marina, dell'Agricoltura, del Turismo, dell'Industria, ecc. - interessati e in parte direttamente coinvolti in attività meteorologiche), costituisce un'anomalia tutta italiana che ha comportato delle serie limitazioni alle attività meteorologiche nazionali, impedendo che esse tenessero il passo con la crescente domanda proveniente dalla società. La conseguenza è stata una proliferazione di competenze e attività, soprattutto in seguito alla creazione dei servizi meteorologici regionali e di analoghi servizi ambientali, sorti all'inizio per soddisfare una domanda proveniente in prevalenza dal settore agricolo, ma ben presto affiancata da esigenze diverse, da quelle di protezione civile a quelle turistiche e di salvaguardia ambientale.
Nel 1989, la legge 183 per la difesa del suolo e dell'ambiente ha istituito, presso la Presidenza del Consiglio, i Servizi tecnici nazionali, con lo scopo di rivitalizzare e razionalizzare i servizi ambientali; tuttavia il Servizio meteorologico dell'Aeronautica è rimasto escluso dall'azione di tale legge. Nel 1998 è stato creato il Servizio meteorologico distribuito, come tentativo di coordinamento dei servizi nazionali e regionali esistenti, ma esso è decaduto per la mancata promulgazione di decreti attuativi. Di recente, sembra prevalere la tendenza a delegare alle Regioni le attività territoriali e ambientali - anche attraverso lo smembramento delle competenze - degli uffici e delle reti pluviometriche del Servizio idrografico. Ragioni politico-amministrative, orientate al decentramento, appaiono prevalere su quelle scientifiche, che invece - come si è visto - hanno da sempre richiesto un coordinamento su vasta scala: ricordiamo, in contrasto con l'attuale tendenza, la costituzione nel Seicento della rete internazionale dell'Accademia del Cimento quale primo passo dell'internazionalizzazione della meteorologia.
Se si aggiunge che nel nostro paese la meteorologia ha avuto uno scarsissimo sviluppo in sede universitaria per diverse ragioni, non del tutto estranee all'esistenza di un servizio nazionale militare, se ne può comprendere lo stato di arretratezza, soprattutto sul piano organizzativo, ma anche nell'ambito delle attività di osservazione e ricerca. È tuttavia chiaro che, partecipando l'Italia all'iniziativa dell'ECMWF, la nostra meteorologia ha beneficiato del miglioramento dei prodotti previsionali messi a punto in campo internazionale.
Per quanto riguarda più specificamente l'attività previsionale e modellistica, negli ultimi anni si è assistito a un proliferare di centri, soprattutto regionali, che operano con modelli meteorologici ad area limitata; alcuni di tali modelli sono di derivazione straniera (ad esempio in seguito a un accordo di collaborazione tra il Servizio meteorologico dell'Aeronautica Militare e il Servizio meteorologico tedesco), altri sono stati sviluppati in Italia (come il modello BOLAM, dell'Istituto di Scienze dell'Atmosfera e del Clima - ISAC - del CNR). L'attività di ricerca nel settore è sviluppata presso istituti del CNR (in particolare lo stesso ISAC e l'Istituto di BioMeteorologia), presso alcune università, l'ENEA e alcuni degli enti regionali: tra questi, il Servizio meteorologico regionale dell'ARPA Emilia-Romagna effettua previsioni di ensemble su scala regionale.
7. Prospettive: problemi da affrontare e miglioramenti attesi
Nella trattazione fin qui svolta si è posto prevalentemente l'accento sull'evoluzione delle idee scientifiche e delle metodologie fisico-matematiche che hanno condotto agli attuali sviluppi della previsione meteorologica per via numerica; tuttavia, non deve essere sottovalutata l'importanza del sistema osservativo, nell'ambito del quale si è assistito a grandi progressi, specie per quanto riguarda i sistemi di telerilevamento delle proprietà atmosferiche. È proprio in questo ambito che è lecito aspettarsi un perfezionamento del monitoraggio che condurrà a una migliore definizione delle condizioni iniziali dei modelli.
Su scala globale, gli sforzi maggiori sono concentrati sulle missioni satellitari da parte delle agenzie spaziali nazionali e internazionali (ad esempio l'Agenzia Spaziale Europea e la NASA), che prevedono di intensificare gli investimenti nel settore delle osservazioni della Terra, e quindi dell'ambiente, del clima e della meteorologia. Si prevede un miglioramento dei sensori passivi, ossia basati sulla rilevazione della radiazione elettromagnetica emessa o riflessa dalla superficie terrestre, dalle nubi e dall'atmosfera in generale, aumentando in particolare la risoluzione spettrale. L'obiettivo è quello di ridurre gli errori nella valutazione della temperatura superficiale e dei diversi strati dell'atmosfera e di ricavare informazioni sulla sua composizione, incluso il vapore acqueo, e sulle nubi. Poiché le emissioni della molecola dell'acqua sono caratteristiche nello spettro delle microonde (lunghezze d'onda maggiori dell'infrarosso), sensori in questa banda servono a rilevare il contenuto d'acqua nello strato superficiale del suolo e sulla vegetazione, nonché la presenza di precipitazioni in corso.
Tutte queste informazioni sono vitali per inizializzare i modelli di previsione meteorologica, sia globali che ad area limitata, e (come accennato nel cap. 3) i metodi di assimilazione ora sono spesso in grado di utilizzare direttamente le 'radianze' (misure dirette di radiazione) fornite dai satelliti.
I satelliti già utilizzano - e lo faranno in maniera generalizzata nei prossimi anni - anche strumenti 'attivi' (radar o, nel caso funzionino nella banda del visibile o dell'infrarosso, lidar), in grado cioè di emettere segnali elettromagnetici e di misurarne la componente riflessa dagli strati atmosferici o dalla superficie terrestre. Attualmente, ad esempio, si adoperano radar a bordo di satelliti per fornire stime dell'altezza e delle proprietà delle onde marine (dalle quali è possibile ricavare informazioni sul vento superficiale) e per osservare la presenza di idrometeore nei sistemi precipitanti. Quest'ultima capacità - finora confinata a satelliti operanti nella fascia tropicale, ma che sarà estesa a tutto il globo - è decisiva per lo studio della climatologia delle precipitazioni e quindi del ciclo dell'acqua su vaste aree del pianeta, in particolare gli oceani, e consente inoltre di migliorare la previsione a breve termine con tecniche di assimilazione diretta della precipitazione, campo tanto importante quanto difficile da prevedere. I lidar saranno utilizzati per 'vedere' la presenza di vapore acqueo e aerosol atmosferico, mentre altre tecniche di misura della temperatura e dell'umidità atmosferica a livello globale saranno basate sull'utilizzo dei segnali GPS (Global Positioning System) e sugli effetti di rifrazione che tali segnali subiscono a causa delle variazioni della densità dell'aria. Va ricordato che il campo di umidità non solo è molto importante per la previsione meteorologica, ma è anche quello il cui rilevamento da parte dei tradizionali sistemi di misurazione, come i radiosondaggi, è più soggetto a errori.
Contemporaneamente alle osservazioni dallo spazio, si prevede un incremento di quelle da terra, che riguarderanno in particolare la messa in rete di strumenti relativamente costosi - e quindi attualmente non molto diffusi - come i radar meteorologici a doppia polarizzazione (per meglio distinguere le proprietà delle idrometeore) e basati sull'effetto Doppler (per ricavare la velocità del vento), e i 'profilatori di vento', ossia radar che operano con lunghezze d'onda decimetriche e che, puntando verso l'alto, permettono di ricavare il vettore velocità dell'aria.
Il settore delle osservazioni su mesoscala (che in meteorologia comprende le scale spaziali dal centinaio di chilometri al chilometro) - cui principalmente appartengono gli ultimi strumenti sopra ricordati - è finalizzato al miglioramento della previsione a breve e brevissimo termine con un dettaglio spaziale elevato, qual è quello richiesto da fenomeni intensi come precipitazioni temporalesche e orografiche, tornado e venti forti associati ai flussi discendenti nei cumulonembi, shear del vento che mette a rischio gli atterraggi, ecc. È questo forse il campo della previsione in cui si concentrano maggiormente gli sforzi, ma che purtroppo non ha visto miglioramenti evidenti, per cui tecniche di tipo essenzialmente empirico o statistico risultano ancora competitive (specie per il nowcasting) rispetto a tecniche dinamico-modellistiche. Le limitazioni tecniche attuali risiedono principalmente nella capacità di calcolo e nell'adeguatezza dei dati; vi è inoltre una limitazione intrinseca associata all'instabilità dei sistemi atmosferici su piccola scala.
Riguardo alle capacità di calcolo, si deve notare che modelli non idrostatici e in grado di descrivere adeguatamente i processi microfisici hanno iniziato a essere sviluppati verso la fine degli anni settanta, ma solo di recente sono divenuti operativi e non ancora con la risoluzione spaziale che sarebbe desiderabile. In altre parole, nonostante gli enormi progressi nel settore del calcolo, i calcolatori attualmente disponibili non consentono di utilizzare modelli completi con una risoluzione orizzontale dell'ordine di un chilometro - come sarebbe necessario - e su aree sufficientemente grandi, battendo in velocità l'atmosfera. Se si osserva l'aumento della risoluzione spaziale nei modelli meteorologici conseguito negli ultimi 10-15 anni, si nota che esso ha proceduto con un tasso di crescita leggermente ma chiaramente maggiore di quello del calcolo, e questo grazie al progresso nell'efficienza dei metodi numerici impiegati. Se si estrapolano le tendenze attuali si può prevedere che attorno all'anno 2010 sarà possibile disporre operativamente delle risoluzioni necessarie per descrivere i fenomeni convettivi, vale a dire attorno al chilometro (attualmente siamo attorno ai 5-10 km nei modelli ad area limitata).
Riguardo all'adeguatezza dei dati, i problemi appaiono più complessi e onerosi. Occorrerebbe disporre di informazioni volumetriche delle principali variabili atmosferiche (temperatura, pressione, umidità, vento) ad alta risoluzione spaziale (circa 1 km o migliori), con elevata frequenza temporale (5-10 minuti) e soprattutto con estesa copertura spaziale, soprattutto sopravento alle regioni dove si intendono effettuare le previsioni più dettagliate. Il radar meteorologico è lo strumento che più si avvicina alle caratteristiche richieste, anche se non fornisce tutte le variabili necessarie e con la precisione desiderata. Benché in alcune regioni, come gli Stati Uniti, siano già state sviluppate reti integrate, non è a breve termine immaginabile una loro estensione su aree meno sviluppate e comunque sulle aree oceaniche, nemmeno in prossimità dei continenti. Per accennare al problema dell'Italia, ad esempio, molti sistemi precipitanti, spesso di natura convettiva, si generano sul Mar Mediterraneo e si spostano verso la terraferma; le informazioni quantitative che un radar meteorologico può fornire non superano il centinaio di km, per cui rimane aperto il problema del monitoraggio sul mare, oltre che su vaste aree del territorio. L'utilizzo di radar che abbiano caratteristiche di precisione analoghe a quelli terrestri ma collocati a bordo di satelliti pone problemi per ora insoluti per quanto riguarda la potenza di emissione e la frequenza temporale di copertura di una singola regione.
Il problema forse più rilevante concerne i limiti delle capacità previsionali del sistema. Abbiamo visto che, per quanto riguarda le scale relativamente grandi che interessano la previsione a qualche giorno, gli errori raddoppiano nel corso di un paio di giorni. La causa di questo va ricercata principalmente nell'instabilità baroclina (v. sopra, cap. 2). Tuttavia, i fenomeni su piccola scala sopra indicati sono in genere associati a un altro tipo di instabilità atmosferica, quella convettiva, legata alla stratificazione termica verticale dell'atmosfera e ai fenomeni di cambiamento di stato dell'acqua; essa si verifica quando la temperatura decresce rapidamente con la quota e quando l'aria è sufficientemente umida. I tempi richiesti per la formazione di un cumulonembo sono molto più brevi di quelli necessari per formare un ciclone: circa mezz'ora rispetto a uno-due giorni. Pertanto, il tempo di raddoppio degli errori, in caso di instabilità convettiva, è stimato in meno di un'ora, il che implica un limite di predicibilità deterministico, dovuto all'incertezza delle condizioni iniziali, di poche ore. Di conseguenza, anche se vi è un ampio potenziale di miglioramento delle osservazioni, rimarranno forti incertezze nella previsione deterministica a scadenza di più di qualche ora, ad esempio nella previsione della formazione e del percorso di un temporale e, a maggior ragione, di fenomeni più piccoli a esso associati, come tornado e grandinate. In definitiva, quindi, in questo settore della previsione meteorologica non possiamo attenderci miglioramenti rapidi e spettacolari analoghi a quelli conseguiti per la previsione sulla scala sinottica e globale. D'altra parte, poiché molto spesso i fenomeni convettivi e violenti hanno un legame abbastanza diretto con la situazione meteorologica su scala più grande, un miglioramento della previsione su tale scala comporta anche un miglioramento nella previsione della probabilità di occorrenza di quei fenomeni.
Ci si può infine chiedere in che misura l'esistenza di fenomeni la cui predicibilità non va oltre qualche ora infici la predicibilità su grande scala. Un effetto in tal senso esiste, perché parte dell'energia su piccola scala migra su scale più grandi, ma in maniera limitata a causa di proprietà del sistema atmosferico quali la rotazione e la stratificazione, oltre che per i fenomeni dissipativi turbolenti. Inoltre, la convezione è sporadica e intermittente, soprattutto alle medie e alte latitudini; nondimeno il suo effetto si traduce nel fatto che d'estate alle medie latitudini e nella fascia intertropicale, dove l'attività convettiva è più sviluppata, la predicibilità su grande scala è inferiore rispetto a quella alle medie latitudini d'inverno o nelle stagioni intermedie.
Ritornando al tema delle osservazioni globali, una delle ricadute della previsione d'ensemble e della determinazione dei modi instabili dell'atmosfera è la definizione di 'aree sensibili': se a un certo istante di analisi-assimilazione si valuta il grado di dispersione delle successive previsioni al variare della condizione iniziale, si può anche valutare in che misura aree diverse del pianeta siano per così dire 'responsabili', con le incertezze nelle condizioni iniziali a esse associate, delle successive incertezze nelle previsioni. In effetti si è visto che vi sono, in media, regioni del globo in cui gli errori iniziali di misurazione comportano maggiori incertezze successive rispetto ad altre regioni. Si tratta delle regioni dove si formano i maggiori sistemi perturbati, vale a dire i cicloni mobili delle medie latitudini, e coincidono quindi con le zone di inizio degli storm tracks (i percorsi delle tempeste) che si trovano in prossimità delle coste occidentali dell'Oceano Pacifico e dell'Oceano Atlantico. La previsione operativa consente oggi di individuare le aree sensibili giorno per giorno, in funzione della particolare situazione meteorologica. Poiché per definizione gli errori di osservazione in queste aree crescono più rapidamente, si è recentemente progettato di effettuarvi osservazioni aggiuntive mirate (targeted), mettendo a punto un sistema di 'osservazioni adattive' (v. Buizza, 2001). L'idea nasce dal fatto che il sistema globale di osservazioni è tuttora carente, mentre la strategia adattiva permetterebbe di ottimizzare il rapporto costi-benefici. Anche se finora questa tecnica osservativa è stata utilizzata per lo più a livello sperimentale, durante specifiche campagne di misurazione, si tratta di una linea di sviluppo promettente e destinata ad affinarsi di pari passo con i miglioramenti delle tecniche di analisi e previsione numerica. La strumentazione che può essere impiegata per le osservazioni meteorologiche mirate consiste in aerei attrezzati, con o senza pilota, palloni sonda e razzi lanciabili da piattaforme sul mare (come navi e boe), nonché palloni stratosferici automatici dotati di sonde a caduta da attivare su richiesta.
Altre prospettive future nel campo della previsione meteorologica riguardano un impiego migliore di tecniche multimodello, specialmente là dove, sia per la mesoscala che per la scala globale, ci si voglia avvicinare ai limiti di predicibilità deterministica e soprattutto si intenda superare tali limiti con tecniche probabilistiche. Uno sforzo particolare è stato di recente condotto in diversi centri per valutare in maniera rigorosa l'impatto dell'impiego della previsione probabilistica da parte di utenti che più di altri ne potrebbero trarre vantaggio. Non si parla quindi dell'utenza generica, ma di organismi pubblici (ad esempio la Protezione civile, i Ministeri dell'Agricoltura, dei Trasporti, e così via) o privati (industrie, assicurazioni, commercio dei prodotti agricoli, ecc.), per un'informazione che definisca il grado di probabilità della previsione dei parametri meteorologici sfruttabile ai fini della pianificazione. In questo modo la previsione meteorologica diventa una variabile di interesse economico, e si è sviluppato persino un settore di titoli di borsa - i cosiddetti weather derivatives - legati ai comparti economici sensibili all'andamento meteo-climatico.
Infine, un campo in cui si concentrano sforzi notevoli, seppure ancora a livello di ricerca, è quello della previsione mensile e stagionale. Poiché siamo decisamente oltre il limite di predicibilità deterministico, non si può più parlare di previsione meteorologica in senso stretto, ma piuttosto di valori medi nel tempo (oltre che nello spazio), influenzati non tanto dalla condizione iniziale quanto dal variare delle condizioni al contorno (come la temperatura degli oceani) o da parametri interni o esterni al sistema (ad esempio una variazione della concentrazione dei gas serra nell'atmosfera). Si parla in tal caso, seguendo Lorenz, di previsione del secondo tipo, per distinguerla da quella del primo tipo, dipendente dai valori iniziali (questo vale perlomeno se si considera la previsione della componente atmosferica; per quanto riguarda invece la componente oceanica, più predicibile su scale di tempo lunghe, si può parlare ancora di previsione del primo tipo, per cui in realtà la previsione stagionale rappresenta un caso ibrido). Il legame con la previsione meteorologica sta nel fatto che attualmente si sperimentano tecniche di ensemble multimodello, con modelli deterministici globali (sistemi accoppiati atmosfera-oceano) analoghi a quelli utilizzati per la previsione a medio termine. Si tratta quindi di un'attività intermedia tra quella della modellistica del clima, usata per produrre scenari climatici futuri, e quella della modellistica meteorologica in senso proprio. La previsione mensile-stagionale ha, ovviamente, una notevole importanza pratica, con risvolti economici e anche sanitari, per quanto riguarda ad esempio le malattie tropicali, la cui diffusione è strettamente legata al clima. I metodi sinora utilizzati, basati su tecniche statistiche ed empiriche, non hanno dato risultati utili. I metodi numerici recentemente introdotti sembrano, secondo le prime valutazioni, piuttosto deludenti per le medie e alte latitudini, ma promettenti per le regioni tropicali; è probabile che ciò abbia a che fare con la maggiore importanza relativa, in tali regioni, dei processi oceanici rispetto a quelli atmosferici. Negli ultimi decenni si sono molto studiati i fenomeni della Southern oscillation (oscillazione aperiodica di pressione atmosferica sul Pacifico meridionale) e quello noto come El niño (corrente calda anomala nel Pacifico equatoriale), in quanto manifestazioni di un unico, spettacolare e irregolare fenomeno di variabilità climatica del sistema accoppiato atmosfera-oceano, la cui previsione è stata tentata con qualche successo (ma anche con insuccessi), ed è comunque connesso con il problema della previsione stagionale nei tropici. Durante le fasi opposte (El niño e La niña) la variabilità meteorologica su vaste regioni (ma molto poco sull'Europa) viene chiaramente modificata. La Southern oscillation-El niño fa parte di una classe di fenomeni atmosferici di variabilità a bassa frequenza tra i quali rientra, ad esempio, la nota oscillazione quasi biennale dei venti stratosferici zonali nelle regioni equatoriali. Vi è inoltre, sempre in questo ambito di variazioni lente su grande scala, una classe di fenomeni di 'teleconnessione', per cui regioni anche molto lontane dell'atmosfera appaiono affette da anomalie climatiche correlate. Questi modi di variazione su scala planetaria (i più noti sono la Pacific-North America oscillation e la North Atlantic oscillation: quest'ultima influenza più direttamente l'Europa tramite le variazioni del vento zonale sull'Atlantico settentrionale) sono spesso caratterizzati da tempi di persistenza piuttosto lunghi, da una settimana ad alcuni mesi (si definiscono anche 'regimi di tempo' o 'di flusso'), e dunque l'eventuale successo nella previsione della loro insorgenza e decadimento potrebbe costituire la chiave di volta per affrontare il problema della previsione a lungo termine (v. Trevisan, 1995). Il condizionale è dettato dal fatto che non si vedono per il momento possibilità di rapido sviluppo che non passino attraverso un salto qualitativo nella comprensione delle proprietà dei sistemi caotici e della turbolenza. In questo caso, infatti, non si tratta solamente - come per la previsione a breve - di disporre di strumenti di calcolo più potenti e di dati e modelli più accurati: l'impredicibilità intrinseca su queste scale di tempo richiede una ridefinizione del problema su basi diverse, indipendenti per molti aspetti dalla conoscenza delle leggi fondamentali della dinamica. Appare pertanto indispensabile - non solo in meteorologia ma anche nelle scienze fisiche, biologiche e dei sistemi a elevata complessità - fare ricorso a un differente approccio per il quale sono necessari nuovi sviluppi teorici.
Terminiamo citando le parole conclusive dell'illustre meteorologo italiano Luigi De Marchi (v., 1900), scritte un secolo fa in un compendio di meteorologia: "Possiamo concludere che [nel secolo XIX] si sono fatti passi da gigante nei metodi di osservazione [...], che la cooperazione internazionale ha allargato la visione dei fenomeni e reso possibile la concezione di leggi più generali, le quali permettono perfino (ciò che è l'ideale di una scienza) la previsione a breve scadenza delle condizioni più generali dell'atmosfera. Una scienza affatto nuova, la meteorologia dinamica, è sorta e giunta così a maturità in meno di cinquant'anni". Oggi possiamo dire che la meteorologia dinamica in senso tradizionale ha portato avanti per tutto il XX secolo la sua missione, perfezionando in maniera sostanziale la qualità della previsione meteorologica sulla base di principî già definiti nel secolo precedente. E inoltre possiamo individuare nella teoria dei sistemi dinamici caotici, nata nella seconda metà del XX secolo, una nuova disciplina cui la stessa meteorologia dinamica ha dato un apporto significativo e nell'ambito della quale si possono attendere le prossime maggiori innovazioni concettuali a vantaggio dello sviluppo ulteriore della previsione.
bibliografia
Buizza, R., Chaos and weather prediction. A review of recent advances in numerical weather prediction: ensemble forecasting and adaptive observation targeting, in "Il nuovo cimento (Sezione C)", 2001, XXIV, 2, pp. 273-301.
Charney, J. G., Fjørtoft, R., Neumann, J. von, Numerical integration of the barotropic vorticity equation, in "Tellus", 1950, II, pp. 237-254.
De Marchi, L., Meteorologia, in Il secolo XIX nella vita e nella cultura dei popoli: opera originale illustrata, dedicata alle famiglie italiane, fascicolo: L'astronomia (di G. Celoria). La fisica terrestre (di L. De Marchi), Milano: Vallardi, 1900, pp. 227-257.
Lorenz, E. N., Deterministic nonperiodic flow, in "Journal of the atmospheric sciences", 1963, XX, pp. 130-141.
Lorenz, E. N., The essence of chaos, Seattle: University of Washington Press, 1993.
Palmer, T. N., Predicting uncertainty in forecasts of weather and climate, in "Reports of progress in physics", 2000, LXIII, pp. 71-116.
Trevisan, A., Statistical properties of predictability from atmospheric analogs and the existence of multiple regimes, in "Journal of the atmospheric sciences", 1995, LII, pp. 3577-3592.