oceanologìa Parte della geofisica che studia l'oceano, inteso come il continuo acqueo, sia pure frammentato dai continenti, presente sulla superficie terrestre.
Abstract di approfondimento da Oceanologia di Paola Malanotte-Rizzoli (Enciclopedia della Scienza e della Tecnica)
Durante gli ultimi trent’anni una serie di rivoluzioni scientifiche ha cambiato significativamente la comprensione della circolazione negli oceani, nonché il tipo di approccio esplorativo e le teorie che spiegano i processi in atto. Si può distinguere l’era iniziale dell’oceanologia, che abbraccia un periodo di circa un secolo a partire dalla spedizione pionieristica del 1870, dalla fase più recente, iniziata nel 1970 con la scoperta del campo dei vortici modali (mesoscale eddies), che costituisce il meteo dell’oceano, ossia l’insieme delle nozioni riguardanti la fluidodinamica e la termodinamica degli oceani. Nel corso del primo periodo l’oceanografia fisica – allora si preferiva a oceanologia il termine oceanografia per rimarcare il carattere osservativo – evolse gradualmente dall’essere patrimonio di alcuni geografi naviganti, che aspiravano a una descrizione fenomenologica delle proprietà dell’oceano, all’essere una scienza rigorosa, costituita da fisici e fluidodinamici. Già nel 1927, durante gli ultimi giorni della spedizione Meteor (dal 1925 al 1927), il famoso oceanografo Albert Defant osservò che l’oceanografia aveva subito uno sviluppo piuttosto rapido durante gli ultimi decenni, trasformandosi gradualmente «da scienza puramente descrittiva a scienza fondata su principî fisico-matematici esatti». Nessuna dichiarazione può meglio caratterizzare l’evoluzione degli ultimi vent’anni, in cui questi principî matematici sono stati quantificati e tradotti nel linguaggio computazionale, grazie alla crescita esponenziale della potenza e della struttura degli elaboratori elettronici.
Nell’era romantica dei primi cento anni si tracciarono le proprietà universali dell’oceano. In tale periodo le indagini erano svolte su navi di ricerca, che impiegavano spesso mesi per attraversare i vari bacini oceanici; queste ricerche fornirono la descrizione generale della climatologia da cui scaturirono le idee teoriche di quel tempo, basate sul concetto di oceano stazionario. Negli anni Settanta, si concretizzò la scoperta dell’assoluta instabilità della circolazione dell’oceano. Contrariamente a quanto creduto fino ad allora, tale dinamica è turbolenta e caotica: un campo di vortici onnipresente, in cui è immagazzinata molta energia, si sovrappone alle principali caratteristiche della circolazione, mascherandole spesso con la sua forte intensità. Tali vortici, che hanno un diametro variabile da 50 a 300 km, sono analoghi alle perturbazioni presenti nei moti atmosferici medi, in quanto si può dire che il campo dei vortici modali è il tempo meteorologico dell’oceano.
Negli anni Novanta si registrarono due rivoluzioni principali. La prima riguarda l’approccio osservativo, in cui le prospezioni oceanografiche realizzate dall’uomo furono sostituite da una strumentazione automatizzata con osservazioni effettuate sia da un satellite sia attraverso una rete di strumenti collocati in tutti gli oceani. La seconda invece fa riferimento nello specifico all’insieme di dati osservati, offerti da una parte dall’altimetro TOPEX/Poisedon, che fornisce mappe sinottiche e globali dell’altezza della superficie dei mari – una sorta di topografia dell’oceano – e dall’altra dai galleggianti del progetto ARGO che, sotto il controllo della statunitense National Oceanic and Atmospheric Administration (NOAA), sono attualmente lanciati a centinaia per coprire densamente le parti interne degli oceani di tutto il mondo.
L’oceano non è più isolato dagli altri componenti del sistema Terra, ma ne è diventato parte integrante e cruciale: interazioni e retroazioni complesse coinvolgono l’oceano stesso, l’atmosfera, la terra solida e la criosfera. Questo è il secolo in cui sta emergendo il ruolo dell’oceano nella scienza del clima e del cambiamento globale.
La richiesta sociale di un’accurata previsione del clima è uno dei problemi più urgenti nell’ambito delle scienze naturali. L’argomento clima, tuttavia, coinvolge una serie di discipline che va ben oltre gli interessi di questo specifico settore. Si tratta di capire gli aspetti scientifici, economici ed ecologici del cambiamento climatico e di combinare queste considerazioni con valutazioni politiche. Occorre, quindi, sviluppare metodi, dati e modelli necessari a caratterizzare la discussione attualmente in corso e preparare per scelte difficili le nazioni che, cooperando nella Framework convention, si occupano del cambiamento climatico. Come fu stabilito nel 1991 al MIT (Massachusetts Institute of Technology) di Cambridge, negli Stati Uniti, sarà discusso il Joint program on the science and policy of global change, un modello che, forse, copre il più ampio intervallo di prospettive mai considerato. Il programma riunisce un gruppo interdisciplinare proveniente da due centri di ricerca, entrambi del MIT, il Center for global change science e il center for energy and environmental policy research. Un’altra essenziale collaborazione è con l’Ecosystem center of the marine biological laboratory (MBL) di Wood Hole, Massachusetts. La parte fondamentale del programma è l’Integrated global system model (IGSM 1998) del MIT, che è attualmente utilizzato per valutare le politiche di intervento proposte per regolamentare i gas responsabili dell’effetto serra, come il biossido di carbonio, il metano e così via. Il National emission model e l’anthropogenic emission and policy analyses model sono i meccanismi guida per il modello accoppiato chimica atmosferica-clima. Essi predicono le emissioni naturali antropogeniche per latitudine di diversi gas-serra su dodici regioni del mondo classificate secondo fattori di immissione economici (lavoro, capitale, importazioni e risorse naturali). Sono anche considerate le varie interazioni tra terra, livello del mare, vegetazione, suolo e l’immissione finale nel Terrestrial ecosystem model, che è utilizzato per previsioni dello stato futuro degli ecosistemi, per i flussi di biossido di carbonio tra l’atmosfera e la biosfera delle terre emerse e per i feedback nel Climate model. Quest’ultimo comprende uno schema di circolazione che accoppia atmosfera e oceano, dove lo schema di circolazione oceanica fornisce una descrizione e una previsione globale semplificati di correnti oceaniche. Accoppiato allo schema di circolazione atmosferica ve n’è uno di chimica atmosferica, che predice l’evoluzione temporale di 25 componenti chimici, 53 gas e reazioni di fase aerosol. Il componente-modello oceano è ancora il più incerto, a causa della circolazione tuttora ampiamente sconosciuta degli strati abissali, e rappresenta forse l’argomento critico della ricerca futura sul sistema clima. Si stanno progettando programmi di osservazione, attualmente in fase di pianificazione, analoghi al progetto ARGO al fine di chiarire questi lati oscuri.
Uno dei risultati più rilevanti dell’IGSM è la produzione di scenari. La fig. 7 mostra l’innalzamento della concentrazione globale di anidride carbonica (A) e della temperatura media globale (B) dal 2000 al 2100 in diverse condizioni. Le curve rosse solide forniscono l’aumento nelle presenti condizioni, ossia in assenza di un protocollo per il controllo delle emissioni di CO2. La curva intermedia rappresenta la media e le curve inferiori e superiori il 95% di probabilità, bassa e alta, dalla media. Le curve blu tratteggiate forniscono gli stessi aumenti ma in presenza di un protocollo che stabilizza la concentrazione di CO2 a 550 ppmv. La fig. 7C mostra l’innalzamento del livello medio globale dei mari dovuto sia all’espansione termica sia allo scioglimento dei ghiacciai, sempre nel ;periodo 200042100. La curva intermedia, in verde nella ;figura, corrisponde all’innalzamento medio previsto di ø40 cm nel 2100. Le altre curve intorno alla media mostrano rispettivamente la media 6 deviazione standard, 6 2 deviazioni standard, e gli aumenti minimo e massimo.
La crescita esponenziale del potere di elaborazione elettronica dei dati e l’evoluzione della struttura degli elaboratori elettronici, verificatesi durante l’ultimo decennio, hanno inaugurato l’era di una modellazione numerica, assolutamente realistica, della circolazione oceanica globale. I primi modelli numerici degli anni Settanta, al contrario, erano altamente idealizzati e limitati a singoli bacini o regioni oceaniche per la necessità di risolvere il campo dei vortici modali in simulazioni realistiche. Tale, per esempio, era lo US/German community modeling effort (CME) per l’Atlantico meridionale e il Fine resolution ;antarctic model (gruppo FRAM 1991). Negli anni Novanta si sviluppò la capacità di simulare numericamente la circolazione degli oceani su scala mondiale, risolvendo totalmente il campo dei vortici modali, in configurazioni di bacino completamente realistiche, comprensive di una batimetria verosimile dell’oceano e di funzioni utili a simulare la variabilità in superficie.
La complessità delle correnti oceaniche è stupefacente per la ricchezza di vortici di grande energia, sovrapposti non soltanto alle correnti più intense, ma presenti anche nelle parti interne e più calme dell’oceano. Le circolazioni dei cosiddetti gyre a media latitudine, le correnti-limite occidentali, le correnti zonali equatoriali e la corrente circumpolare antartica mostrano caratteristiche medie e vorticose simili a quelle osservate nei risultati numerici.
Il WOCE (World ocean circulation experiment) ha dato un significativo contributo allo sviluppo del modello teorico. Il programma di rilevamento di WOCE iniziò nel 1990 e furono pianificate prospezioni fino al 1995, cui fece seguito un periodo di cinque anni di analisi. La sincronizzazione dei progetti fu determinata dalle date di lancio dei satelliti TOPEX/Poisedon e ERS-1, che, per la prima volta, avrebbero fornito osservazioni estese a quasi tutta la Terra dell’altezza della superficie marina (altimetro TOPEX) e dei dati del vento (diffusometro ERS-1). A causa dei ritardi nel lancio dei satelliti, la fase di raccolta dei dati di WOCE si è prolungata fino al 1997. Nell’ambito dell’esperimento è stata ottenuta un’immagine ripetuta della struttura della corrente ascensionale dell’oceano superiore. WOCE è ora entrato nella fase di sintesi, in cui le sue osservazioni sono utilizzate in modelli numerici che forniscono una descrizione a quattro dimensioni (spazio1tempo) della circolazione dell’oceano.
Altra notevole meta raggiunta negli anni Novanta fu il lancio del satellite TOPEX/Poisedon, equipaggiato con il più accurato altimetro radar mai messo in orbita. L’altimetro misura l’altezza del livello del mare, cioè la topografia della superficie marina rispetto a superfici equipotenziali gravitazionali terrestri. Se l’oceano fosse fermo, la superficie del mare coinciderebbe con una superficie equipotenziale gravitazionale, detta geoide. La forma del geoide è determinata prevalentemente dalla distribuzione delle masse continentali e dalla orografia terrestre/batimetria oceanica, che producono cambiamenti nel geoide relativo alla Terra solida talvolta pari a 6100 m. Vi è sovrapposta la topografia dell’oceano, che produce cambiamenti al massimo di 61m. All’altimetro è dato il compito di estrarre un segnale rumore, cioè la topografia ;della superficie del mare, dal segnale totale. La missione franco-statunitense TOPEX/Poseidon fu avviata nell’agosto 1992 e, da allora, ha misurato ininterrottamente la forma della superficie marina. Ogni dieci giorni si ottiene il monitoraggio quasi completo degli oceani del mondo (periodo di ripetizione Topex). Il successo della missione TOPEX è andato oltre le aspettative, innanzitutto per la sua durata: era atteso un tempo di vita di cinque anni, mentre l’altimetro continua a fornire puntualmente le mappe topografiche della superficie del mare. In secondo luogo, i dati altimetrici presentano un’accuratezza assoluta con scarto quadratico medio (rms, root mean square) di circa 3 cm e una precisione con rms di circa 2 cm.
Un terzo fondamentale progetto di osservazioni è stato avviato nell’anno 2000 ed è stato quasi completato. Si tratta del progetto ARGO, una rete di osservazioni sugli oceani del mondo, finalizzato alla comprensione e alla previsione della variabilità del clima oceanico. ARGO prevede l’utilizzazione di 3000 strumenti autonomi, ognuno dei quali restituisce ogni dieci giorni un profilo verticale di temperatura e di salinità dalla profondità di 2000 m fino alla superficie del mare. I galleggianti saranno distribuiti sugli oceani a distanza di ca. 3° in latitudine e in longitudine; i dati saranno spediti via satellite e i profili trasmessi rapidamente per prevedere i centri d’uso operativo. Nell’aprile 2003 la rete di galleggianti ARGO comprendeva 770 strumenti. Nell’ottobre 2006, tale rete ha raggiunto 2640 galleggianti.
I programmi come WOCE hanno mostrato il ruolo critico giocato dall’oceano nel sistema clima-accoppiato. Non soltanto l’oceano è il serbatoio dominante di acqua e di calore, ma la sua dinamica e la sua termodinamica ridistribuiscono il calore e assorbono i gas climaticamente attivi. Lo sviluppo tecnico dei galleggianti per l’acquisizione dei profili, durante gli anni Novanta, ha reso possibile per la prima volta, l’osservazione dello ;stato fisico degli oceani del mondo su una base regolare e ben stabilita per i decenni a venire, facendo sì che si possano stabilire sulla base di osservazioni il clima dell’oceano e le sue variabilità stagionali, interannuali e interdecennali, essenziali per la comprensione dell’intero sistema Terra.
Il terzo elemento fondamentale della rivoluzione oceanografica alla transizione dal XX al XXI sec. è l’assimilazione delle osservazioni nei modelli numerici di circolazione. Il filone dell’assimilazione dati è attivo in meteorologia da più di tre decadi e questo sviluppo notevolmente antecedente allo sviluppo in oceanografia è dovuto a due ragioni essenziali. La prima è la motivazione dovuta alla necessita di prevedere le condizioni meteorologiche dalla scala di un giorno a una settimana. La scala oltre una settimana è possibile solo tramite l’assimilazione dati. L’atmosfera infatti è un fluido caotico. Ogni simulazione che parta da una condizione iniziale non perfetta, anche con errori infinitesimali, diverge dalla vera evoluzione in una settimana, il cosiddetto tempo di prevedibilità del fluido atmosferico. Il secondo motivo per lo sviluppo dell’assimilazione dati è l’abbondanza delle osservazioni meteorologiche, dense nel tempo e nello spazio, e oltretutto sinottiche. Una rete ricca di osservazioni, quando inserita nel modello tramite metodologie sofisticate come il filtro di Kalman o le tecniche variazionali permette di controllare i modelli riconducendoli a una previsione accurata.
In oceanografia la motivazione della previsione è molto recente e legata agli interessi della marina nel prevedere i vortici di mesoscala, il tempo oceanico. Inoltre, i dati oceanografici sono estremamente sparsi nel tempo e nello spazio. Soltanto sistemi dinamici dotati di intrinseca prevedibilità, come il fenomeno El Niño nell’Oceano Pacifico, possono essere previsti a lungo termine. Per gli oceani l’obiettivo è quello di effettuare una sintesi fra le osservazioni e la dinamica fornita dai modelli che agiscono come interpolatori nel tempo e nello spazio. Il risultato è una ricostruzione dell’evoluzione del fluido oceanico che permette lo studio di processi specifici.
Un’iniziativa molto importante in questo campo è l’ECCO (Estimating the circulation and climate of the ocean), iniziata nel 1999 e che oggi include numerose università americane e tedesche. La fig. 6 sintetizza il sistema ECCO. Il pannello a sinistra mostra la rete di osservazioni che fornisce dati quasi in tempo reale. Questi dati sono combinati con modelli numerici che possono essere usati solo su supercalcolatori. Il pannello a destra mostra un esempio della sintesi dati-dinamica su una rete globale a 2° di risoluzione, specificatamente il campo medio delle correnti in superficie e a 2000 m di profondità. I campi di temperatura medi sono sovrapposti alle correnti.