Geofisica
La geofisica è la scienza dei fenomeni terrestri indagabili con i metodi della fisica. I fenomeni terrestri sono quelli che si svolgono nello spazio occupato dal pianeta Terra (geosfera), che comprende: (a) una parte solida, studiata dalla geofisica della Terra solida; (b) una liquida, costituita dall'insieme degli oceani e dei mari, e dalle acque di superficie e sotterranee, studiata dalla geofisica dell'idrosfera; (c) un'aeriforme composta di particelle neutre e ionizzate di gas controllati dal campo gravitazionale e dal campo magnetico terrestri, studiata dalla geofisica dell'atmosfera. Scienze di confine con la geofisica sono la geodesia, la geologia, l'idrologia e la geochimica, che studiano la forma e la costituzione della Terra solida e l'idrosfera, l'astrofisica dello spazio circumterrestre, che studia la forma e l'estensione dell'atmosfera, la meccanica celeste del Sistema solare e i movimenti della Terra nello spazio, e, infine, la matematica, che si occupa tra l'altro della formalizzazione analitica delle questioni studiate da queste scienze.
Tale schema ricalca l'insieme delle nozioni di tipo naturalistico note all'inizio del XX sec., in seguito le conoscenze di carattere scientifico acquisite sui fenomeni terrestri definirono ambiti decisamente più articolati. Attualmente la struttura fisica della Terra solida, soprattutto in base alle nuove conoscenze della sismologia e del magnetismo terrestre, è assai differente e molto più dettagliata (per es., è superata la vecchia ripartizione ottocentesca negli strati sferici concentrici sial o crosta, sima, osol e nife). Ancora più grande, rispetto al passato è la conoscenza della composizione e dell'estensione dell'atmosfera terrestre. Sul finire dell'Ottocento, infatti, e ancora nei primi anni del Novecento, l'atmosfera della Terra era vista come una buccia sferica di gas elettricamente neutri a pressione decrescente, sfumante nello spazio interplanetario a circa 2500 km di distanza dalla superficie terrestre. Tale concezione fu drasticamente modificata in seguito alla scoperta che l'alta atmosfera è fortemente ionizzata (ionosfera), da circa 50 km di quota a circa 700, e completamente ionizzata oltre questa quota (magnetosfera), con un'estensione fino a circa 64.000 km nella direzione del Sole e fino a circa 1,3 milioni di km nella direzione opposta.
L'osservazione diretta della Terra solida resta ancora impossibile (il sondaggio più profondo ha permesso di raggiungere ca. 12,5 km); è necessario quindi ricorrere a osservazioni indirette (principalmente offerte dalla sismologia e dal magnetismo terrestre). È invece sensibilmente migliorata l'osservabilità degli oceani, grazie all'entrata in servizio di efficienti sistemi di telerilevamento terrestre e spaziale per lo studio della loro superficie e di altrettanto efficienti batiscafi per le grandi profondità. Un cambiamento decisivo e definitivo riguarda invece l'atmosfera terrestre, che è stato possibile studiare grazie alle tecniche dell'esplorazione spaziale. Infine, mentre nel passato i tre grandi costituenti della Terra, ossia le parti solida, liquida e aeriforme erano considerati ognuno nel suo stretto ambito e indipendenti tra loro, attualmente un risultato acquisito è che essi, in virtù delle reciproche profonde interazioni, vanno a costituire l'ambiente terrestre come un tutto unico e indivisibile, interagente con il Sole e con i corpi planetari.
Il riconoscimento del carattere unitario dell'ambiente terrestre è derivato dalla constatazione che certi fenomeni non possono essere riconosciuti e compiutamente studiati se non in un ambito globale. Un convincente esempio è costituito dal campo magnetico terrestre o . Esso per gran parte (campo nucleare) è generato da correnti elettriche che si formano in virtù dell'interazione tra la rotazione terrestre, il campo magnetico medesimo e la materia fluida elettricamente conduttrice, costituente il nucleo esterno terrestre. Per una piccola parte (campo crostale), invece, è generato dalle rocce della crosta terrestre magnetizzate dal campo nucleare. Mentre per una parte ancora minore è generato da correnti elettriche: da quelle che si formano a circa 120 km di quota per interazione dei gas ionizzati della ionosfera con il campo medesimo, mediata dai parametri della rotazione terrestre. È evidente quindi che nei fenomeni relativi al campo magnetico terrestre sono coinvolte la Terra solida, l'atmosfera e la radiazione ionizzante solare (responsabile della ionizzazione dei gas atmosferici).
Un altro esempio, questa volta di interazione tra differenti scienze, è costituito dal fenomeno geologico noto come deriva dei continenti: le terre emerse che formano i continenti sono animate da un lentissimo moto di allontanamento e di avvicinamento reciproco. Questo fenomeno, evidenziato nei primi anni del XX sec., portò a pensare che, in un'epoca primordiale della storia del pianeta, le terre emerse costituissero un unico supercontinente. Tale teoria, che fu formulata per la prima volta nel 1915 dal geofisico austriaco Alfred Wegener, in base ad alcune evidenze di carattere naturalistico e geomorfologico, rimase per una cinquantina d'anni una semplice ipotesi. Nei primi anni Sessanta, gli studi della magnetizzazione misurabile nelle rocce vulcaniche ‒ con il supporto della loro datazione, fornita dai geologi ‒ diedero la prova della veridicità della teoria della deriva dei continenti, dimostrando che in moltissimi casi la posizione delle varie rocce nel reticolato geografico era assai diversa dalla posizione occupata all'epoca della loro formazione, cioè nel momento del consolidamento in roccia del magma primitivo. Ciò ha consentito di determinare la posizione dei vari continenti nel corso del tempo geologico, fino a riconoscere l'esistenza di un supercontinente primigenio. Su questi studi del geomagnetismo relativi alle lontane epoche geologiche () si fonda anche la moderna teoria della . In questa teoria vengono dunque ad armonizzarsi nozioni di geofisica, di fisica dello stato solido e dei plasmi e di geologia.
I due esempi illustrati, ma se ne potrebbero citare molti altri, implicano una stretta interazione tra vari settori di ricerca nell'ambito della geofisica, interazione che avrebbe dovuto sviluppare un progressivo avvicinamento delle varie discipline in cui è stata suddivisa la geofisica: (a) , vulcanonlogia, fisica dell'interno della Terra e altre minori per la parte solida; (b) oceanologia, limnologia e altre minori per la parte liquida; (c) aerologia, meteorologia, fisica della ionosfera e della magnetosfera, ottica atmosferica e altre minori per la parte aeriforme, oltre al magnetismo terrestre e allo studio del campo gravitazionale. In particolare sarebbe stato utile stabilire relazioni più strette tra tutte le discipline citate con la geologia e la geochimica. Probabilmente la differenziazione esistente tra queste discipline è una conseguenza dello sviluppo storico delle conoscenze sulla Terra, che in genere è stato diverso nei tempi e autonomo da una disciplina all'altra. Ci si limita a ricordare, a titolo di esempio, che le più antiche tra le discipline geofisiche sono l'ottica atmosferica e la meteorologia, sviluppatesi già nel XVIII sec. negli osservatori astronomici, mentre occorre arrivare alla fine del secolo successivo, perché la sismologia si connoti in senso compiutamente fisico, superando il suo primitivo carattere naturalistico maturato nell'ambito della geologia e della geografia. Infine, risale a circa quarant'anni fa la conoscenza della reale costituzione dell'atmosfera terrestre a partire dai risultati ottenuti mediante l'esplorazione spaziale.
Questa differenziazione, unitamente a quella delle procedure e dei linguaggi formali, ha ostacolato la globalizzazione delle conoscenze sulla Terra. Il caso della geofisica dell'atmosfera rappresenta un esempio significativo. La fluidodinamica si occupa della fisica della cosiddetta bassa atmosfera neutra, cioè della parte dell'atmosfera fino a circa 50 km di quota, dove non sono presenti una sensibile presenza di atomi e di molecole ionizzati e si sviluppano i fenomeni meteorologici, mentre il linguaggio di chi si occupa della sovrastante ionosfera è quello dell'elettrodinamica, per passare infine al linguaggio della magnetofluidodinamica dei gas ionizzati (plasmi) quando ci si occupa dello studio della parte estrema dell'atmosfera, cioè nella magnetosfera. Si tratta di tre linguaggi sensibilmente differenti per tre corpi atmosferici che hanno forti affinità e interazioni, sia per la loro comune natura chimica e aeriforme, sia perché traggono quasi tutta la loro energia dalla medesima fonte, vale a dire dalla radiazione elettromagnetica e corpuscolare provenienti dal Sole.
Altra questione dolente è la separazione, tuttora troppo accentuata, tra discipline geofisiche e quelle geologiche. Queste ultime non prevedono l'applicazione sistematica dei metodi e degli algoritmi della fisica, nonostante tali materie siano indissolubilmente connesse. In termini generali, nello sviluppo di una disciplina scientifica a base sperimentale e osservativa, come nel caso dello studio della Terra, l'uso di un linguaggio specifico è accettabile nella fase iniziale di studio di un dato problema, nella quale si fanno sentire maggiormente le caratteristiche di tipo locale (quali quelle morfologico-descrittive), ma appare come elemento negativo nella successiva fase di investigazione causale dei fenomeni, in cui in genere giocano un ruolo via via più importante caratteristiche di tipo globale, che coinvolgono domini di conoscenza affini. La globalizzazione delle procedure e dei linguaggi di discipline confinanti è una necessità nell'evoluzione dello studio delle scienze della Terra. Per quanto riguarda la geofisica, un primo passo in questa direzione è stato compiuto ‒ non soltanto in Italia ‒ nell'ambito dell'insegnamento universitario, con la costituzione in varie facoltà scientifiche di raggruppamenti di discipline geologiche, geofisiche e geochimiche raccolti sotto la denominazione comune di scienze della Terra.
Le discipline geofisiche sono tutte basate sull'osservazione quantitativa, cioè sulla misurazione, diretta o indiretta, delle grandezze rappresentative dei fenomeni naturali dell'ambiente terrestre e sulla successiva elaborazione speculativa delle misure; poiché questi fenomeni presentano una notevole variabilità nello spazio e nel tempo, e alcuni di essi anche un'occorrenza casuale, la loro osservazione deve essere continua nel tempo e di tipo zonale, cioè deve riguardare lo spazio presumibilmente interessato dai fenomeni in questione. Nel suo primo sviluppo storico, la rilevazione geofisica si è basata su osservatori geofisici (in particolare, meteorologici, sismici, magnetici, ecc.), sul modello degli osservatori astronomici. In passato, un osservatorio geofisico consisteva in un edificio che ospitava gli apparecchi per le misurazioni dirette e per la registrazione continua nel tempo dei valori delle grandezze di interesse, nonché il personale addetto all'uso di tali strumenti. Questi ultimi erano analogici, anche per la registrazione, che era di tipo meccanico oppure fotografico.
Nei casi frequenti in cui le grandezze da osservare erano tali da essere disturbate dalle attività dell'uomo (come capita, per es., per le grandezze riguardanti il magnetismo terrestre e la sismologia), gli osservatori venivano situati piuttosto lontano dagli insediamenti urbani e industriali o simili (per es., linee ferroviarie), e quindi in luoghi desolati e spesso impervi. Per provvedere all'intero territorio di interesse si garantiva un'opportuna distribuzione geografica degli osservatori, in modo da costituire una rete, che si scambiava informazioni (misure e registrazioni) mediante le normali vie di comunicazione (posta, telefono, telegrafo, raramente telescriventi e ancora più raramente apparati telefotografici). Se la natura dei fenomeni osservati era tale da richiedere una distribuzione di strutture di osservazione piuttosto fitta sul territorio, com'è il caso, per esempio, della meteorologia, tale rete di costosissimi osservatori era rimpiazzata da una rete di stazioni molto più semplici di osservazione geofisica, con personale operante, ma in genere non dimorante, in esse. Tale struttura osservativa geofisica rimase praticamente immutata fino ai primi anni Sessanta del Novecento, a partire dai quali essa ha subito notevoli miglioramenti.
Il primo aspetto riguarda la rivoluzione operata nella strumentazione geofisica e nella struttura stessa delle reti di osservazione dalla massiccia introduzione, a partire dagli anni Sessanta del Novecento, di dispositivi elettronici a stato solido di vario genere (diodi, transistor, dispositivi integrati e derivati), che presentavano una serie di qualità: piccolo ingombro, robustezza meccanica, ridotte necessità di alimentazione elettrica (a bassa tensione e bassa intensità di corrente) e grande flessibilità operativa, anche per la naturale disponibilità a operare con segnali sia analogici sia digitali (più adatti, questi ultimi, all'elaborazione elettronica automatica). È da osservare che già dagli anni Trenta e Quaranta erano ben noti i miglioramenti che la nascente elettronica era in grado di realizzare nel campo delle osservazioni geofisiche, e in effetti si erano avute alcune significative realizzazioni: si pensi, per esempio, alla costruzione di apparecchi radioelettrici per misurare da terra la concentrazione di elettroni liberi nella ionosfera e di radiometeorografi portati da un palloncino sonda (radiosonde meteorologiche) per misurare da terra la pressione, la temperatura, l'umidità e gli elementi del vento, dal suolo fino a quote intorno a 30 km. E ancora in meteorologia, ma più tardi, negli anni Cinquanta, entrarono in uso i radar per seguire l'evoluzione di sistemi nuvolosi. Si trattava, peraltro, di elettronica con tubi termoelettronici, che richiedeva un frequente controllo dello stato dei tubi e gravose esigenze di alimentazione elettrica; le sue possibilità di utilizzazione erano limitate a strumenti da osservatorio, restando praticamente escluse le apparecchiature destinate a operare in siti senza una continua sorveglianza umana (con l'eccezione di pochi strumenti mobili per misurazioni non protratte nel tempo quali, per es., le radiosonde meteorologiche).
L'uso di dispositivi elettronici a stato solido consentì non soltanto di sostituire gli strumenti precedenti con altri più maneggevoli, ‒ poco esigenti quanto ad alimentazione elettrica e manutenzione, e molto più accurati e affidabili ‒ ma soprattutto di risolvere il problema dell'ottimizzazione dei siti di osservazione. Poiché tali strumenti potevano operare per periodi anche molto lunghi senza richiedere l'assistenza di personale addetto, diventava possibile scegliere il sito di installazione soltanto in base alle migliori condizioni di osservabilità del fenomeno e quindi, se necessario, anche in posti estremamente ardui per l'uomo, in quanto l'alimentazione elettrica era assicurata sia da una fonte locale (una batteria di pile elettriche periodicamente sostituibile, o anche, quando possibile, da un accumulatore elettrico combinato con un generatore fotovoltaico, ossia una batteria solare), sia da una fonte remota di energia mediante una linea di collegamento.
In quest'ultimo caso, la linea di alimentazione poteva essere utilizzata senza difficoltà per trasferire in un luogo anche lontano i dati relativi alle misure effettuate, per una successiva registrazione ed elaborazione. Così l'elettronica a stato solido consentì la realizzazione della telemisurazione, o telemetria, il cui risultato finale consistette nel ridurre il dispositivo di osservazione a un sensore della grandezza da misurare, o poco più, il cui segnale veniva avviato mediante una linea elettrica, una linea telefonica o un radiocollegamento al posto di registrazione e di elaborazione (filtraggio, conversione analogico-digitale, calcolo di medie nel tempo, ecc.). Piuttosto rapido fu il successivo passaggio (avvenuto negli anni Settanta) alla realizzazione di reti di telemetria accentrata, in cui i segnali dei vari sensori distribuiti sul territorio, anche in gran numero, affluiscono a un unico centro di elaborazione. Vale la pena di ricordare che in Italia sono di questo tipo: la Rete Meteorologica Nazionale del Servizio Meteorologico dell'Aeronautica militare, la prima in ordine storico in Italia (ca. 200 osservatori, comprendenti sia quelli presidiati con personale sia quelli automatici), la Rete Sismica Nazionale Centralizzata (RSNC) dell'Istituto Nazionale di Geofisica e Vulcanologia (INGV), la Rete del Servizio Idrografico e Mareografico del Dipartimento servizi tecnici nazionali della Presidenza del Consiglio dei ministri e la Rete Agrometeorologica Nazionale dell'Ufficio Centrale di Ecologia Agraria (UCEA), oltre a varie reti sismiche, meteorologiche, ecc., gestite in ambito locale da enti regionali o da enti di ricerca.
Occorre ricordare che pressoché contemporaneo all'introduzione dell'elettronica a stato solido nelle strutture osservative fu l'uso (diventato sempre più ampio e specializzato) di elaboratori elettronici sia per le procedure di calcolo successive all'acquisizione dei dati sia per il loro controllo. È inoltre da ricordare l'utilizzazione di procedure automatiche delle strutture di osservazione. L'uso di dispositivi elettronici a stato solido ha consentito quindi di ridurre fortemente, e spesso di eliminare del tutto, la presenza di operatori umani nella delicata fase della formazione del segnale costituente la misura; ciò assicura un'affidabilità dei dati medesimi che era assolutamente impensabile con le vecchie procedure di osservatorio o di stazione. Infatti, è noto che, in un processo continuo di misurazioni, un operatore adibito a operazioni di routine può facilmente andare incontro a errore (in termini informatici definito rumore).
Dal punto di vista dell'accuratezza delle misure, un'altra caratteristica positiva delle reti di telemetria accentrata è costituita dal fatto che tutte le misure sono riferite a una medesima scala di tempo, quella dell'orologio elettronico nel centro di elaborazione della rete, anziché, come avveniva e avviene nelle strutture a stazioni indipendenti, a tante scale di tempo quante sono le stazioni, ognuna data dall'orologio locale, affidato al controllo, fatalmente non perfetto, di un operatore. In particolare, questa caratteristica è di notevole importanza nell'elaborazione di dati sismici volta a determinare l'epicentro e l'ipocentro di un terremoto.
Tale modalità costituisce il secondo notevole miglioramento delle tecniche di osservazione geofisica da punti fissi di zone anche molto ampie della superficie terrestre, mari e oceani inclusi. Inizialmente furono usati, in modo più esteso e a più ampio raggio, radar per studiare sistemi nuvolosi, specialmente nella loro evoluzione, quali indicatori della a grande scala; si passò poi all'uso di tecniche analoghe a quelle associate all'utilizzazione dei radar, ma con i lidar e i sonar, che hanno permesso di studiare particolarità chimico-fisiche a piccola scala sia della bassa atmosfera (per es., la concentrazione di aerosol e di inquinanti) sia della superficie del suolo e dei mari (per es., le caratteristiche del moto ondoso).
Un passo molto importante è rappresentato dall'utilizzazione di tecniche iconografiche, che dapprima furono fotografiche ma poi, piuttosto presto, divennero televisive; questa scelta si rivelò per molti versi determinante quando ci si servì di satelliti artificiali terrestri come piattaforme (telerilevamento geofisico da satellite o telerilevamento spaziale): tale attività iniziò nel 1960 con il lancio del primo dei dieci satelliti statunitensi TIROS per osservare a grande scala i sistemi nuvolosi e i loro spostamenti e da allora è ampiamente proseguita con satelliti specializzati per i vari tipi di osservazione e di misurazione. A bordo del satellite viene effettuata una ripresa televisiva e vengono inviate, a stazioni terrestri riceventi, immagini della superficie terrestre compresa nel campo di vista di una o più telecamere di un sistema televisivo radiocollegato con stazioni terrestri. Le telecamere sono provviste di opportuni filtri per operare in determinati campi spettrali (dall'infrarosso all'ultravioletto vicino, passando per il visibile), ognuno dei quali è adatto per osservare specifiche particolarità: per esempio, peculiarità meteorologiche, compresa la concentrazione di inquinanti o di altro, oppure, utilizzando campi spettrali nell'infrarosso in cui i sistemi nuvolosi risultino trasparenti, le caratteristiche del suolo (conformazione geologica e idrogeologica, tipi di vegetazione, temperatura del suolo, ecc.). È stato così risolto definitivamente l'annoso problema dell'osservazione geofisica della superficie terrestre, sia dal punto di vista della globalità e della frequenza (ci si serve allora di satelliti in orbita polare o fortemente inclinata sul piano equatoriale), sia per l'osservazione continua di singole zone (con satelliti geostazionari).
L'esplorazione dello spazio circumterrestre e dei corpi astrali è avvenuta anche utilizzando metodi di osservazione propri della geofisica: (a) con strumenti a bordo di veicoli spaziali, orbitanti o meno (la prima esperienza positiva fu, nel 1959, quella intorno alla Luna della sonda sovietica Lunik 1); (b) mediante l'installazione di strumenti sulla superficie della Luna (la prima fu, nel 1966, la sonda Mariner della statunitense NASA, National Aeronautics and Space Administration) e di alcuni pianeti (il primo tentativo con esito positivo fu su Marte, nel 1976, con le sonde Viking della NASA); (c) mediante operazioni svolte direttamente da astronauti sbarcati su astri (finora soltanto sulla Luna, tra il 1969 e il 1973, da parte di astronauti della NASA). I risultati conseguiti sono stati importanti non soltanto per la fisica dei corpi planetari, ma anche per la geofisica: infatti, la comprensione di alcuni fenomeni evolutivi dell'ambiente terrestre ha tratto benefici, e ancor più ne trarrà in futuro, da informazioni relative a fenomeni analoghi avvenuti in altri corpi planetari.
Nella storia recente della geofisica è ben evidente un altro importante avvenimento: la presa di coscienza, da parte dell'intera collettività, e non soltanto da parte della ristretta comunità dei geofisici e dei geologi, che l'ambiente di cui si occupa questa scienza non è un continuum spazio-temporale fra i tanti che si considerano nelle scienze fisiche, ma è l'ambiente dell'uomo, in cui questi esplica le sue attività e compie il suo ciclo vitale, nel quale si sono sviluppate tutte le forme di vita che conosciamo. L'ambiente terrestre può essere considerato anche come il contenitore di ciò che correntemente si chiama biosfera. Questa presa di coscienza è avvenuta nella seconda metà degli anni Settanta ed è stata presentata da qualcuno come una sorta di scoperta: in realtà si potrebbe parlare, al più, di una riscoperta. Infatti, le discipline geofisiche di più antica origine naturalistica sono nate e si sono sviluppate con una forte connotazione antropica; ciò è percepibile, per esempio, nella storia della meteorologia, né potrebbe essere altrimenti per una disciplina che si occupa di fenomeni di primaria importanza per l'agricoltura e per tante altre attività umane, nonché, al limite (nella climatologia), per la stessa abitabilità della Terra.
Non è facile capire bene, a distanza di tempo, da cosa sia derivata esattamente questa improvvisa evoluzione, che può a ragione essere definita antropizzazione della geofisica e, in generale, delle scienze della Terra; è certo che essa ha interessato un ambito ben più ampio del mondo scientifico, dando luogo nell'opinione pubblica al riconoscimento dell'ecologia come scienza e alle varie prese di posizione in difesa dell'ambiente. Probabilmente vari elementi hanno influito su questa sensibilizzazione quali: (a) il rifiuto di assistere impotenti alla progressiva degradazione dell'ambiente come: deforestazione e desertificazione di vaste zone, inquinamento dell'aria e delle acque, riduzione dell'azione schermante dello strato di ozono atmosferico nei riguardi dei nocivi raggi ultravioletti solari; (b) la presunzione che il progresso scientifico e tecnico potesse consentire di abbandonare il tradizionale atteggiamento passivo e fatalista nei riguardi dei grandi fenomeni naturali, e segnatamente di quelli catastrofici (uragani, inondazioni, terremoti, eruzioni vulcaniche, ecc.), in favore di un atteggiamento attivo, volto a controllare tali fenomeni e in particolare a contrastare gli effetti dannosi che ne derivano. Si trattò di un atteggiamento che pervase in modo particolarmente acceso l'opinione pubblica e il mondo scientifico dei Paesi sviluppati nei quali si trovano aree esposte a gravi rischi idrologici, vulcanici e specialmente sismici quali Giappone, Stati Uniti (California), Russia centrale asiatica, Cina centrale e le tre penisole nel mare Mediterraneo, Italia, Grecia e Turchia.
Nel nostro Paese quel moto d'opinione si sviluppava proprio in un periodo di notevole attività sismica distruttiva che, iniziato nel 1968 con il terremoto del Belice, in Sicilia, e proseguito con quelli dell'Anconetano (1972), della Valnerina (1973-1974) e del Friuli (1976), raggiunse il suo culmine, nel 1980, con il disastroso terremoto dell'Irpinia. La risposta del mondo scientifico italiano alle sollecitazioni avanzate dalla pubblica opinione fu pronta e si manifestò in varie iniziative di ricerca, volte specialmente alla precisazione del concetto di rischio connesso ai fenomeni naturali e al problema della previsione delle caratteristiche di localizzazione spazio-temporale e di intensità di tali fenomeni. In particolare, le attività riguardanti i fenomeni sismici furono promosse e coordinate nel grande progetto finalizzato di geodinamica del Consiglio Nazionale delle Ricerche, che coinvolse tutti i ricercatori italiani alla fine degli anni Settanta e negli anni Ottanta. Nacquero così grandi aspettative, sia per le previsioni sismiche sia per quelle meteorologiche, ben fondate sul grande progresso che ci si poteva attendere con fiducia in relazione allo sviluppo di adeguati mezzi di osservazione e di calcolo. Quanto al vagheggiato intervento umano sull'evolversi dei fenomeni catastrofici, considerazioni di vario tipo sulla natura stessa di questi ultimi e sulla scala assolutamente sovrumana delle energie messe in gioco, portarono presto a escludere per la maggior parte degli eventi la possibilità di interventi diretti e a fissare piuttosto l'attenzione sui mezzi per contenere i danni. Per esempio, questo filone di ricerca portò in vari Paesi, compresa l'Italia, all'introduzione di migliori normative per le costruzioni in zone con sensibile rischio sismico.
Un altro risultato, in parte già noto, fu la constatazione che in alcune situazioni potevano entrare in gioco fattori di natura non scientifica, talora capaci di bloccare ogni iniziativa. Un caso tipico è quello della pioggia provocata, cioè delle tecniche per provocare la condensazione in gocce dell'umidità atmosferica e la caduta della pioggia, non soltanto per ovviare a una situazione di siccità, ma anche per sciogliere in pioggia le pericolose nubi grandinigene. I primi esperimenti positivi di queste tecniche (principalmente la disseminazione nell'atmosfera, mediante bruciatori al suolo, di particelle di ioduro d'argento agenti come nuclei di condensazione dell'umidità dell'aria) risalgono agli anni Cinquanta e Sessanta. Quando si tentò di passare all'applicazione su grande scala per razionalizzare la caduta della pioggia al momento opportuno e su una data zona, insorse un grave ostacolo di natura legale, costituito dalle cause intentate dai proprietari dei fondi agricoli contigui a quelli irrorati dalla pioggia provocata (e non beneficiati da questa), sulla base della non infondata pretesa che l'umidità sottratta all'atmosfera sarebbe stata altrimenti portata dai venti sui loro fondi, determinando su questi la caduta normale della pioggia (a complicare le cose intervennero anche alcuni Stati con proteste analoghe). La questione della proprietà dell'umidità atmosferica sovrastante una determinata zona della superficie terrestre non ha trovato ancora soluzione e così non si è potuto realizzare nessuno dei pochi casi possibili di intervento umano diretto sui fenomeni naturali.
Se nell'ambito di alcuni problemi determinati a scala locale si può consentire alle scienze della Terra e alle singole discipline in cui queste scienze si articolano, una certa specificità di procedure e di linguaggi, per quanto riguarda invece i problemi su grande scala, e soprattutto su scala planetaria, l'ambiente terrestre va considerato un sistema unico. Di conseguenza, il corpus di queste scienze e discipline deve fondarsi su un linguaggio e su procedure logico-analitiche il più possibile comuni. In questa globalizzazione entrano anche le acquisizioni dell'astrofisica dei pianeti del Sistema solare, in particolare di quelli evolutivamente più simili alla Terra (Venere e Marte). Alla globalizzazione delle scienze si accompagna quella delle osservazioni, basate sopratutto ‒ anche se non esclusivamente ‒ su reti di sensori (sia terrestri sia spaziali) specializzati per tutte le grandezze di interesse, con elaborazione accentrata in ambito sia planetario sia geografico e topografico, e con operazioni ed elaborazioni completamente automatiche. Tra gli scopi della geofisica e delle altre scienze della Terra, un posto fondamentale hanno le questioni riguardanti la conservazione e il miglioramento dell'ambiente terrestre, quale ambiente dell'uomo e, in senso più largo, di tutti gli esseri viventi. In particolare per la geofisica, si tratta in primo luogo di farsi carico degli studi volti a salvaguardare l'ambiente e i viventi dai rischi connessi alle catastrofi naturali.
I problemi emergenti per il presente e il futuro da queste linee di tendenza hanno caratteristiche differenti. Precisamente, i problemi, sia di concetto sia operativi, relativi agli apporti dell'astrofisica del Sistema solare e alle tecniche di osservazione dei fenomeni e di elaborazione delle misure, sono ovvi, dato che in definitiva attengono ai sicuri prevedibili progressi dell'esplorazione spaziale, dell'elettronica e dell'informatica. Non è così, invece, per i problemi relativi alla desiderata armonizzazione delle scienze della Terra e alla difesa dell'ambiente terrestre. A tal proposito, è ovvia la constatazione che si è ancora piuttosto lontani dal raggiungimento dell'obiettivo, anche se in misura disuguale nei diversi Paesi. Esaminando le varie situazioni nazionali si ha l'impressione che la compenetrazione reciproca delle scienze della Terra ‒ condizione preliminare all'auspicata globalizzazione ‒ risenta fortemente della maggiore o minore rigidità delle strutture universitarie e di ricerca. Infatti, mentre è già sensibilmente sviluppata nei Paesi nei quali tali strutture sono relativamente flessibili e facilmente adattabili al singolo individuo e alla singola disciplina ‒ come accade negli Stati Uniti d'America ‒ lo è assai meno nei Paesi europei, compresa l'Italia, che hanno strutture universitarie, e anche di ricerca avanzata, irrigidite da una lunga tradizione.
A proposito del doveroso apporto della geofisica alla difesa dell'ambiente, e in particolare alla difesa dell'uomo e delle sue attività dalle catastrofi naturali, la situazione si presenta in modo assai più complesso, in quanto si vanno a toccare questioni basilari della geofisica. A tal riguardo, considerata la difficoltà di un approccio di tipo generale, ci limiteremo ad affrontare una questione tipica, vale a dire la previsione dell'evoluzione spazio-temporale dei fenomeni naturali, adducendo come esempi i due casi particolari, ma di grande importanza, della previsione dei terremoti e delle previsioni meteorologiche a medio termine. Tali previsioni, nonostante le grandi speranze nutrite negli anni Settanta, si sono rivelate molto più difficili da realizzare rispetto a quello che ci si attendeva: siamo di fronte a due veri e propri problemi emergenti.
Negli anni Settanta si riconosceva che il metodo principe per questo genere di previsione era rappresentato dallo studio dei cosiddetti : certe caratteristiche variazioni temporali e spaziali di grandezze geologiche (per es., la giacitura di strati del sottosuolo e di falde acquifere), fisiche (per es., la velocità di propagazione di onde elastiche e le caratteristiche di onde elastiche emesse da rocce sollecitate staticamente) e chimiche (per es., la concentrazione nelle acque sotterranee di gas radioattivi emessi da rocce compresse per il progressivo accumularsi di tensioni elastiche). Nei Paesi afflitti da grave rischio sismico si svilupparono numerose ricerche sperimentali su questi precursori, ma i risultati ottenuti furono contraddittori, e ciò venne attribuito al numero relativamente ridotto delle osservazioni. Si ritenne, cioè, che per ottenere risultati decisamente significativi fosse sufficiente aumentare il numero delle grandezze da tenere sotto osservazione continua, nonché il numero e la qualità delle stazioni di osservazione.
Da allora si sono fatti grandi sforzi per migliorare le cose secondo questi intendimenti, ma a tutt'oggi gli accurati dati ottenuti dall'esercizio di estese reti locali di osservazione, istituite in varie zone a rischio sismico, hanno portato a uno sconsolante risultato: se è vero che un terremoto è sempre preceduto e accompagnato da variazioni significative delle grandezze sopra citate, non è vero il contrario, cioè che il verificarsi di tali variazioni sia un segno certo e di univoca interpretazione spazio-temporale relativamente al verificarsi di un terremoto. Gli sforzi osservativi cui abbiamo accennato, che hanno compreso anche l'ampliamento della famiglia dei precursori sismici (includendovi, per es., il rilevamento dei campi elettromagnetici naturali), sono stati e saranno assai utili per aumentare le nostre conoscenze fisiche sull'interno della Terra, ma per il momento hanno fallito il loro obiettivo primario. Tuttavia, di fronte all'enorme importanza di ottenere un'attendibile previsione sismica, si è ancora dell'opinione che valga la pena di aumentare ulteriormente la famiglia dei precursori, individuando meglio in essa quelli da correlare con opportuni metodi di elaborazione dei segnali.
Quanto all'altra strada che inizialmente i previsori sismici, specialmente di scuola geologica, avevano tentato di seguire ‒ quella cioè di basarsi su eventuali regolarità spazio-temporali dell'attività sismica in una data regione (le cosiddette ricorrenze sismiche), desumibili dallo studio dei dati storici (località, data e ora, intensità dell'evento) riportati nei cataloghi della sismicità regionale (ciò che impropriamente si chiamò statistica dei terremoti) ‒ essa si è rivelata presto impraticabile: i concetti, e ancora di più i metodi della statistica, non possono essere applicati nello stesso modo a eventi singolari e irripetibili quali sono i terremoti, anche in una medesima località. Così, in attesa di qualche risultato definitivo fornito dalla fisica dei precursori sismici, la riduzione del rischio sismico resta ancora affidata a provvedimenti di tipo passivo: principalmente, il rigido controllo dell'edificabilità in zone sismiche, fino ad arrivare al divieto di edificare, all'allontanamento definitivo della popolazione, allo spostamento in altri luoghi delle attività preesistenti, e, secondariamente, dove ciò non sia necessario o non sia possibile, il rifacimento o il consolidamento delle costruzioni esistenti.
In questo ambito, un passo ritenuto decisivo fu compiuto quando, alla fine degli anni Settanta, alle precedenti procedure di tipo analogico e, almeno in parte, soggettivo, fu sostituita una procedura, comune a tutti i servizi meteorologici, basata su un modello matematico dei fenomeni atmosferici che condizionano il tempo meteorologico (un sistema di equazioni differenziali non lineari del secondo ordine alle derivate parziali, con un numero di coefficienti dell'ordine delle decine di migliaia), gestito da un elaboratore elettronico. La risoluzione numerica di tale sistema di equazioni, una volta introdotti in esso i necessari dati osservativi in un certo istante e in un numero sufficientemente grande di punti al suolo e in quota (dati rappresentati dai suddetti coefficienti), consente di determinare, mediante complessi programmi di elaborazione elettronica, anche con presentazione grafica, lo stato dell'atmosfera in un istante futuro e di disporre delle informazioni essenziali sui fenomeni meteorici futuri (nebbie, piogge, grandinate, uragani, ecc., nonché elementi del vento e valori di pressione, temperatura e umidità dell'aria al suolo e in quota nei vari siti).
Apparve subito chiaro che il termine di previsione, cioè l'intervallo di tempo tra l'istante futuro cui riferire una previsione attendibile e l'istante attuale, era fortemente condizionato, a parità degli altri parametri, dall'ampiezza della zona di interesse e di quella zona, assai più estesa, che deve essere coperta dai dati osservativi, i quali si estendono fino alla massima quota controllabile con radiosonde, cioè fino a circa 30 km. Così, per esempio, per previsioni attendibili a 12 ore relative all'Italia occorrono i dati rilevati nell'intera Europa, mentre, già per le previsioni a medio termine di 2÷4 giorni, la regione di osservazione deve estendersi all'intero emisfero boreale, e per una durata superiore va considerata l'intera superficie terrestre, oceani e calotte polari inclusi (comunque, un limite ammesso in modo unanime per il medio termine è ora di 7÷10 giorni che deriva dallo stato attuale delle nostre conoscenze sulla dinamica dell'atmosfera); altre limitazioni di termine e di accuratezza dipendono poi dall'aumento crescente della complessità del modello matematico e dei programmi di elaborazione al crescere del termine, il che implica un parallelo aumento della potenza di calcolo necessario.
Il miglioramento della qualità delle previsioni sembrava legato essenzialmente all'ampliamento delle osservazioni e alla disponibilità di elaboratori di potenza crescente. In effetti, tale miglioramento si è potuto constatare in seguito all'introduzione dei rilevamenti meteorologici mediante satelliti ‒ che hanno permesso di coprire vaste zone altrimenti inaccessibili ‒ e all'uso di elaboratori ad architettura parallela, di grande potenza di calcolo (a partire dal 1976, con i supercalcolatori Cray). Tuttavia, un più attento esame portò a riconoscere che il miglioramento non era dell'entità che si sarebbe dovuta avere in rapporto ai progressi delle osservazioni e dei mezzi di calcolo. Molti esperti del settore, pertanto, si sono fatti un'opinione sensibilmente diversa, e cioè che il modello matematico di base abbia delle limitazioni intrinseche, dovute all'uso di rappresentazioni troppo semplificate di una realtà molto complessa.
In effetti, nello studio dei fenomeni meteorologici si sta superando la fase di prima approssimazione ed è allora ragionevole nutrire un certo scetticismo sul fatto che un modello matematico di atmosfera relativamente semplice, come quelli in uso, sia capace di rappresentare, a un grado di approssimazione superiore al primo, una realtà complessa come quella dei fenomeni dinamici dell'atmosfera. Su microscala, i protagonisti di tali fenomeni sono le singole molecole dei gas atmosferici, che si aggregano poi nei sistemi caratteristici della macroscala (masse d'aria, corpi nuvolosi, vortici ciclonici e anticiclonici, ecc.). La trattazione tradizionale ha considerato e considera appunto i sistemi su macroscala, con evidente inadeguatezza se si pensa ai problemi atmosferici nella loro reale natura microscopica e caotica; d'altra parte, i metodi e gli algoritmi offerti attualmente dalla matematica, primi fra tutti quelli della meccanica statistica, appaiono inadeguati per affrontare questioni del genere.
Un'efficace rappresentazione della natura caotica e probabilmente anche casuale dei fenomeni atmosferici, da attribuire all'americano Edward N. Lorenz ‒ uno specialista delle applicazioni di equazioni differenziali non lineari nel campo della dinamica meteorologica ‒ è costituita dall'enunciazione (1993) del cosiddetto effetto farfalla, secondo il quale se una farfalla battesse le ali, poniamo, a Shanghai, potrebbe verificarsi in conseguenza, entro un certo tempo e con probabilità presumibilmente piccola ma di certo non nulla, l'abbattersi di un tornado sulle coste, poniamo, della Florida. Attualmente non siamo in grado di matematizzare ciò e, pertanto, per un ulteriore salto di qualità delle previsioni meteorologiche a medio termine occorre presumibilmente attendere qualche consistente sviluppo sia della fluidodinamica non lineare sia della matematica dei sistemi caotici, alla cui recentissima nascita la tecnica delle previsioni stesse ha dato un importante contributo. Le conclusioni seguite alle considerazioni sui due esempi precedenti costituiscono un ulteriore argomento per promuovere, in questa nostra epoca in cui problemi di seconda approssimazione sono sempre più frequenti nell'orizzonte delle scienze della Terra, la globalizzazione di tali scienze.
Anderson 1989: Anderson, Don L., Theory of the Earth, Boston-Oxford, Blackwell Scientific, 1989.
Pedlosky 1979: Pedlosky, Joseph, Geophysical fluid dynamics, New York, Springer, 1979 (2. ed.: 1987).
Peixoto, Oort 1992: Peixoto, José P. - Oort, Abraham H., Physics of climate, New York, American Institute of Physics, 1992.
Poirier 1991: Poirier, Jean-Paul, Introduction to the physicsof the Earth's interior, Cambridge, Cambridge University Press, 1991.
Rees 1989: Rees, Manfred H., Physics and chemistry of theupper atmosphere, Cambridge, Cambridge University Press, 1989.