La seconda rivoluzione scientifica: fisica e chimica. La macrofisica
La macrofisica
Intorno al 1900, nella meteorologia si distinguevano tre diversi filoni. Nel primo le previsioni del tempo erano considerate ‒ secondo la definizione di un osservatore contemporaneo ‒ un'attività "empirica […], priva di norme rigide e basata sull'esperienza personale, che non è possibile comunicare" ‒ laddove l'esperienza era quella acquisita nell'interpretare le carte del tempo; in altri termini la previsione del tempo nasceva da un'esperienza consolidata in materia di evoluzione di situazioni meteorologiche tipiche. Un secondo filone, la meteorologia dinamica, consisteva nell'applicare alcune nozioni di fisica allo studio dell'atmosfera e nell'analizzare le proprietà meccaniche e termodinamiche di un miscuglio di fluidi elastici (l'aria e il vapor d'acqua) posto sulla Terra in rotazione. Il terzo filone, eredità di epoche imperialistiche, era rappresentato dalla climatologia; la comprensione del clima a livello regionale, nazionale e globale aveva infatti accompagnato e sostenuto la conquista del globo da parte dell'Europa. La climatologia consisteva, in massima parte, nel riepilogo di considerazioni statistiche sul tempo tipico, del tipo: a latitudini intermedie la velocità media del vento è maggiore in inverno che in estate.
L'aerologia, ossia l'esplorazione dell'atmosfera lungo la dimensione verticale, fece il suo ingresso come nuovo e importante campo della meteorologia durante i primi decenni del nuovo secolo. I meteorologi, fin dagli ultimi decenni dell'Ottocento, avevano effettuato lanci di aquiloni e palloni, equipaggiati con strumentazioni per la registrazione dei dati; in seguito a ciò Léon-Philippe Teisserenc de Bort (1855-1913), nel 1902, annunciò la scoperta della stratosfera, una regione dell'atmosfera che partiva da 12 km di quota ca. e al cui interno la temperatura variava molto poco con l'altitudine. Gli appassionati di volo, desiderosi di offrire il loro contributo alla scienza e, allo stesso tempo, bisognosi di conoscere le condizioni presenti e previste in alta quota, organizzarono campagne di osservazioni atmosferiche in aeroplano e su zeppelin.
La Scuola di Bjerknes
L'impulso più forte allo sviluppo della meteorologia nel corso della prima metà del XX sec. provenne dalla Scuola norvegese di Bergen, fondata da Vilhelm F.K. Bjerknes (1862-1951). Sul finire dell'Ottocento, il padre di Bjerknes aveva lasciato incompiuta una carriera dedicata all'unificazione dell'elettromagnetismo e della meccanica attraverso l'idrodinamica; nella speranza di completarne l'opera, all'inizio del nuovo secolo Bjerknes pubblicò numerosi teoremi matematici sul moto vorticoso e sulla circolazione dei fluidi, i cosiddetti 'teoremi della circolazione'. Il ramo principale della ricerca fisica, tuttavia, riguardava i fenomeni microscopici, che stavano costringendo ad abbandonare progressivamente i metodi della meccanica ordinaria: a dominare la scena della fisica durante la prima metà del Novecento sarebbero state la meccanica statistica, la termodinamica e, infine, la meccanica quantistica. D'altra parte, l'ambiente intellettuale di Stoccolma, città sede della Högskola isolata e priva di risorse presso la quale aveva iniziato a insegnare Bjerknes, era più favorevole ad applicare la fisica ai fenomeni macroscopici che non a quelli microscopici. Scienziati della capitale svedese ‒ Svante August Arrhenius (1859-1927) tra questi ‒ si erano dedicati allo sviluppo di una 'fisica cosmica', in cui i metodi esatti delle scienze fisiche sarebbero stati applicati agli oceani, all'atmosfera e ad altro ancora. La scienza scandinava era attenta anche all'esplorazione dell'Artico e all'applicazione dell'oceanografia alla pesca. Fu proprio il fallimento di una spedizione nell'Artico con palloni atmosferici nel 1897 ad alimentare l'interesse per la dimensione verticale dell'atmosfera; altrettanto si può dire del dibattito sull'origine dei cicloni alle medie latitudini. I teoremi formulati da Bjerknes, sebbene non costituissero un risultato di primaria importanza nel campo delle teorie fisiche, garantirono nuova linfa agli interessi scientifici della Scandinavia.
I teoremi della circolazione di Bjerknes si rivelarono subito di grande utilità e permisero di risolvere due problemi messi in evidenza dal grande esploratore artico Fridtjof Nansen (1861-1930): uno riguardava la deriva di navi e ghiaccio, che non segue la direzione del vento ma è obliqua rispetto a essa; l'altra concerneva 'l'acqua morta', fenomeno per il quale le barche che si trovano all'interno di fiordi o baie perdono improvvisamente l'abbrivio e il controllo del timone. Tali teoremi garantirono inoltre un valido aiuto per l'industria della pesca nella regione, che si trovava in una condizione di precarietà e che, per l'esplosione demografica dell'Ottocento e l'introduzione della tecnica a strascico con navi a vapore, vedeva accresciuta l'esigenza di condurre in modo razionale le attività. In effetti i teoremi della circolazione mostravano che masse o strati d'acqua con temperatura e grado di salinità diversi conducono all'instaurarsi di una circolazione, ossia di correnti oceaniche; queste, a loro volta, possono causare fenomeni singolari concernenti la pesca delle aringhe ‒ anomalie riscontrate peraltro già alla fine degli anni Novanta del XIX sec., quando si era osservato che le aringhe inseguono un particolare strato di acqua tiepida e molto salina. L'industria della pesca trasse beneficio dal fatto che simili particolarità fossero state comprese e potessero essere previste.
I rapidi successi ottenuti spiegano l'affermarsi dei procedimenti di Bjerknes per lo studio dell'oceanografia e della meteorologia che si registrò negli anni seguenti. La nuova metodologia, definita da Bjerknes 'criterio razionale per le previsioni del tempo', consisteva nel ricorrere alle leggi della fisica, in particolare a quelle dell'idrodinamica e della termodinamica, per ricavare, a partire dalle condizioni attuali dell'atmosfera, i suoi moti futuri. Bjerknes, insieme a colleghi e allievi (e tra questi anche il figlio Jakob, 1897-1975), durante gli anni precedenti alla Prima guerra mondiale applicò l'idrodinamica ai moti dell'aria. Poiché le 7 equazioni alle derivate parziali che, come egli aveva dimostrato, governavano l'atmosfera non potevano essere risolte analiticamente, elaborò in sostituzione un 'calcolo grafico'; esso consisteva in metodi di risoluzione che sfruttavano operazioni grafiche sulle mappe. Presso l'Istituto di Geofisica di Lipsia, diretto dallo stesso Bjerknes a partire dal 1913, si tentò di calcolare l'andamento di un campo di vento fino a tre ore successive, a partire dalla conoscenza delle condizioni di vento e di pressione; l'obiettivo tuttavia fallì, a causa di difficoltà dovute all'attrito in vicinanza del suolo e alla molteplicità di fattori locali che condizionavano il fenomeno.
Altri ebbero ugualmente scarso successo nelle previsioni del tempo condotte mediante calcoli; tra questi, famoso fu il caso di Lewis F. Richardson (1881-1953), che all'inizio degli anni Venti del Novecento ricorse ad alcuni metodi numerici per risolvere le equazioni alle derivate parziali introdotte da Bjerknes. In sei settimane di lavoro, Richardson calcolò i mutamenti del tempo che si sarebbero verificati durante sei ore successive in due dei settori in cui egli aveva suddiviso l'Europa. Al procedimento venne riconosciuto il merito di mettere in luce la mutua interazione tra una grande varietà di processi meteorologici ma i calcoli non raggiunsero lo scopo, tanto che Napier Shaw (1854-1945), il più importante meteorologo della Gran Bretagna, commentò: "Una qualunque ipotesi, anche la più irragionevole, non sarebbe rimasta altrettanto distante dalla giusta previsione".
Il lavoro di Richardson persuase i meteorologi che la valutazione per mezzo di calcoli o dell'andamento del tempo meteorologico era impresa praticamente impossibile. Il suo metodo rimase inutilizzato fino all'avvento dei calcolatori elettronici, verso la fine degli anni Quaranta, quando la Grande guerra aveva ormai indotto Bjerknes e la sua scuola a rinunciare a calcolare l'andamento del tempo e ad adottare previsioni di tipo empirico.
La 'militarizzazione' della meteorologia
Prima dello scoppio della guerra, il ruolo sociale della meteorologia era in larga misura circoscritto al compito di mettere in guardia i naviganti e, in secondo luogo, gli agricoltori, in relazione al sopraggiungere di tempeste. Germania, Austria e Paesi scandinavi erano gli unici, all'inizio del XX sec., a finanziare cattedre universitarie di meteorologia. La situazione andò incontro a un radicale mutamento nel corso della Prima guerra mondiale, allorquando le nazioni, allo stesso modo in cui avevano mobilitato intere economie per la guerra, assunsero il controllo sia della meteorologia sia di altri settori della ricerca scientifica, mettendo i servizi meteorologici nazionali alle dipendenze dei ministeri della guerra e di quelli affini: Bjerknes arrivò a parlare di 'militarizzazione della meteorologia'. L'uso bellico dei gas, l'artiglieria antiaerea e quella a lunga gittata, la fonotelemetria e ovviamente lo scontro aereo imponevano alle forze armate di acquisire dati sulle condizioni del tempo e di disporre di previsioni meteorologiche; anche per l'agricoltura, in condizioni di forte sofferenza durante la guerra, era fondamentale ogni possibile sostegno offerto dalla disciplina.
Le necessità militari forzarono i confini tradizionali della meteorologia: i combattimenti, gli attacchi con i gas nonché l'aviazione esigevano nelle previsioni del tempo ‒ in tutte e tre le dimensioni spaziali ‒ una precisione e una cura del dettaglio in misura mai registrata in precedenza. L'impostazione tradizionale, basata su lunghi studi di mappe meteorologiche bidimensionali e scissa dalla comprensione delle proprietà fisiche dell'atmosfera, si era dimostrata inadatta; quale metodo del tutto nuovo, si affermò quello delle 'previsioni a breve periodo', che forniva informazioni dettagliate sul tempo in una determinata località con diverse ore di anticipo. Durante la guerra, i meteorologi ebbero inoltre accesso a risorse di portata difficilmente immaginabile in precedenza. Importanza enorme rivestì la costruzione di fitte reti di stazioni di rilevamento in grado di comunicare rapidamente tra loro, dalle quali gli studiosi di meteorologia ottennero dati talmente dettagliati e precisi, che furono scoperti alcuni fenomeni del tutto sconosciuti prima dell'inizio della guerra.
Bjerknes e i suoi allievi dell'Istituto di Geofisica di Bergen, presso il quale egli era stato chiamato nel 1917, furono costretti dalla situazione di emergenza generata dalla guerra a occuparsi del problema del 'fronte polare'. Il governo norvegese desiderava finanziare ricerche sulle previsioni climatiche per soccorrere l'agricoltura, che versava in condizioni critiche, e di esse si fece carico Bjerknes, che rinunciò al proprio progetto di previsioni meteorologiche 'razionali'. Privata, a causa della segretezza che i tempi di guerra imponevano, delle informazioni sul tempo provenienti dall'Inghilterra, la Norvegia si munì di un'ampia rete di stazioni di osservazione situate su isole costiere remote, dove le misure di vento fornivano un'indicazione delle condizioni atmosferiche più fedele rispetto a quelle ottenute sulla terraferma. Nelle previsioni condotte con metodi tradizionali non si ricorreva a misure di vento, ma gli osservatori della Marina, addestrati a individuare i sottomarini, comunicavano ora la direzione del vento in modo molto più preciso rispetto a prima; Bjerknes, sfruttando i loro dati, ricavò quelle che definì 'linee di convergenza' lungo cui si addensano le correnti di vento cicloniche e che sono strettamente associate a linee di groppo (linee di temporali e forti venti dagli effetti devastanti per coltivazioni e aeroplani, che possono estendersi per centinaia di chilometri). Il gruppo di Bergen, armonizzando tra loro procedimenti matematici ed empirici, giunse a migliorare notevolmente e a rendere più dettagliate le previsioni.
La meteorologia tra le due guerre
Alla conclusione della guerra apparve chiaro che sia gli ambienti militari sia quelli civili, in particolare l'aviazione commerciale, avrebbero continuato ad aver bisogno di assistenza da parte dei meteorologi. In Norvegia la pesca, in condizioni disperate, si affiancò all'agricoltura nell'appoggiare l'attività di previsioni del tempo condotta a Bergen. Per poter giungere a una reale comprensione di come si comporta l'atmosfera nelle tre dimensioni, la Scuola di Bergen cessò di occuparsi di linee di convergenza e di groppo, che erano proiezioni bidimensionali, e si impegnò nella caratterizzazione delle masse d'aria e delle loro interazioni nelle tre dimensioni. In mancanza di misure dirette di alta quota, fu effettuata un'osservazione accurata di vari tipi di nubi, grazie alla quale fu possibile individuare superfici di discontinuità tridimensionali. In precedenza i meteorologi, e tra questi Shaw, avevano già constatato che simili superfici accompagnavano cambiamenti improvvisi della temperatura, della direzione del vento e di altre caratteristiche connesse con il passaggio di cicloni, ma non avevano sfruttato questo fenomeno per le previsioni meteorologiche, in parte perché le stazioni di rilevamento non erano tanto ravvicinate ‒ e collegate in modo così rapido da permettere l'evidenziazione di tali discontinuità con sufficiente dettaglio ‒ ma anche perché, prima della guerra, non si era avvertita in modo particolare l'esigenza di previsioni minuziose e precise: era sufficiente avvisare genericamente le regioni costiere e le navi del sopraggiungere di tempeste. Il gruppo di Bergen, nel 1919, postulò l'esistenza di una superficie di discontinuità che si estendesse lungo l'intero emisfero e che, mutuando un'immagine dalla guerra, fu definita 'fronte polare'. Essa rappresentava il conflitto tra aria fredda e asciutta proveniente dal polo, che si spingeva verso Sud, e aria tropicale che premeva verso Nord dalle zone equatoriali, umida e tiepida. Ciascun contendente sperimentava avanzate e ritirate, salienti e accerchiamenti, proprio come era accaduto fino a poco prima alle forze armate impegnate in combattimento. Nel momento in cui l'aria calda, più leggera, iniziava a scorrere dalla massa d'aria fredda, più densa, una piccola ondulazione nella superficie di discontinuità si sarebbe trasformata, in un certo numero di giorni, in un vortice di grande estensione, vale a dire in un 'ciclone'. In un primo momento, disponendo di pochi dati, la Scuola di Bergen sostenne l'esistenza di un unico fronte polare, lungo il quale i cicloni si disponevano come perle di una collana; ma non appena la rete di stazioni d'osservazione migliorò, il gruppo si rese conto dell'esistenza di quattro fronti polari lungo l'emisfero settentrionale, ciascuno dotato di un tipo specifico di cicloni.
Negli anni Venti la Scuola di Bergen incluse nella teoria del fronte polare i fronti occlusi, che si generano quando l'aria fredda si solleva da terra e si dispone tutt'intorno alla fascia di aria tiepida, che interrompe così la propria avanzata. Il fronte occluso rappresentava lo stadio finale dell'evoluzione di un ciclone: l'energia di una tempesta aumenta sempre più fintantoché aria tiepida continui a scorrere al di sopra della massa di aria fredda ma, non appena l'afflusso si interrompe, il fronte diventa occluso e il ciclone inizia a estinguersi. Il concetto di fronte occluso, basato sulla visualizzazione tridimensionale dei processi atmosferici e su osservazioni di scala dettagliata, rappresentava una scoperta tipica della Scuola di Bergen.
Intorno alla metà degli anni Venti i meteorologi della capitale norvegese misero a punto quella che sarebbe divenuta nota come 'analisi delle masse d'aria'. A lungo le piogge locali erano state considerate eventi casuali impossibili da prevedere; accadeva che in giorni di tempo buono, in cui non vi erano cicloni a incombere nel cielo, durante il pomeriggio potevano svilupparsi o meno piogge e temporali; secondo l'opinione di Shaw a volte la pioggia cadeva senza alcuna ragione comprensibile dal punto di vista meteorologico. Si trattava di rovesci con effetti disastrosi per la fienagione dei contadini norvegesi e pericolosi per l'aviazione. I meteorologi di Bergen risolsero la questione introducendo il concetto di massa d'aria. Dal momento che una grande quantità d'aria, a causa del proprio stazionare per un certo tempo al di sopra di una vasta area orizzontale, acquisisce caratteristiche fisiche (in particolare temperatura e tasso di umidità) omogenee, nel caso in cui essa transiti sopra regioni con caratteristiche differenti tra loro si possono ingenerare situazioni di instabilità. Durante l'estate, gli strati inferiori dell'aria tiepida e umida che si dirige verso la Norvegia, proveniente dai mari meridionali, si raffredderanno transitando sopra acque più fredde; lungo la dimensione verticale, l'andamento della densità e della temperatura avrà caratteristiche di stabilità, con l'aria fredda e densa più in basso. Nel passaggio sopra le superfici della terraferma, più tiepide, lo strato inferiore dell'aria fredda proveniente dal Polo subisce invece un riscaldamento; la distribuzione temperatura-densità diviene instabile. Sebbene l'aria sia troppo secca perché si verifichino rovesci, nell'arco di molti giorni le brezze marine diurne apporteranno umidità alle masse d'aria, sufficiente a innescare precipitazioni: da qui i rovesci all'apparenza casuali, in condizioni di tempo per il resto buone.
La Scuola di Bergen provocò una rivoluzione nella meteorologia e, anche se solo in una certa misura, nell'oceanografia. Essa si era sviluppata non in Germania, in Francia, in Gran Bretagna o negli Stati Uniti ‒ i centri del mondo scientifico ‒ ma nei Paesi scandinavi, che di quel mondo di ricerca restavano ai margini, ed era stata fondata da un fisico di livello forse non eccezionale in matematica e in fisica fondamentale ma che, nella propria carriera, aveva tentato di sviluppare la fisica in direzioni trascurate dai professionisti più in auge. La Scuola inoltre aveva ottenuto sostegno finanziario da un paese la cui economia, semplice e in larga misura di stampo tradizionale, era in grave difficoltà, e non da una nazione forte e nel pieno delle proprie potenzialità.
Sebbene numerosi meteorologi forti dell'esperienza maturata in guerra seguissero l'esempio della Scuola di Bergen, la nuova metodologia, basata su un'analisi in tre dimensioni, di tipo matematico e che ricorreva al concetto di 'fronte', rappresentava una difficile sfida per coloro che avevano una formazione più tradizionale. Negli Stati Uniti, per esempio, i nuovi metodi non furono insegnati in alcuna istituzione accademica fino a quando, nel 1928, il meteorologo di Bergen Carl-Gustav Rossby (1898-1957) non inaugurò un programma di meteorologia al suo arrivo presso il Massachusetts Institute of Technology. Cinque anni dopo il California Institute of Technology aprì un dipartimento di meteorologia; altri cinque anni passarono prima che i metodi norvegesi fossero accolti ‒ nella persona di Rossby ‒ dal Weather Bureau degli Stati Uniti, che fino a quel momento li aveva fortemente osteggiati. In Inghilterra il "Daily weather report" evitò di rappresentare sulle proprie mappe i fronti fino al 1933.
Il successo delle previsioni del tempo condotte secondo i metodi elaborati a Bergen, insieme al proliferare di viaggi aerei, in automobile e attraverso gli oceani, alimentò negli anni Trenta un diffuso interesse per la meteorologia e incentivò i governi a garantire il proprio sostegno. La meteorologia praticata da privati si affermò come una nuova professione, per esempio nel settore delle linee aeree e delle assicurazioni. L'American Meteorological Society, fondata nel 1919, nel 1940 aveva raddoppiato i propri iscritti, mentre la International Meteorological Organization inaugurò nel 1940 un ufficio permanente in Olanda. Grandi quantità di dati relativi agli strati alti dell'atmosfera erano forniti dall'aviazione ed erano ottenuti grazie all'uso di radiosonde che, lanciate in quota mediante piccoli palloni, trasmettevano via radio misure di temperatura, pressione e umidità.
Nel periodo compreso tra le due guerre e durante la Seconda guerra mondiale, la meteorologia contribuì allo sviluppo di dispositivi meccanici con cui svolgere calcoli. Il Census Bureau degli Stati Uniti aveva iniziato, fin dagli anni Novanta del XIX sec., a ricorrere ai dispositivi con schede perforate, che Herman Hollerith (1860-1929) aveva progettato per elaborare dati altrimenti non utilizzabili. Gli uffici europei per la meteorologia e il Weather Bureau degli Stati Uniti adottarono le schede perforate, rispettivamente, negli anni Venti e Trenta del Novecento. La tecnologia alla base del funzionamento dei calcolatori meccanici migliorò rapidamente, fino a includere perforatrici multiple, unità di inserimento (che permettevano di confrontare due numeri), tabulatori (per generare prospetti scritti), pannelli di controllo e interruttori o relè elettromagnetici; i tubi elettronici a vuoto furono applicati ai calcolatori nel 1948 e, nel 1949, fu introdotto il primo calcolatore programmabile a scheda. Chi si occupava di meteorologia sfruttò anche una varietà di ausili grafici e meccanici, come speciali regoli calcolatori e nomogrammi ‒ ausili grafici per l'applicazione di alcune leggi fisiche. L'uso di calcolatori meccanici permise di rispondere (in modo negativo) alla millenaria questione se il tempo meteorologico seguisse una periodicità cronologica, per esempio per ciò che riguardava i cicli di precipitazioni. Fu possibile sottoporre ad analisi una tale quantità di dati, e con tale accuratezza, da escludere l'esistenza di qualsiasi correlazione. Ci fu comunque chi si rammaricò per il fatto che si fosse accantonato il metodo visuale grazie al quale era possibile 'coltivare ancora qualche speranza'. Un meteorologo che viaggiò molto, John W. Mauchly (1907-1980), insoddisfatto della lentezza dei calcoli, inventò un analizzatore armonico elettrico, ossia una specie di calcolatore analogico; dal 1941 si occupò quindi di dispositivi digitali e, abbandonata la meteorologia, progettò con John Presper Eckert (1919-1995) molti dei primi calcolatori digitali. Divenne in tal modo un esempio di come in generale i meteorologi preferissero questo secondo tipo di dispositivi, più adatti rispetto a quelli analogici a fornire la soluzione numerica di equazioni differenziali. Nell'immediato dopoguerra John von Neumann (1903-1957) individuò nelle previsioni meteorologiche il campo di applicazione più adatto e interessante per esercitarsi con i calcolatori elettronici recentemente sviluppati.
Gli anni della Seconda guerra mondiale
Durante la Seconda guerra mondiale la meteorologia svolse un ruolo non meno importante di quello avuto nella Grande guerra e, semmai, fu incorporata in modo ancora più completo all'interno delle forze armate dei paesi belligeranti. Lo scoppio della guerra impose nuovamente, in modo immediato, il silenzio radio e il segreto sulle informazioni relative al tempo. Le forze navali e aeree intrapresero spesso missioni che avevano il compito di raccogliere dati meteorologici, mentre la climatologia assunse particolare importanza nel pianificare a lunga scadenza le operazioni di offesa e nello stabilire postazioni permanenti in regioni molto distanti: con la guerra si affermò come disciplina la climatologia applicata.
Analogamente a quanto si era verificato nella Grande guerra, anche durante la Seconda guerra mondiale aumentò notevolmente il numero degli occupati nel settore della meteorologia: gli Stati Uniti formarono duemila meteorologi (tra i quali circa novecento donne) per ogni anno di guerra e il British Meteorological Office decuplicò il proprio personale, fino a raggiungere i seimila impiegati. Dopo il conflitto questo andamento fu mantenuto, con le università che istituivano corsi accademici e le compagnie aeree servizi meteorologici, e come per le altre discipline scientifiche le istituzioni governative civili, ma soprattutto militari, assicurarono ampio sostegno alle ricerche di meteorologia.
Durante la Seconda guerra mondiale (come già era avvenuto nella Prima), lo sviluppo di reti di osservatori meteorologici contribuì a far progredire la disciplina: i dati disponibili, relativi alle condizioni dell'aria in alta quota, divennero sufficienti a trasformare l'analisi tridimensionale in una pratica ordinaria, i nuovi meteorologi furono addestrati a lavorare con le tre dimensioni e le previsioni stesse divennero tridimensionali. Grazie all'accesso a informazioni di cui in passato la Scuola di Bergen aveva dovuto fare a meno fu possibile avanzare ulteriormente verso l'obiettivo che quest'ultima si era posta: ottenere previsioni mediante le leggi della fisica. In meteorologia furono adottate nuove tecnologie militari, quali i radar e i sistemi di puntamento automatico, ma poiché il carattere di soggettività che tradizionalmente caratterizzava le previsioni rendeva assai difficile raggiungere l'unanimità ‒ così importante in contesti militari ‒ da parte dei vari gruppi di meteorologi aggregati alle diverse unità, si diffuse un certo interesse verso le cosiddette 'previsioni oggettive', basate su algoritmi e principî fisici. L'esigenza di un addestramento rapido sollecitò inoltre il ricorso ad algoritmi di veloce insegnamento, che potessero sostituire i lunghi anni di esperienza necessari per le previsioni soggettive.
Com'è facile immaginare, durante la guerra le previsioni non furono sempre accurate. Lo Strategic bombing survey, studio realizzato dagli Stati Uniti alla conclusione del conflitto, sostenne che, tipicamente, le condizioni del tempo avevano impedito il 45% dei bombardamenti aerei in Europa: le previsioni in corrispondenza del bersaglio si erano rivelate accurate soltanto nel 58% dei casi, quelle sulla base di partenza e sul percorso erano state, a distanza di ventiquattro ore, accurate nel 75% dei casi, mentre nell'arco di diciotto ore o meno il livello di accuratezza saliva all'87%. Sebbene i generali a capo delle operazioni aeree, delusi dai risultati forniti, le giudicassero imprecise e non affidabili, per gli Alleati le previsioni del tempo furono decisive nella scelta del momento per intraprendere lo sbarco in Normandia, nel giugno del 1944: nei giorni che precedettero l'invasione Dwight D. Eisenhower, comandante supremo delle forze alleate, tenne quotidianamente due incontri di aggiornamento con i meteorologi. Sia gli Alleati sia i tedeschi previdero, come effettivamente avvenne, che il 5 e il 6 giugno sulle coste della Normandia sarebbe transitato un fronte temporalesco seguito da tempo migliore, ma il comando tedesco ritenne che fossero necessari cinque giorni consecutivi di tempo buono per compiere un'invasione con mezzi anfibi; lo stato di allerta fu allentato e l'attacco, sferrato la mattina del 6 giugno, colse le difese tedesche impreparate. Con ogni probabilità neppure i progressi compiuti dopo la guerra avrebbero permesso previsioni del tempo migliori relativamente a quel periodo di tempo così limitato.
Fin dal XVI sec. marinai ed esploratori avevano osservato e rappresentato su mappe le correnti che sulla superficie degli oceani trascinavano alla deriva relitti, legname, iceberg, bottiglie e ancore galleggianti. All'inizio del Novecento la scoperta di acqua molto fredda nelle profondità oceaniche indusse gli specialisti a postulare l'esistenza di una circolazione polare, analoga a quella che contraddistingue il moto generale dell'atmosfera: acqua fredda proveniente dal Polo si inabissa e si dirige verso l'equatore, mentre in superficie acqua più calda di origine equatoriale si muove verso il Polo. Sarebbero quindi due le fasce di circolazione polare che circondano la Terra, una per ciascun emisfero. Durante i lunghi viaggi oceanici condotti nel XIX sec. erano stati raccolti solamente dati limitati e sparsi, che non avevano permesso di distinguere vortici, anse, meandri e altri dettagli più minuti, né di percepire mutamenti nel movimento delle correnti, ma durante l'ultimo quarto dell'Ottocento misurazioni condotte dalla pirocorvetta Challenger e da spedizioni successive mostrarono che la circolazione polare e le altre correnti di superficie sono di natura più complessa di quanto prevedesse l'immagine statica che l'oceanografia, fino ad allora, aveva offerto dell'oceano.
L'oceanografia giunse a comprendere l'importanza delle masse d'acqua circa un quarto di secolo prima rispetto a quanto avrebbe fatto la meteorologia nei confronti delle masse d'aria: grandi quantità di acqua, contraddistinte da particolari valori di salinità, di temperatura e di altre peculiari caratteristiche fisiche, prendono forma alla superficie degli oceani, scendono fino a determinate profondità a seconda della loro densità e conservano la loro coerenza mentre viaggiano per migliaia di chilometri, trasportate dalle correnti oceaniche. Sollecitati dalla preoccupazione per la pesca e dalla convinzione che le correnti oceaniche influenzassero la migrazione dei pesci, i Paesi scandinavi erano all'avanguardia nella ricerca relativa alla massa d'acqua, così come lo sarebbero poi stati nello studio della massa d'aria (entrambi ambiti di ricerca in cui la raccolta dei dati osservativi richiedeva precisione e un impegno economico senza precedenti). Gli idrografi, infatti, negli anni Sessanta e Settanta dell'Ottocento avevano evidenziato come la temperatura dell'acqua regolasse sia i luoghi nei quali i pesci vivevano, sia i tempi necessari alla schiusa delle uova, sia la crescita del plancton di cui si cibavano le larve di pesce; le correnti, perciò, condizionavano la localizzazione tanto delle masse d'acqua di una data temperatura, quanto del pesce e del plancton. Durante l'ultimo decennio del XIX sec. i chimici svedesi Otto Pettersson (1848-1941) e Vagn Walfrid Ekman (1874-1954) ‒ colleghi di Bjerknes presso la Högskola di Stoccolma ‒ organizzarono una serie di spedizioni internazionali in cui erano coinvolte per diversi giorni numerose navi, a ognuna delle quali era assegnata una rotta prestabilita: era un tipo di missione che si sarebbe dimostrato particolarmente adatto allo studio delle correnti e delle masse d'acqua. Su esortazione di Pettersson, la Svezia ospitò nel 1902 il primo International Council for the Exploration of Seas (ICES), che finanziò spedizioni trimestrali accuratamente coordinate, durante le quali fu analizzata dalle componenti dei vari Stati membri l'intera regione nordorientale dell'Oceano Atlantico. Il Consiglio tracciò le linee lungo le quali, fino alla Seconda guerra mondiale, si sarebbe sviluppata in Europa settentrionale l'oceanografia; durante la guerra la sua attività fu sospesa e nel dopoguerra l'ICES non fu più in grado di competere con le molte nuove strutture che conducevano ricerche di oceanografia.
La pesca razionale: strumenti teorici e materiali
Pettersson riconobbe nei teoremi della circolazione di Bjerknes lo strumento mediante il quale migliorare l'oceanografia e la pesca fino a trasformarle in una scienza, in una pesca razionale, allo stesso modo in cui Bjerknes stesso aveva concepito una meteorologia razionale. I moti delle correnti oceaniche potevano essere calcolati tenendo conto di due fenomeni principali, ossia una pressione lungo la direzione orizzontale, generata dall'acqua che tende a raggiungere l'equilibrio e a disporsi su una superficie equipotenziale, e l'effetto Coriolis: l'acqua meno densa, che risale attraversando la superficie di separazione tra due masse d'acqua, in seguito tenterà di riportarsi al livello che le compete e sarà attratta in direzione di zone poste più in basso, occupate da acqua più densa; la forza di Coriolis devierà però questo moto a un angolo retto rispetto alla pendenza che si è stabilita lungo la superficie, generando così correnti che prendono il nome di 'geostrofiche'. Gli oceanografi scandinavi iniziarono nel 1900 a ricorrere alle equazioni geostrofiche per calcolare le correnti oceaniche.
Una pesca razionale richiedeva nuovi e migliori strumenti di misura. Il termometro reversibile, brevettato alla fine degli anni Settanta dell'Ottocento dalla fabbrica Negretti e Zambra, aveva una stretta strozzatura e una curva a forma di 'S' posta tra il serbatoio di mercurio e la scala graduata: con il bulbo disposto verso il basso, il termometro misurava la temperatura di un certo strato d'acqua oceanico; quando, fissato a un cavo, era fatto discendere in profondità, esso veniva capovolto mediante un meccanismo a elica o una corda più leggera e il flusso di mercurio si bloccava in corrispondenza della strozzatura, permettendo così alla posizione del liquido lungo la scala di essere poi letta sulla nave. Nei modelli della Negretti e Zambra, tuttavia, accadeva spesso che il mercurio non rimanesse bloccato nella posizione in cui avrebbe dovuto, che il vetro, solitamente non di prima qualità, alterasse lo zero e che le scale fossero incise con scarsa precisione. La qualità dei modelli tedeschi, costruiti a partire dal 1902, era notevolmente migliore: la loro accuratezza raggiungeva il centesimo di grado centigrado. Intorno al 1910 Nansen mise a punto un congegno, tuttora in uso, da lui chiamato 'bottiglia d'acqua reversibile' e divenuto presto noto con il nome di 'bottiglia di Nansen': è costituito da un supporto ribaltabile, da una bottiglia isolante destinata a contenere l'acqua e da una coppia di termometri.
I frutti della nuova metodologia, che consisteva nell'applicare procedimenti dinamici a risultati di misurazioni sistematiche e dettagliate ottenute mediante i nuovi strumenti, apparvero nel monumentale The Norwegian sea. Its physical oceanography based upon the Norwegian researches 1900-1904, scritto nel 1904 da Nansen e Bjørn Helland-Hansen. Grazie a queste ricerche il Mare di Norvegia divenne quello meglio studiato al mondo e, al tempo stesso, si dimostrò che il mare in movimento era una realtà di gran lunga più complessa di quanto si fosse creduto fino ad allora.
Il primo Novecento: sviluppi della teoria e della strumentazione
Durante la Prima guerra mondiale le principali potenze compresero l'importanza dell'oceanografia ai fini dello scontro navale, in particolare per ciò che riguardava la fonotelemetria dei sottomarini. Negli Stati Uniti d'America era stata fondata nel 1901 la Submarine Signal Company di Boston, la cui principale finalità era quella di equipaggiare le navi di campane subacquee e dispositivi di ascolto che potessero avvisare della presenza di bassi fondali. Reginald Fassenden (1866-1932), in precedenza assistente di Thomas A. Edison (1847-1931), intorno al 1914 progettò per tale compagnia un oscillatore che, generando forti suoni sott'acqua, aveva la duplice funzione di segnalatore acustico e di rivelatore della presenza di iceberg (questione divenuta molto popolare dopo il disastro del Titanic nel 1912) e presto adattò tale dispositivo a usi militari contro i sottomarini. Presso le basi sperimentali di Nahant, nel Massachusetts, e di New London, nel Connecticut, la Signal Company e il National Research Council svilupparono rivelatori acustici passivi (ritenuti più affidabili rispetto ai dispositivi che usavano l'eco), mediante i quali era possibile individuare sottomarini a molte miglia di distanza. Per la fine della guerra Stati Uniti, Gran Bretagna, Francia e Germania avevano migliorato la tecnologia degli ecoscandagli al punto da renderla molto utile per l'oceanografia: nel 1922 la nave statunitense Stewart, in viaggio da Rhode Island a Gibilterra, scandagliò i fondali in media cento volte al giorno utilizzando il Sonic Depth Finder di Harvey Hayes, nato dagli esperimenti condotti da quest'ultimo nella piscina dello Swarthmore College, dove insegnava; da queste misurazioni fu presto ricavato un profilo del fondale dell'Atlantico. Come termine di paragone, nell'arco di tre anni e mezzo il Challenger aveva portato a termine meno di trecento ecoscandagliamenti a profondità maggiori di mille braccia (che corrispondono a 1800 m ca.).
Nel dopoguerra guadagnò ampio consenso il metodo che richiedeva il ricorso a quelle equazioni geostrofiche, le quali, essendo di complessa e difficile applicazione, erano state accolte con riluttanza al di fuori della Scandinavia. Un'importante svolta avvenne nel 1924, quando Georg Wüst (1890-1977) verificò che le osservazioni condotte nello stretto della Florida erano in accordo con i calcoli geostrofici. La prima spedizione che applicava all'intero oceano il metodo di misurazione, sistematico e dettagliato, messo a punto dagli scandinavi vide la partecipazione della cannoniera tedesca raddobbata Meteor (1925-1927); la missione, progettata subito dopo la guerra, ricevette il sostegno del comando navale tedesco, dal momento che soltanto navi disarmate adibite alle misurazioni oppure alla ricerca avevano il permesso di battere bandiera tedesca all'estero e rimanere in contatto con gli esuli della Germania. La Marina completò i lavori sulla cannoniera e fornì l'equipaggio, mentre la Notgemeinschaft der Deutschen Wissenschaft (Organizzazione di emergenza della scienza tedesca) raccolse i fondi per il personale scientifico e per procurare la strumentazione necessaria. Wüst, assieme ad Alfred Merz (1880-1925) che era la guida scientifica della spedizione e professore presso l'Istituto di oceanografia dell'Università di Berlino, sfruttando i risultati di precedenti spedizioni ricostruì una sezione longitudinale della temperatura e della salinità lungo il meridiano centrale dell'Atlantico; grazie alla spedizione della Meteor, che aveva portato a termine tredici profili dell'Atlantico per un'estensione complessiva di 67.000 miglia ca., si giunse a provare l'esistenza non di una semplice circolazione a due cicli, ma di una struttura a quattro livelli: acqua salata e tiepida in superficie, quindi una striscia di acqua intermedia di origine antartica, acqua atlantica in profondità e, sul fondale, acqua estremamente fredda. La topografia rivelata da oltre 60.000 scandagliamenti del fondale oceanico era inoltre assai più complessa di quanto si fosse immaginato, tale da esercitare una notevole influenza sulla circolazione dell'Oceano; per esempio la distribuzione del grado di salinità e della temperatura sui due lati della dorsale oceanica presentava notevoli differenze. Nel 1924 un metodo simile fu seguito per l'Oceano Meridionale dalla nave inglese Discovery, sulla quale Robert F. Scott (1868-1912) era stato imbarcato durante la sua prima missione in Antartide.
Un'ulteriore conferma della validità del metodo dinamico fu fornita dall'International Ice Patrol che, istituito dopo il disastro del Titanic e dal 1919 posto sotto il comando della guardia costiera degli Stati Uniti, aveva il compito di rintracciare ogni primavera più di un migliaio di iceberg, a sud e a sud-est dell'Isola di Terranova, che galleggiavano alla deriva verso le rotte delle navi e le zone di pesca. All'inizio l'Ice Patrol faceva affidamento soltanto sull'osservazione diretta della posizione degli iceberg e, in modo approssimativo, del loro moto di deriva, ma la conoscenza delle correnti avrebbe permesso di arrivare a prevedere la posizione delle montagne di ghiaccio con una settimana di anticipo (circostanza particolarmente utile nei casi in cui le frequenti nebbie dell'Atlantico impedivano l'osservazione). Verso il 1926 l'Ice Patrol aveva confermato la validità del metodo dinamico: gli iceberg seguivano i cammini previsti dai calcoli geostrofici.
L'oceanografia durante la Seconda guerra mondiale
La Seconda guerra mondiale condizionò l'oceanografia nella stessa misura in cui influenzò le altre scienze (per lo meno nel caso degli Stati Uniti, per i quali le informazioni a nostra disposizione sono più dettagliate). Il governo nazionale, e i militari in particolare, presero il controllo del campo: tutto il personale scientifico fu mobilitato per la ricerca bellica e aumentarono vertiginosamente i fondi stanziati e gli occupati nel settore. Il numero degli impiegati del Naval Research Laboratory, per esempio, balzò da quattrocento a duemila e i finanziamenti da 1,7 milioni fino a 12,7 milioni di dollari. A causa del segreto militare cessò la pubblicazione dei risultati di ricerca, mentre la rigida suddivisione in compartimenti, che impediva la comunicazione tra i vari settori di un grande progetto, era motivo di grande insoddisfazione per gli scienziati, abituati a un libero e aperto scambio di idee. Come era accaduto con la meteorologia, l'interesse dei militari era rivolto maggiormente verso i metodi più recenti della fisica, piuttosto che a quelli tradizionali e verso problemi che avevano un'immediata ricaduta nelle applicazioni militari, piuttosto che a questioni che coinvolgevano la ricerca fondamentale di lungo termine. Argomenti come lo studio delle onde e l'acustica sottomarina, d'altra parte, non solamente furono essenziali per le imprese belliche ma si rivelarono come nuovi importanti campi di ricerca nel dopoguerra; le spedizioni in acque profonde, ovviamente, divennero impossibili nelle condizioni imposte dalla guerra.
La guerra sottomarina sollevò, ancora una volta, problemi di oceanografia molto urgenti e coinvolse il maggior numero di esperti, elevando immediatamente l'acustica sottomarina al rango della più importante branca dell'oceanografia. Negli anni Trenta il Naval Research Laboratory e la Submarine Signal Company avevano realizzato trasmettitori ad alta frequenza per l'ecometria direzionale; verso la fine degli anni Trenta Columbus Iselin (1904-1971), dal 1940 direttore della Woods Hole Oceanographic Institution, studiò i motivi per cui, spesso di pomeriggio, la fonotelemetria falliva, soggetta a quello che egli chiamò appunto 'effetto pomeriggio': scoprì che l'origine del fenomeno risiedeva in strati di acqua di differente temperatura che, formatisi vicino alla superficie dell'oceano, rifrangevano e distorcevano il suono, al punto che persino sottomarini che navigavano 'sotto il naso' potevano passare inosservati. La struttura generale dell'oceano per i primi 1200-1500 m di profondità ‒ quelle alle quali viaggiavano i sottomarini ‒ era nota: uno strato di acqua tiepida alla superficie nelle zone temperate e tropicali; il termoclino, in cui diminuisce rapidamente la temperatura dell'acqua; gli abissi oceanici, con temperature pressoché costanti all'aumentare della profondità. Era molto importante conoscere la posizione del termoclino, che condizionava sia lo zavorramento del sottomarino sia la capacità di quest'ultimo di rimanere nascosto alle navi di superficie. Rossby nel 1934 aveva inventato un 'oceanografo' che, calato da una nave, registrava la temperatura all'aumentare della profondità. Migliorato da Athelstan Spilhaus (1911-1998) e da altri, il 'BT' (o 'batitermografo', come fu ribattezzato) era dotato di uno stilo montato su un mantice compressibile, che si muoveva al variare della temperatura e della pressione e disegnava una curva su una lastra di vetro affumicato. Tale strumento, molto apprezzato dai comandanti dei sottomarini, fornì decine di migliaia di lastre che, raccolte e analizzate dopo la guerra dagli scienziati della Scripps Institution of Oceanography e di Woods Hole, permisero di ottenere informazioni sulle condizioni dell'oceano con un livello di risoluzione sia spaziale sia temporale mai raggiunto prima; furono i dati ricavati con il batitermografo che, per esempio, fornirono i dettagli delle complicate fluttuazioni, controcorrenti e vortici della Corrente del Golfo.
Inizialmente i rumori naturali e animali presenti sott'acqua provocarono molto sconcerto agli equipaggi dei sottomarini. Tra quelli che lasciavano più disorientati c'erano un colpo secco, uno scricchiolio o uno schiocco che, alla fine, si scoprì essere causati da un gamberetto del genere Alpheus. Il biologo marino Martin W. Johnson (1893-1984), della Division of War Research e della Scripps Institution of Oceanography, presso la University of California, compì numerosi studi per analizzare questo genere di rumori ricorrendo a un metodo di gran lunga più elaborato di quelli adottati in precedenza dagli zoologi marini: radunò gli animali in una vasca, ne registrò i suoni per mezzo di un idrofono e analizzò il profilo acustico. Dopo il conflitto, da questo lavoro nacque una nuova branca della biologia marina, che permetteva di riconoscere le specie marine dai suoni emessi.
Dopo l'acustica sottomarina, l'obiettivo più urgente per gli oceanografi in tempo di guerra era comprendere le condizioni di onda e di risacca che consentissero gli ammaraggi dei mezzi anfibi. Il lavoro più importante fu condotto da Harald Sverdrup (1888-1957), formatosi alla Scuola di Bergen e direttore della Scripps Institution, e da Walter Munk, anch'egli del medesimo istituto: il loro Wind, waves and swell. A basic theory for forecasting (1943) permetteva di calcolare le caratteristiche di onde e mare morto a partire dalla durata e velocità del vento e dal tratto di mare (ossia dimensione e forma della massa d'acqua sulla quale agisce il vento). Per lo sbarco in Normandia fu istituita una Swell Forecast Section che, oltre a disporre di una rete di cinquantuno stazioni disposte lungo le coste inglesi della Manica adibite alla registrazione delle onde, intraprese una campagna di fotografie aeree delle condizioni di risacca sulle coste francesi. Questo reparto fornì previsioni accurate delle condizioni di onda e di risacca per l'invasione, ma non si capirono quali conseguenze tali condizioni avrebbero avuto sull'ammaraggio e ne seguì un'enorme confusione. Nelle settimane e nei mesi successivi ci si rese conto che, con mare di un metro o un metro e mezzo, la stazza che poteva ammarare in un determinato intervallo di tempo diminuiva fino all'80%. Un altro studio condotto presso la Scripps Institution, dimostratosi preziosissimo, riuscì a prevedere le condizioni nel difficile delta del fiume Irrawaddy in occasione dell'invasione della Birmania.
Terminata la guerra molti scienziati, nel fare ritorno alle proprie sedi universitarie, si aspettavano di riprendere i progetti che erano stati costretti ad abbandonare a causa del conflitto, ma l'inflazione postbellica aveva reso insufficienti i finanziamenti destinati alla ricerca in oceanografia. L'amministrazione militare, tuttavia, non dimenticò i vantaggi che aveva tratto da tale disciplina: negli Stati Uniti l'Office of Naval Research, fondato nel 1946, era la fonte di sostegno economico più solida; la Marina fece affidamento sugli oceanografi, per esempio, quando si trattò di preparare gli esperimenti atomici nel Pacifico. Negli Stati Uniti il Dipartimento per la difesa contribuì per il 46% ai fondi destinati complessivamente all'oceanografia, la National Science Foundation (un ente civile) per il 7%, altre amministrazioni governative per il 28% e i privati per il 19%.
All'inizio del XX sec. la geologia proponeva per la formazione delle strutture di larga scala sulla Terra un modello dotato di una propria coerenza interna che, allo stesso modo della sintesi realizzata dalla fisica classica, non superò gli anni della Prima guerra mondiale. Come era accaduto nel campo della fisica, i principî fondamentali che ispiravano questa teoria erano diretta eredità del pensiero illuministico: la Terra avrebbe preso forma a partire da un globo fuso che, fin dalle origini, si stava raffreddando. All'inizio del Novecento riscosse ampio successo in Europa la teoria esposta in Das Antlitz der Erde (Il volto della Terra), pubblicato in tre volumi tra il 1883 e il 1901 dal geologo svizzero Eduard Suess (1831-1914). Secondo Suess la crosta terrestre, formatasi circa cento milioni di anni fa, costituiva inizialmente un supercontinente che copriva l'intera superficie terrestre, chiamato dallo studioso 'terra di Gondwana'. L'ulteriore raffreddamento avrebbe causato una contrazione del nocciolo che, a sua volta, avrebbe portato al collasso di alcune regioni di crosta e alla formazione dei bacini oceanici; la Terra avrebbe continuato a contrarsi, provocando il collasso in successione di nuove porzioni di crosta, in modo tale che altre regioni continentali si sarebbero tramutate in oceano. La teoria permetteva di spiegare la presenza di fossili di animali marini in zone elevate e asciutte dei continenti e la distribuzione di specie fossili simili, o addirittura identiche, in regioni che oggigiorno sono separate dagli oceani. Per di più, esistevano indicazioni di catene montuose (quella ercinica e quella degli Appalachi) che attraversavano rispettivamente il vecchio e il nuovo mondo e la cui formazione risaliva, in entrambi i casi, all'era paleozoica. A dominare il panorama scientifico negli Stati Uniti era la 'teoria della stabilità' proposta da James D. Dana (1813-1895), secondo la quale i bacini oceanici avrebbero avuto origine da un'accentuata contrazione iniziale e la loro posizione e quella dei continenti non avrebbero subito variazioni nel corso del tempo.
La crisi della 'teoria della contrazione'
Tali teorie furono messe in dubbio per diversi motivi. Alcuni studi riguardo alle Alpi avevano rivelato l'esistenza di grossi blocchi di roccia, che dovevano essere stati trasportati dalle faglie per centinaia di chilometri, e di falde, ossia pieghe che erano state coricate e allungate sui loro lati. In questo tipo di processi erano coinvolte spaventose forze orizzontali e non verticali, come avrebbe invece richiesto la teoria della contrazione; in aggiunta, la Terra avrebbe dovuto avere in origine dimensioni esageratamente grandi perché fosse possibile il trasporto di rocce per simili distanze mediante semplice contrazione.
Un secondo motivo di crisi sorse dalla misurazione delle anomalie gravitazionali: durante gli anni Cinquanta del XIX sec. topografi impegnati nel Great Trigonometrical Survey dell'India scoprirono che i loro pesi a piombo erano deviati dalla catena dell'Himalaya in misura minore di quanto i calcoli avessero previsto. George B. Airy (1801-1892), astronomo reale della Gran Bretagna, propose come soluzione che la crosta terrestre 'galleggiasse' su un fluido di densità maggiore e paragonò i continenti a zattere fatte di tronchi d'albero: tanto più in alto le montagne si ergevano sopra la superficie, tanto più in profondità erano sommerse le loro basi. Il materiale 'crostale' che si trovava sotto l'Himalaya, essendo più leggero e spingendosi molto a fondo nella parte interna, esercitava sugli strumenti dei topografi un'attrazione gravitazionale meno intensa di quella che avrebbe esercitato un uguale volume di materiale della parte interna. Misurazioni condotte all'inizio del XX sec. dimostrarono che l'attrazione gravitazionale è approssimativamente di uguale intensità tanto sopra i mari quanto sopra la terraferma e successivi dati sismologici confermarono che le estremità inferiori della crosta giacciono molto in profondità al di sotto delle montagne. Gli oceani e i continenti sono perciò in equilibrio gravitazionale, secondo quanto prevede il principio della 'isostasia', in base al quale diverse parti della crosta terrestre sono in equilibrio idrostatico su un sostrato semifluido; poiché i continenti sono molto più in alto, devono essere costituiti di materiale più leggero. L'isostasia diede il colpo di grazia alla teoria del collasso della crosta: in nessun modo alcune regioni di crosta, che è più leggera, avrebbero infatti potuto giungere al collasso e affondare in un 'nucleo' più denso. Senza contare che, se i bacini oceanici e i continenti sono costituiti di materiali differenti, è impossibile che gli uni si siano formati dal collasso degli altri.
Durante l'ultima metà del XIX sec. lord Kelvin (William Thomson, 1824-1907) aveva dedotto, da alcuni calcoli sulla velocità con cui la Terra si raffreddava, che il nostro Pianeta non poteva essere più vecchio di alcune decine di milioni di anni. Nel 1896 la scoperta della radioattività invalidò la dimostrazione di lord Kelvin, che non aveva tenuto conto del calore rifornito in continuazione dai fenomeni radioattivi. La misurazione dei rapporti quantitativi con i quali i prodotti di decadimento radioattivo sono presenti nelle rocce (metodo oggi noto come 'datazione con misure di radiazione') costrinsero immediatamente, durante i primi anni del Novecento, a rettificare di ben due ordini di grandezza le stime dell'età della Terra, portandole a circa due miliardi di anni. Si dimostrò che le aureole policroiche (anelli o macchie di colore scuro, del diametro di un millimetro ca.) sono i prodotti dell'esposizione ai minerali radioattivi presenti nelle rocce e divenne evidente che la radioattività è un fenomeno presente in quantità sufficiente sulla Terra, tanto da rappresentare una considerevole fonte di energia per i processi geologici: il nostro Pianeta avrebbe potuto non raffreddarsi affatto. La contrazione era dunque non soltanto poco credibile ma anche non necessaria alla formazione dei continenti, dei bacini oceanici e delle catene montuose.
L'ipotesi della deriva dei continenti
Fin dal XVII sec. i filosofi naturali, osservando come l'Africa e l'America Meridionale avessero contorni che si adattavano molto bene l'uno all'altro, avevano ipotizzato che i continenti potessero essersi allontanati reciprocamente con un moto di deriva, a partire da un'unica distesa di terraferma; ancora più della geometria dei continenti, colpiva il fatto che ai lati opposti degli oceani si riscontrassero sequenze stratigrafiche e strutture geologiche identiche. Nel 1858 Antonio Snider-Pellegrini (1802-1885) aveva ricondotto la separazione dei continenti al Diluvio universale, mentre una teoria proposta nel 1879 da George Darwin (1845-1912), e rielaborata da altri, la attribuiva al distacco della Luna dalla massa terrestre. In un lavoro del 1912, Die Herausbildung der Grossformen der Erdrinde (Kontinente und Ozeane) auf geophysikalische Grundlage (La formazione della crosta terrestre, continenti e oceani, su base geofisica), Alfred Wegener (1880-1930) ipotizzò che un movimento di deriva avesse allontanato tra loro i continenti, inizialmente uniti in un unico corpo. Secondo la sua teoria, in tempi assai remoti la crosta ricopriva l'intera superficie terrestre e, in seguito, aveva cominciato a ispessirsi e a restringersi, deformandosi con la crescita delle montagne; all'inizio dell'era mesozoica quest'unico continente, chiamato da Wegener 'Pangæa', si era diviso e le sue parti, seguendo un moto di deriva in quello che fino ad allora era stato l'unico oceano (la 'Pantalassa'), avevano consentito la formazione degli oceani Atlantico e Indiano. Wegener rivide e ripubblicò numerose volte la propria teoria: in Die Enstehung der Kontinente und Ozeane (La formazione dei continenti e degli oceani, 1915), un libro che ebbe tre nuove edizioni dopo la Prima guerra mondiale, ma anche in articoli e in pubbliche discussioni. Oltre a giustificare aspetti della geometria dei continenti, della loro geologia e della distribuzione delle specie fossili, la teoria della deriva dei continenti aiutò a spiegare un problema legato alla paleoclimatologia: i reperti fossili testimoniavano il susseguirsi di notevoli fluttuazioni nella storia climatica della Terra, che si erano rivelate difficili da interpretare; Wegener suggerì che non fosse stato il clima a cambiare più di tanto ma che fossero stati piuttosto i continenti ad aver attraversato regioni che presentavano forti differenze climatiche.
La proposta di Wegener innescò un dibattito, come non se ne erano più visti da quando Charles Darwin aveva elaborato la teoria dell'evoluzione. Diverse generazioni di scienziati, con il loro apporto, avevano contribuito all'edificazione di una grande sovrastruttura, che partiva dall'ipotesi di una Terra in contrazione oppure di una disposizione immutabile di oceani e continenti. Un importante geologo degli Stati Uniti, Rollin T. Chamberlin, descrisse la situazione affermando: "se dovessimo dar credito all'ipotesi di Wegener, dovremmo dimenticare ogni cosa appresa negli ultimi settant'anni e ricominciare tutto da capo" (Hallam 1983, p. 131). La teoria di Wegener fu discussa esplicitamente nel corso dell'incontro tenuto dalla British Association for the Advancement of Science nel 1922; nel 1923 la Società geologica francese organizzò un convegno sull'argomento e altrettanto fece l'American Association of Petroleum Geologists nel 1926. Infine, ancora negli anni Cinquanta una discussione degli argomenti a favore e contro la deriva dei continenti proposti nei trent'anni precedenti, svoltasi durante una sessione speciale dalla British Association for the Advancement of Science, non riuscì a vedere l'affermarsi di una posizione condivisa nella comunità scientifica.
Sviluppi della teoria di Wegener
Secondo gli storici, in genere i principali ostacoli all'accettazione della teoria di Wegener derivavano da considerazioni di natura fisica sulla deriva dei continenti. Il nucleo e il mantello erano, verosimilmente, più densi della crosta terrestre; ci si chiedeva quali meccanismi avrebbero permesso a porzioni di crosta di muoversi attraverso un substrato più denso. Lord Kelvin e altri fisici matematici avevano compreso che i moti orbitali della Terra e le maree implicavano l'esistenza di una regione interna rigida; misure sismiche dimostrarono inoltre che, come proposto da lord Kelvin, la crosta oceanica rivelava una rigidità persino maggiore di quella dell'acciaio. Anche ammettendo che il substrato oceanico fosse sufficientemente cedevole da permettere ai continenti di muoversi alla deriva attraverso di esso, ci si chiedeva come sarebbe stato possibile giustificare il fatto che il fondo degli oceani conserva intatti rilievi e fosse, piuttosto che spianarsi fino a trasformarsi in una distesa di fanghiglia, e come avrebbero potuto le catene montuose delle cordigliere essere generate dalla contropressione esercitata da tale sostrato, così come aveva ipotizzato Wegener. Da parte dei geologi, infine, ci si chiedeva per quale motivo la Pangea avrebbe dovuto rimanere tanto a lungo un'unica massa di terra e iniziare a dividersi soltanto cento milioni di anni fa.
D'altro canto, andavano accumulandosi osservazioni che, sebbene non fossero vere e proprie prove a favore della deriva dei continenti, quanto meno non la contraddicevano. Sovrascorrimenti e pieghe come quelli che si trovano negli Appalachi implicavano una notevole diminuzione dell'estensione orizzontale delle rocce e, al tempo stesso, l'esistenza di un substrato. La validità del principio dell'isostasia trovò conferma non solamente nelle anomalie gravitazionali che alcuni 'addetti al calcolo' (solitamente donne), sotto la guida di John Hayford (1868-1925), del Coast and Geodetic Survey degli Stati Uniti avevano valutato a partire da misure raccolte in oltre cinquecento stazioni, ma anche nel sollevamento della Fennoscandia, scoperto nei primi anni dell'Ottocento grazie all'osservazione di variazioni nel livello del mare: schiacciata dal peso dei ghiacciai durante le ultime glaciazioni, la Scandinavia sperimentava un rimbalzo isostatico. Nei primi anni Venti del Novecento Nansen osservò tre distinti livelli nella piattaforma costiera della Norvegia, che egli ritenne corrispondessero al livello raggiunto dal mare nel corso di tre differenti glaciazioni. Il principio dell'isostasia e il rimbalzo isostatico implicavano l'esistenza quanto meno di un substrato viscoso, poiché si basavano appunto sul fatto che i continenti raggiungono un equilibrio idrostatico tra un moto di immersione e uno di risalta. Pure il fenomeno delle geosinclinali spingeva in direzione dell'idea dell'esistenza di un sostrato non rigido: le geosinclinali sono regioni, vicine ai margini continentali, in cui il depositarsi di sedimenti provoca, a causa del peso esercitato, la formazione di avvallamenti che a loro volta causano, in un crescendo, il deposito di nuovo materiale e ulteriori sprofondamenti. Per quanto concerneva invece questioni sismiche, Wegener sostenne che i terremoti erano disturbi brevi e improvvisi, ai quali la crosta reagiva rigidamente, e che quest'ultima rispondeva in modo più plastico a forze che provocavano una lenta deformazione. Il geologo sudafricano Alexander Du Toit (1878-1948), infine, nel 1923 guidò una spedizione, patrocinata dalla Carnegie Institution di Washington (D.C.), per confrontare la paleogeologia e la paleontologia dell'America Meridionale con quelle del Sudafrica; i risultati, pubblicati nel 1927, furono interpretati affermando che la corrispondenza riscontrata era talmente marcata da escludere qualsiasi altra ipotesi che non fosse quella della deriva dei continenti.
Una volta stabilito che la deriva era possibile, se non proprio dimostrata, si poneva il problema di comprendere quale fosse il meccanismo fisico che la governava. Sebbene molti geologi richiamassero l'attenzione sul fatto che la loro disciplina aveva spesso dovuto limitarsi a prendere atto dell'esistenza di fenomeni le cui cause, come nel caso delle falde di scorrimento alpine, rimanevano sconosciute, erano state individuate alcune forze potenzialmente in grado di mettere in movimento i continenti: Frank Taylor (1860-1938) aveva proposto l'ipotesi che i continenti fossero attirati verso l'equatore dalla gravità esercitata dalla Luna; Wegener suggerì che forze di marea potessero sospingere verso Ovest i continenti, tenuti inoltre lontani dai poli dalle cosiddette forze di Eötvös, note anche con lo scherzoso nome tedesco di Pohlflucht (fuga dai poli) e dovute all'azione gravitazionale esercitata dal rigonfiamento equatoriale terrestre. Wegener richiamò inoltre l'attenzione sulla teoria dei cicli termici, in base alla quale alcune parti del mantello, riscaldate per effetto della radioattività, fondono parzialmente e generano celle convettive approssimativamente circolari. Queste correnti risalgono dalle profondità della Terra, percorrono orizzontalmente centinaia di chilometri, trascinando con sé i continenti, e sprofondano nuovamente verso il basso. John Joly (1857-1933) avanzò l'ipotesi che, poiché i graniti contengono più materiale radioattivo che non i basalti, l'erosione comportasse che, sopra le geosinclinali, si stabilisca una concentrazione di materiale continentale e un maggior rilascio di energia dovuta alla radioattività, cui possono seguire la fusione del substrato, la generazione di correnti convettive e quindi di attività orogenica e, da ultima, la deriva dei continenti. In una serie di articoli apparsi tra la fine degli anni Venti e l'inizio del decennio successivo Arthur Holmes (1890-1965) ipotizzò che le correnti di convezione responsabili dei grandi movimenti tettonici, tra cui i sovrascorrimenti delle Alpi, fossero provocate dal maggiore riscaldamento di origine radioattiva che interessava i continenti a più grande contenuto di graniti: le correnti erano generate al di sotto dei continenti, si spandevano, sospingevano la crosta verso i margini continentali, incontravano correnti più deboli sotto gli oceani ed erano infine deviate verso il basso.
Secondo quanto riporta la storiografia, la Prima guerra mondiale ebbe minori effetti sulla geologia di quanti non ne ebbe sulla fisica e sulle altre scienze: favorì l'introduzione di una nuova disciplina, la geologia ingegneristica, applicata a problemi geologici connessi con i combattimenti in trincea, quali per esempio lo studio delle caratteristiche dei terreni, la topografia, la localizzazione di superfici freatiche, la posa di mine, lo scavo di gallerie sotterranee; a quanto sembra, però, ben pochi furono i vantaggi che la guerra arrecò alla geologia tradizionale e a quella teorica.
L'affermarsi della teoria della deriva dei continenti
Il lavoro oceanografico condotto negli anni Trenta o, per meglio dire, lo studio geologico dei fondali oceanici inaugurò aree di ricerca che alla fine avrebbero risolto il dibattito attorno alla deriva dei continenti. Vanno ricordati, innanzitutto, gli studi sismici condotti da Maurice Ewing (1906-1974), della Lehigh University e della Woods Hole Oceanographic Institution. Egli aveva iniziato nel 1930 facendo esplodere nei laghi e nelle baie della Louisiana, per conto di compagnie petrolifere, bombe artigianali la cui eco, a seconda della durata, permetteva di risalire alla struttura delle rocce sottostanti. Ewing estese questi metodi al mare poco profondo ma, a causa della guerra, nel 1940 fu costretto a interrompere ogni attività di questo genere. Tecniche sismiche, e altre analoghe, permisero ai geologi di sondare la crosta terrestre molto più in profondità di quanto non avessero potuto fare con metodi precedenti come il dragaggio, il rilevamento batimetrico e il carotaggio.
Terminata la guerra, sfruttando cariche di profondità e potenti bombe residuate della marina militare, Ewing riuscì a sondare la crosta oceanica fino a raggiungere il mantello e scoprì che essa aveva uno spessore costante di 7 km ca., vale a dire meno di un quinto di quello della più leggera crosta continentale. Una differenza così uniforme e marcata poneva seri dubbi sulla validità della teoria della deriva dei continenti, poiché questi ultimi, nel loro avanzare attraverso il fondale oceanico, avrebbero piuttosto dovuto accumulare enormi quantità di materiale. D'altro canto era pur vero che, se la configurazione dei continenti e degli oceani fosse stata stabile, sui fondali avrebbe dovuto accumularsi un notevole spessore di sedimenti, mentre alcuni studi sismici avevano rivelato la presenza di una sedimentazione di spessore variabile fra i 300 e i 600 m ca., davvero troppo pochi per concordare con l'ipotesi della 'permanenza'.
Durante gli anni Trenta fece progressi anche lo studio delle anomalie gravitazionali. Usando un gravimetro a pendolo multiplo che egli stesso aveva progettato, il geofisico olandese Felix Andries Vening-Meinesz (1887-1966) scoprì, nel corso di spedizioni compiute negli anni Venti e all'inizio del successivo decennio, alcune anomalie gravimetriche negative, in corrispondenza di lunghe fasce che correvano parallele alle fosse oceaniche nelle profondità del Pacifico e al largo di Puerto Rico. Vening-Meinesz e il suo studente Harry Hess (1906-1969) attribuirono tali risultati a ciò che quest'ultimo chiamò 'tettogene': una deformazione della crosta verso il basso, in una zona appartenente alla regione in cui i movimenti dei blocchi continentali generavano una compressione. I due scienziati ipotizzarono che il lembo inferiore di una cella convettiva trascinasse la crosta oceanica, relativamente più leggera, all'interno del mantello, formasse una fossa e, smuovendo materiale più pesante, desse origine alle anomalie gravimetriche negative osservate. Hess si arruolò come riservista nella Marina degli Stati Uniti per poter condurre ricerche sulla gravitazione a bordo di sottomarini militari; durante la Seconda guerra mondiale le marine di tutte le principali potenze finanziarono una grande quantità di studi di oceanografia e geologia (sulla gravità, sul magnetismo, sugli abissi, sull'acustica sottomarina e così via) e Hess, in qualità di ufficiale di navigazione su una nave trasporto, durante i momenti di tranquillità poté indagare la topografia sottomarina e scoprire così oltre cento montagne sottomarine a cima piatta, che chiamò 'guyot', dal nome del geologo svizzero Arnold Guyot (1807-1884), che aveva insegnato alla Princeton University a partire dalla metà dell'Ottocento. Nel 1960, dalla distribuzione dei guyot e dall'assenza di sedimenti antichi sopra di essi e sui fondali circostanti, Hess ipotizzò l'esistenza di quella che sarebbe divenuta nota come espansione del fondale marino: tale espansione permetteva di spiegare la formazione recente dei sedimenti marini, l'estensione in larghezza della fascia occupata dai guyot e l'attività delle dorsali medio-oceaniche.
Un altro metodo, oltre a quello sismico e alla gravimetria, era legato al geomagnetismo. Era noto fin dalla prima metà del Novecento che i materiali diamagnetici, raffreddandosi dallo stato di fusione, ricevono dal campo magnetico terrestre un momento magnetico, secondo un processo detto di magnetismo residuo. I geologi scoprirono presto l'esistenza di rocce appartenenti a epoche molto diverse tra loro, il cui momento magnetico era orientato nella direzione opposta rispetto a quella dell'attuale campo geomagnetico, e ne conclusero che il campo terrestre si era invertito svariate volte nel corso del tempo. Studi sul magnetismo residuo di rocce in diversi continenti fecero ritenere, negli anni Cinquanta del XX sec., che i poli magnetici della Terra avessero vagato e altrettanto avessero fatto i continenti.
Già prima della Seconda guerra mondiale alcune navi, come la Carnegie, avevano studiato le proprietà magnetiche del fondo degli oceani; durante la guerra fu prodotto un rivelatore magnetico aviotrasportato per l'individuazione di sottomarini, modificato più tardi in modo tale da poter essere rimorchiato dietro le navi. Studi degli anni Cinquanta dimostrarono che le rocce dei fondali presentavano bande dalle proprietà magnetiche conformi, più tardi spiegate dai geologi grazie al fenomeno del magnetismo residuo: le bande si erano formate dal magma che era stato eruttato, e che si era raffreddato, durante epoche in cui il magnetismo terrestre aveva differenti caratteristiche e l'espansione del fondale marino aveva causato la loro fuoriuscita.
Durante gli anni Trenta furono migliorate anche le misurazioni del calore trasmesso dalla Terra. Edward Crisp Bullard (1907-1980), un geofisico inglese, stabilì che il calore che fluiva verso l'esterno attraverso la crosta continentale era ovunque costante. Tale calore è generato dal decadimento radioattivo di elementi che sono più abbondanti nella crosta granitica continentale che non nei basalti oceanici, ma negli anni Cinquanta alcune misure registrarono un flusso di calore negli oceani molto più intenso di quanto ci si aspettasse, paragonabile a quello dei continenti: era un'importante conferma dell'ipotesi della presenza di correnti convettive nel mantello.
Durante gli anni Trenta si svolse un'esplorazione continua delle dorsali medio-oceaniche. Le spedizioni del XIX sec. avevano mostrato l'esistenza di rialzamenti sul fondo oceanico, ma scandagliamenti a distanza di cento miglia l'uno dall'altro non avevano rivelato nulla di più. L'invenzione di scandagli acustici che potevano registrare in modo continuo i dati rese accessibile una topografia del fondale oceanico molto più dettagliata. Il Meteor realizzò alcuni scandagliamenti lungo la dorsale medioatlantica; la spedizione dello Hydrographic Office della Marina britannica, guidata da John Murray, tra il 1933 e il 1934 scoprì una vallata nella dorsale Carlsberg, nell'Oceano Indiano. La crosta, lungo le linee di spaccatura, presentava una maggiore debolezza mentre lungo le dorsali esisteva una cintura di attività sismica; ciò suggerì che le dorsali mediooceaniche fossero zone della crosta terrestre instabili e attive. Una spedizione finalizzata alla ricerca di comportamenti analoghi lungo la dorsale del medio Atlantico, pianificata per il 1940, fu bloccata dalla guerra e soltanto nel 1953 si poté verificare che anche lungo la dorsale dell'Atlantico centrale esisteva una spaccatura. Negli anni Sessanta si giunse a concludere che, all'origine dell'espansione dei fondali oceanici, alla quale i geologi attribuivano la causa della formazione dei bacini oceanici e del moto dei continenti, erano le dorsali mediooceaniche.
Conclusioni
Quando, negli anni Sessanta, la teoria della deriva dei continenti finalmente si affermò, i geologi si domandarono perché ci fosse voluto così tanto tempo ad accettarla. Si potrebbe interpretare l'impaccio suscitato da tale teoria come l'effetto di una sorta di 'whiggismo' al contrario: gli appartenenti all'antico partito inglese dei 'whigs' interpretavano la storia come un'avanzata continua verso la gloriosa condizione presente, mentre nel caso in questione ciò che disorienta gli storici è l''incapacità' degli scienziati di avanzare nella corretta direzione. Sebbene oggigiorno l'impostazione dei 'whigs' abbia perso credito, il dibattito sulla diffidenza per la deriva dei continenti conserva ancora un certo interesse. La teoria di Wegener, al contrario di quella di Mendel, non era rimasta dimenticata in qualche recesso dell''impero' scientifico ma si era guadagnata un posto di primo piano nel dibattito sulla geologia fin dagli anni Venti, se non addirittura da prima. Alcuni geologi e storici della geologia hanno ipotizzato che l'apprendistato nelle vesti di meteorologo, il modo imprudente di esporre e la mancanza di obiettività da parte di Wegener abbiano alimentato l'opposizione alla teoria da lui proposta, sebbene in tal modo non si riesca a dar conto pienamente dell'impopolarità di cui quest'ultima ha continuato a soffrire, per decenni, dopo la morte del suo autore. Secondo altri, la ferma resistenza opposta negli Stati Uniti all'ipotesi della deriva dei continenti poteva essere il suggello dell'empirismo che caratterizzava la geologia statunitense e della sua ostilità verso sistemi teorici onnicomprensivi, in particolare verso quelli tedeschi.
È istruttivo fare un paragone con le altre scienze della Terra, nello specifico con la meteorologia e l'oceanografia. Bjerknes fu in grado di applicare, senza eccessive difficoltà, le equazioni dell'idrodinamica sia all'atmosfera sia agli oceani, prima che iniziasse il XX sec. e, ciononostante, ci vollero cinque decenni e le necessità derivanti da ben due guerre mondiali, perché il suo metodo fosse universalmente accettato; peraltro le questioni affrontate da Wegener, sulle rocce che si trovano in profondità sotto i continenti e sul fondale oceanico, erano molto più ostiche da trattare con strumenti matematici. Se l'accesso all'alta atmosfera e alle profondità oceaniche presentava di per sé difficoltà considerevoli, ottenere informazioni sulle condizioni al di sotto dei continenti e del fondale oceanico era impresa di gran lunga più ardua, al punto che la geologia del fondo degli oceani, dalla quale furono ricavate le prove decisive in favore delle ipotesi di Wegener, rimase del tutto ignota fino ai tardi anni Venti. In mancanza di dati e di una metodologia matematica, tutte le argomentazioni sia a favore sia contro la teoria di Wegener erano necessariamente di natura speculativa. Inoltre la geologia, a differenza dell'oceanografia e della meteorologia, era di scarso interesse in ambito militare e perciò non ricevette alcun impulso durante le due guerre, anche se le esplorazioni condotte nel corso del secondo conflitto mondiale hanno fornito un'enorme quantità di dati pronti per essere analizzati dopo la guerra.
La resistenza nei confronti della meteorologia di Bergen non ha suscitato altrettanto interesse da parte degli scienziati e degli storici quanto l'insuccesso delle ipotesi di Wegener. La metodologia di Bjerknes, ovviamente, non aveva implicazioni di tipo cosmologico, come invece la teoria della deriva dei continenti; può essere piuttosto di maggiore interesse considerare che la nostra prospettiva storiografica sia stata distorta dalle nostre stesse tradizioni: nell'occuparsi della geologia del XIX sec. la storiografia ci ha abituati a considerare gli studiosi di tale disciplina come una sorta di eroi nella battaglia tra il progresso illuminato e l'ignorante conservatorismo e, perciò, diventa per noi difficile relegare gli scienziati del XX sec. nel ruolo di antieroi.