Terremoto
Gli studi di carattere sismologico rappresentano più che mai il luogo in cui si confrontano diverse discipline scientifiche, oltre a costituire una delle più interessanti e impegnative sfide della moderna geofisica. La dimensione interdisciplinare di tali studi è motivata da aspetti sia applicativi, relativi alle questioni di protezione civile, sia teorici, in quanto essi comportano rilevanti considerazioni sulle caratteristiche delle leggi che descrivono i fenomeni naturali.
L'aumento della concentrazione della popolazione e delle attività economiche e industriali corrisponde a una vulnerabilità sismica accresciuta. I danni economici che sono procurati da un sisma, oltre a quelli potenzialmente più alti in perdite di vite umane, possono conseguentemente raggiungere valori molto elevati: valutazioni ex post sul t. di Kobe (Giappone) del 1995 hanno dimostrato che un singolo evento sismico può causare perdite economiche stimabili in livelli superiori a 100 miliardi di euro (Buchanan 2000). La necessità di mitigare il rischio sismico ha ulteriormente promosso azioni multidisciplinari, alle quali contribuiscono: a) le scienze sociali ed economiche, con ricerche che riguardano l'esposizione dei manufatti e delle persone; b) le scienze ingegneristiche, per la pianificazione della gestione del rischio, le valutazioni sulla vulnerabilità delle strutture esistenti e la progettazione e lo sviluppo di tecniche e materiali per le costruzioni antisismiche; c) le scienze fisiche e le scienze della Terra, per la determinazione della pericolosità sismica del territorio. Oltre all'ambito di studio riguardante gli effetti di un t., sono di primaria importanza alcuni aspetti del fenomeno sismico i quali implicano considerazioni di carattere epistemologico, anche queste di interesse multidisciplinare. Mentre le cause che originano i t., oggetto di studio della sismologia nelle ricerche sulle sorgenti sismiche e sui meccanismi sismogenetici, si prestano a una metodologia deterministica, la sismicità, ossia la modalità in cui si manifestano i t., presenta carattere aleatorio governato da dinamica non lineare. Riguardo al primo argomento è fondamentale il rapporto causa-effetto: lo sforzo tettonico accumulato nella crosta terrestre, quando supera il limite di resistenza a rottura delle rocce, determina il t.; questo si origina lungo una superficie di faglia liberando energia che si propaga attraverso le onde sismiche. Nel secondo argomento, invece, prevale un'impostazione di tipo probabilistico che afferisce a studi di fisica statistica in cui si riscontrano significative similitudini con fenomeni apparentemente molto lontani da quelli sismici (nell'ambito della cosmologia, fisiologia umana, biologia evoluzionistica, economia). L'appartenenza dei fenomeni sismici alla categoria dei sistemi complessi non lineari comporta l'impossibilità di prevedere con precisione spaziotemporale l'avvento di un terremoto. Tuttavia, il panorama appare notevolmente diverso rispetto al tempo in cui, nel 1964, Ch.F. Richter, il sismologo ideatore della magnitudo (misura relativa all'energia rilasciata dalla sorgente sismica), era indotto a dichiarare che soltanto "pazzi e ciarlatani prevedono i terremoti", auspicando di fatto uno sforzo credibile per definire le condizioni di un metodo attendibile. Lo sviluppo di algoritmi previsionali basati sulle caratteristiche dei flussi di sismicità ha trasformato quell'auspicio in una realtà. La revisione critica della classica opposizione tra determinismo e probabilità, prodotta dagli studi sul caos deterministico a partire dagli anni Sessanta del 20° sec., ha messo in evidenza che molti fenomeni naturali sono descrivibili attraverso leggi deterministiche ma eventualmente predicibili soltanto in modo probabilistico. In campo sismologico si intravede la prospettiva di una sintesi culturale in cui il confronto tra l'approccio deterministico e quello probabilistico si risolva in sinergie finalizzate all'ottimizzazione delle strategie di prevenzione sismica. L'opportunità di investire risorse e capitali per il conseguimento di questo obiettivo, rispetto alle spese di intervento per l'assistenza postcatastrofe, è stata peraltro accreditata da una specifica dichiarazione del segretario generale delle Nazioni Unite, K. Annan, nel rapporto annuale 1999 sui lavori dell'ONU.
Legge della potenza e autosimilarità dei fenomeni sismici. - Un t. di forte magnitudo è un evento raro ma non eccezionale. Si può comprendere meglio questa affermazione considerando il significato della ben nota relazione di Gutemberg-Richter tra magnitudo e frequenza dei t.
logN=a−bM [1]
dove N è il numero di t. con magnitudo uguale o superiore a un valore M registrati in una determinata area; a e b sono opportuni coefficienti validi per la zona considerata (rispettivamente, il logaritmo del numero totale di t. di magnitudo uguale o superiore a zero e una costante solitamente prossima a 1). Tale legge esprime una fenomenologia sismica apparentemente molto semplice: il numero di t. cresce in modo esponenziale con il diminuire della magnitudo, come si evidenzia esprimendo la [1] in forma N=10(a−bM); la forma esponenziale rivela che la sismicità appartiene ai fenomeni descritti dalle leggi di potenza. L'espressione logaritmica [1] consente di visualizzare graficamente questa caratteristica in un piano cartesiano, dove la relazione funzionale tra frequenza e intensità dei t. segue una retta. Nonostante la natura totalmente empirica, svincolata da leggi fisiche preesistenti, la legge di Gutemberg-Richter si è dimostrata valida nei più vari ambienti tettonici: per es., secondo i dati dello SCEDC (Southern California Earthquake Data Center), tra il 1987 e il 1996 in California meridionale si sono verificati rispettivamente circa 1000, 100 e 10 sismi negli intervalli di magnitudo 3,5-4; 4,5-5 e 5,5-6. Il tipico andamento appena descritto è proprio dei fenomeni invarianti secondo la scala di osservazione, tanto che si può considerare una legge di potenza come una legge di invarianza di scala; si può rilevare la sostanziale differenza con le classi fenomenologiche regolate dalla legge di distribuzione di Gauss, le cui popolazioni sono contraddistinte da un valore medio. Nel caso specifico dei t., il panorama non variante è rappresentato, al variare di M, dal rapporto costante N(M−1)/N(M+1): ossia un t. di qualsivoglia magnitudo si trova sempre nella stessa condizione (autosimilarità) rispetto agli eventi di dimensioni immediatamente inferiore e superiore. Questa peculiarità è comune a un fenomeno con proprietà frattali autoorganizzato allo stato critico, che nella fattispecie sismica fa riferimento alla struttura complessa della distribuzione delle tensioni di origine tettonica nella crosta terrestre, in cui gli elementi costituenti il sistema delle faglie sismogenetiche interagiscono in modo dissipativo non lineare. Un sistema di questo tipo si evolve in modo fortemente dipendente dalle condizioni iniziali, le cui minime variazioni possono determinarne sviluppi molto differenti; a esso si addice la trattazione matematica del caos deterministico. Molti fenomeni naturali presentano caratteristiche analoghe a quelle appena richiamate: per es., secondo alcuni studi, anche l'andamento nel tempo delle estinzioni delle famiglie biologiche; ma è interessante evidenziare che sono descrivibili allo stesso modo rilevanti dinamiche sociali ed economiche. Tra queste, le modalità in cui si diffondono teorie e dati scientifici, espresse esaminando la distribuzione statistica delle pubblicazioni scientifiche in funzione del numero di citazioni, le caratteristiche delle fluttuazioni dei mercati borsistici e, in campo storico, l'evoluzione delle controversie e dei conflitti valutata attraverso la distribuzione delle guerre in base al numero delle vittime. Fenomeni apparentemente molto diversi sono di fatto accomunati dal possesso di una qualità ubiquitaria: la mancanza di una scala tipica rende gli eventi di piccole dimensioni simili a quelli grandi, i quali non celano ragioni di causa insolite. Tuttavia, proprio la natura frattale della fenomenologia cui appartengono rende gli eventi estremi difficilmente prevedibili. In particolare, per quei t., concentrati spazialmente e temporalmente, è molto complicato stabilire dei precursori con finalità previsionali.
I continui studi sulle caratteristiche frattali dei t. hanno condotto alla generalizzazione della legge di Gutemberg-Richter nella seguente legge di scala unificata
logN=a+b(5−M)+clogL [2]
in cui, dati a e b definiti in modo analogo alla [1], L costituisce la dimensione lineare di un'area sismogenetica e c è un coefficiente che stima la dimensione frattale del sistema di faglie in essa presente. La relazione [2] permette di ottenere un risultato molto importante per lo studio probabilistico della previsione dei t.: avendo definito una magnitudo di soglia, riuscire a stabilire le dimensioni lineari in cui ha validità la legge di scala. La relazione consente di conciliare il modello dello stato critico organizzato, associato alla linearità della relazione magnitudo-frequenza, con quello del t. caratteristico, definito in relazione allo scostamento da tale andamento lineare verso valori più alti della frequenza in corrispondenza di una determinata magnitudo, tipicamente osservabile nell'esaminare la sismicità complessiva di un'area. In Italia, per es., la legge di Gutemberg-Richter si conferma valida nell'intervallo di magnitudo 3÷7, se si considerano dimensioni lineari superiori a 1000 km, e in un intervallo inferiore (3-4,5) in zone con dimensioni dell'ordine di 100 km (sismicità nelle regioni dei t. del Friuli, 1976, e dell'Irpinia, 1981).
Mitigazione del rischio sismico
Con l'obiettivo di sviluppare più efficaci strategie di prevenzione sismica, le azioni per la mitigazione del rischio sismico devono coniugare l'approccio deterministico, in base al quale si sviluppano gli interventi per la definizione puntuale del rischio sismico del territorio, e quello statistico, che sembra il più idoneo, data la natura complessa dei fenomeni sismici, ad affrontare la problematica della previsione dei terremoti. Per quest'ultimo punto, le previsioni a medio termine spaziotemporale, basate sulla variazione osservabile della sismicità di fondo, sembrano avere le migliori prospettive di successo. Va segnalato che la valutazione probabilistica della pericolosità sismica in termini di accelerazione di picco (PGA, Peak Ground Acceleration) attesa (molto utile per la pianificazione antisismica del territorio) non si è rivelata del tutto attendibile nei devastanti t. di Kobe, Gujarat (2001), Boumerdes (2003) e Bam (2003), per i quali si è osservato un valore PGA molto più alto del previsto.
Risulta pertanto molto interessante poter disporre di strumenti per le previsioni a medio termine spaziotemporale, che, pur individuando periodi di allarme dell'ordine dell'anno con un'incertezza spaziale di centinaia di chilometri, consentono la realizzazione sul territorio di opportune opere di prevenzione (verifica ed eventuale adeguamento, per es., con tecniche di isolamento sismico, della stabilità di edifici e vie di comunicazione; verifica dell'operatività dei soccorsi e pianificazione degli interventi di emergenza).
Previsione dei terremoti
Secondo il Panel on Earthquake Prediction of the Committee on Seismology dello United States National Research Council, una previsione di un t. deve specificare l'intervallo di magnitudo atteso, l'area geografica in cui esso si verificherà e l'intervallo di tempo in cui accadrà con precisione sufficiente affinché il successo o il fallimento della previsione possano essere prontamente giudicati. La valutazione dello sforzo complessivo e la pianificazione degli sviluppi possono avvenire soltanto attraverso attente acquisizioni e analisi sia dei successi sia dei fallimenti. Inoltre, gli scienziati dovrebbero anche assegnare un intervallo di confidenza a ogni previsione. In base a questa definizione si possono classificare le previsioni, per un sisma che ricada in un intervallo di magnitudo dato, in termini di allarme definito sia nel tempo sia su una superficie: si hanno così previsioni di breve, medio e lungo termine temporale (con periodi di allarme di giorni, anni e decine o centinaia di anni) che possono coinvolgere zone di superficie rispettivamente dell'ordine delle decine, centinaia e migliaia di chilometri. Tale classificazione fa riferimento alla precisione con cui si possono localizzare gli eventi sismici. Indipendentemente dalla precisione, ogni previsione deve possedere una capacità predittiva statisticamente significativa.
Un modo per ottenere una valutazione statistica sull'efficienza e sull'attendibilità di un algoritmo di previsione per t. può essere il seguente. Sia T il tempo complessivo in cui si osserva un territorio S; At la parte di territorio coperta da allarmi al tempo t. Con τ×μ si indichi una misura su T×S (si consideri tale misura un caso generale di una misura dipendente dallo spaziotempo per ipotesi nulle più sofisticate); siano N il numero totale di grandi t. con magnitudo M≥M0 in T×S e n quanti di questi sono previsti. Lo spaziotempo che interessa gli allarmi si può esprimere in percentuale dello spaziotempo totale considerato,
[3]
dove A rappresenta lo spaziotempo occupato dagli allarmi. Il livello di significatività statistica di una previsione risulta uguale a
1−B(n−1, N, p) [4]
dove B è una funzione di distribuzione cumulativa binomiale.
Valutare statisticamente l'attendibilità di una previsione è un'operazione molto importante, poiché comporta l'eventuale scelta di dichiarare un allarme sismico, ossia un'opzione economicamente molto onerosa. Evacuare una città, chiudere scuole e uffici pubblici, siti industriali ed esercizi commerciali implica costi elevati. Si stima che una scelta così impegnativa sia sostenibile soltanto nel caso in cui una previsione abbia una probabilità del 50% di essere confermata, con un margine di errore di un giorno e di 50 chilometri nelle scale, rispettivamente, temporale e spaziale.
Algoritmi di previsione
Dal punto di vista della capacità predittiva, test condotti a partire dagli anni Novanta del 20° sec. hanno confermato l'efficacia, con una significatività statistica dei risultati superiore al 95%, in particolare di due algoritmi di previsione sismica, denominati CN e M8.
Tali algoritmi si basano sull'analisi statistica della dinamica sismica di una data area attraverso l'esame di tratti caratteristici (premonitory patterns), che sono individuabili nel relativo flusso sismico mediante l'elaborazione di funzioni empiriche che ne descrivono l'andamento nel tempo. Questo approccio è coerente con la teoria dei sistemi dinamici non lineari, in base alla quale sono attese, in prossimità di una singolarità (punto critico o catastrofe), variazioni rilevabili in parametri osservabili. Gli algoritmi CN e M8, che si avvalgono in modo sostanziale dei dati registrati nei cataloghi sismici, consentono di filtrare variazioni della simicità interpretabili come fenomeni precursori di un t. con magnitudo superiore a un valore di soglia e, in ultima analisi, permettono di determinare un intervallo di tempo, definito TIP (Time of Increased Probability), in cui la probabilità di accadimento di un forte t. risulta elevata in modo anomalo.
L'algoritmo CN, appartenente alla categoria degli algoritmi di previsione di medio termine spaziotemporale, è stato sviluppato per studiare retrospettivamente la sismicità che ha preceduto i grandi t. verificatisi nella regione definita dagli stati della California e del Nevada, dalle cui iniziali deriva il nome. A causa delle condizioni imposte alla scelta delle dimensioni dell'area di investigazione e del valore M0 di soglia dei t., l'algoritmo CN, per le previsioni di forti t., utilizza dati su classi di t. di piccola o moderata energia che seguono in modo soddisfacente la legge di Gutemberg-Richter.
Il flusso della sismicità è rappresentato dal vettore
P(t)=[p1(t), …, pm(t)] [5]
in cui le funzioni pi(t) rappresentano variazioni con il tempo di vari parametri dell'attività sismica, valutati secondo finestre temporali mobili. Nella procedura di riconoscimento dei tratti (pattern recognition), tali funzioni sono elaborate per discretizzazione al fine di ottenere intervalli di tempo pericolosi, in relazione ai quali individuare TIP dell'ordine di 1 anno, verificata ulteriormente in modo analitico la condizione che, in quell'area, per i tre anni precedenti l'intervallo preso in esame, l'energia sismica rilasciata non sia stata alta.
L'applicazione dell'algoritmo CN alla realtà italiana ha fornito risultati incoraggianti. Considerata, per es., la sismicità dell'area adriatica nel periodo 1964-2006, il metodo ha permesso di prevedere 7 eventi su 9 con M≥5,4 (78% degli eventi previsti), avendo determinato TIP per un'estensione temporale pari al 34,7% del tempo complessivo e 5 falsi allarmi.
Anche l'algoritmo M8 (denominato in tal modo in quanto originariamente sviluppato per lo studio retrospettivo della sismicità che precede t. di magnitudo superiore a 8 su scala mondiale) fornisce previsioni di medio termine spaziotemporale. Dal punto di vista quantitativo, tale algoritmo utilizza una descrizione ordinaria di sistema dinamico: in uno spazio delle fasi costituito dalle funzioni del flusso sismico N(t), L(t), Z(t) e B(t), ossia rispettivamente il tasso di sismicità, la variazione della sismicità dall'andamento di lungo periodo, la concentrazione spaziale in relazione alle dimensioni e alla spaziatura delle sorgenti sismiche nonché la clusterizzazione, esso consente di riconoscere un piccolo volume quadridimensionale caratterizzato da valori estremamente alti, definito criterion, in base al quale determinare un TIP. Quando la traiettoria che definisce l'evoluzione nel tempo dell'area esaminata entra nel criterion, il sistema si trova in prossimità di una singolarità e la probabilità del manifestarsi di un evento estremo aumenta a livelli sufficienti per consentire una sua effettiva previsione. L'algoritmo originario M8 è stato implementato per applicazioni in regioni a moderata attività sismica, dove è più importante ridurre le aree interessate dagli allarmi (aspetto peraltro sensibile ovviamente anche nei casi di attività sismica intensa) e la stabilità delle previsioni è un aspetto cruciale in particolare per il numero esiguo di campioni statistici da analizzare.
L'algoritmo M8S, uno sviluppo di M8 realizzato in base alla sismicità del territorio italiano, è stato sperimentato con buoni risultati. Uno studio, retrospettivo e predittivo, rispettivamente, sugli intervalli temporali 1971-2002 e 2002-2006, ha permesso di poter prevedere complessivamente 17 eventi sismici su 27 (64%) con un volume spaziotemporale di allarme del 37%, 40% e 38%, rispettivamente per le classi considerate di t. con M≥6,5, M≥6, M≥5,5.
Dal 1985 al 2006, su misura spaziale mondiale, l'algoritmo M8 e quelli da questo derivati (per es., MSc) hanno denotato buone prestazioni, consentendo di prevedere nel medio termine spaziotemporale circa l'80% dei t. con M≥8 e il 57% di quelli con M≥7,5. Tuttavia essi hanno mostrato in modo chiaro gravi limiti in occasione del forte sisma (M=9) che il 26 dicembre 2004 ha colpito la costa nord-occidentale dell'isola di Sumatra, causando nell'area del Sud-Est asiatico uno tsunami di proporzioni in assoluto senza precedenti. I processi statistici su cui si basano questi algoritmi, calibrati per riconoscere eventi estremi ma non eccezionali in rarità ed energia rilasciata, non erano idonei all'individuazione di un TIP per un t. di M=9 o superiore. Paradossalmente, il concetto di invarianza di scala, su cui il metodo fonda la ragione del suo successo, se non modulato opportunamente con finalità specifiche, non consente di discriminare un evento di ordine superiore tra quelli che si è stabilito di ricercare. Come è accaduto nel caso dei t. di magnitudo inferiore, si ritiene possibile riscalare gli algoritmi M8 alla fattispecie di megaeventi (M≥9). Sono in corso promettenti ricerche in merito.
Scenari deterministici per la riduzione della vulnerabilità sismica
La caratteristica di medio termine spaziotemporale delle previsioni basate sui premonitory patterns, fa sì che esse siano utili a complemento della pianificazione degli interventi per diminuire il rischio sismico, piuttosto che per identificare allarmi localizzati. Riconoscere un luogo spaziotemporale (una zona e un intervallo di tempo, anche se non molto ristretti) in cui è atteso un evento di forte intensità è funzionale alla produzione di scenari realistici di effetto sismico. In tali scenari, acquisito l'input sismico presunto per una data zona, modellato in relazione alle caratteristiche della sorgente sismica e dei corpi rocciosi locali, si valutano in base a esso le risposte delle strutture già edificate (potendo, se necessario, progettare interventi sui manufatti per la dissipazione dell'energia sismica), e quelle delle strutture da edificare secondo le prescrizioni della normativa antisismica vigente. In Italia il riordinamento sistemico della normativa tecnica per le costruzioni (d. m. 14 sett. 2005) prevede la classificazione del territorio nazionale in zone sismiche di quattro livelli, ciascuno contrassegnato da un valore massimo di accelerazione orizzontale del suolo (di valore decrescente dalla zona di livello 1 a quella di livello 4) che rappresenta il limite superiore di un intervallo di accelerazioni, espresse come frazione dell'accelerazione di gravità, cui si riferisce una probabilità di superamento del 10% in 50 anni. Tale classificazione, accolta e integrata nella mappa di pericolosità sismica elaborata nell'implementazione dei criteri generali per l'individuazione delle zone sismiche e l'aggiornamento degli elenchi delle zone medesime (ordinanza p.c.m. nr. 3519 del 28 aprile 2006), costituisce il riferimento per il calcolo dell'azione sismica sulle strutture effettuato attraverso il modello dello spettro di risposta elastico.
bibliografia
J.S. Levy, War in the modern great power system 1495-1975, Lexington 1983.
V.I. Keilis-Borok, V.G. Kossobokov, A complex of long-term precursors for the strongest earthquakes of the world, in Proceedings 27th geological congress, 61, Moskow 1984, pp. 56-66.
R.J. Geller, Predictable publicity, in Seismological research letters, 1997, 68, pp. 477-80.
M. Buchanan, Ubiquity, the science of history, or why the world is simpler than we think, London 2000.
V.I. Keilis-Borok, A. Soloviev, Nonlinear dynamics of the lithosphere and earthquake prediction, New York 2003.
A Paresan, V. Kossobokov, L. Romashkova et al., Intermediate-term middle-range earthquake predictions in Italy: a review, in Earth science reviews, 2005, 69, pp. 97-132.