Terremoto
"Armiamoci di grande coraggio
contro questa rovina che non si
può evitare né prevedere"
(Seneca, Naturales quaestiones)
Difendersi dai terremoti
di Laura Peruzza, Alessandro Rebez, Anna Riggio,
Marco Santulin, Dario Slejko, Iginio Marson
20 marzo
Viene consegnata alla Protezione civile la nuova carta della pericolosità sismica del territorio italiano realizzata dall'INGV (Istituto nazionale di geofisica e vulcanologia). Nella mappa sismica, che servirà alle Regioni per dettare le norme per la costruzione di edifici e di opere pubbliche, tutto il paese è indicato come soggetto al rischio di terremoti, sia pure con diverse graduazioni, che vanno dal massimo della Sicilia e del Friuli-Venezia Giulia al minimo della Lombardia, di buona parte del Piemonte e parte della Puglia.
Dopo San Giuliano
Il 31 ottobre 2002 un terremoto di modesta entità avvenuto al confine fra Molise e Puglia causa il crollo di una scuola a San Giuliano di Puglia, piccolo centro in provincia di Campobasso; sotto le macerie muoiono 26 bambini e un'insegnante. Come spesso accade in Italia, la catastrofe risveglia l'urgenza di intraprendere adeguati interventi preventivi per limitare le conseguenze dei terremoti. Il 20 marzo 2003 la Presidenza del Consiglio dei Ministri promulga un'ordinanza (nota come 3274), che diventerà legge dello Stato l'8 maggio successivo, riguardante i "primi elementi in materia di criteri generali per la classificazione sismica del territorio nazionale e normative tecniche per le costruzioni in zona sismica".
La legge costituisce un momento di forte discontinuità con il passato per quanto riguarda le strategie di riduzione del rischio sismico.
Sia l'intero impianto della normativa, ovvero delle regole costruttive (le norme tecniche) che devono essere adottate per prevenire le conseguenze dei terremoti, sia la lista dei Comuni che devono adottare tali regole (lista denominata in passato 'classificazione sismica' e dal 2003 'zonazione sismica') subiscono un cambiamento radicale.
La 3274 è la più importante modifica legislativa introdotta in materia di prevenzione antisismica dagli anni Ottanta, quando l'ondata emotiva che seguì il terremoto del 23 novembre 1980 in Irpinia portò l'amministrazione dello Stato ad adottare la proposta di riclassificazione sismica del territorio nazionale alla quale, già da anni, la comunità scientifica stava lavorando.
Anche ora, come già allora, studi ed esperienze di respiro pluridecennale si sono concretizzati in un impianto legislativo complesso e articolato, che lentamente andrà a regime portando ricadute importanti nella gestione del patrimonio edilizio e architettonico del paese.
Prevenire gli effetti dei terremoti
La normativa sismica è concordemente riconosciuta come lo strumento principale per difendersi dai terremoti; lo dimostrano le esperienze di altre realtà, per esempio il Giappone e la California, frequentemente colpiti da eventi sismici di forte intensità con conseguenze limitate. Gli edifici sismicamente protetti possono infatti resistere alle sollecitazioni di un terremoto senza crollare; in relazione alla intensità dell'evento e, ovviamente, al grado di sicurezza adottato, possono avere solo danni molto limitati o non subirne affatto. Tuttavia, ciò non significa che la normativa sismica sia omogenea in tutti i paesi che sono similmente interessati dai terremoti; in realtà, la problematica e gli accorgimenti adottati variano in misura rilevante da nazione a nazione, anche nel circoscritto ambito circummediterraneo.
La normativa sismica italiana, oggi presa come riferimento avanzato a livello europeo, è frutto di una lunga evoluzione subita nel tempo. Storicamente, essa ha sempre riguardato le zone via via interessate dai terremoti: dopo un evento particolarmente importante, nei Comuni colpiti venivano introdotte regole edilizie che guidavano la ricostruzione e lo sviluppo urbanistico successivi.
Le prime misure legislative furono prese dal governo borbonico a seguito della serie di terremoti che nel 1783 interessò la Calabria, causando più di 30.000 vittime. Anche lo Stato Pontificio introdusse, dopo il terremoto di Norcia del 1859, una serie di leggi per regolamentare la scelta delle zone edificabili e le relative caratteristiche costruttive. Tutta la legislazione esistente fu però annullata dall'unità d'Italia e lo Stato si trovò completamente impreparato a gestire l'emergenza causata dal terremoto del 1883 nell'isola di Ischia. Solo dopo la distruzione di Reggio Calabria e Messina, il 28 dicembre 1908, quando le vittime furono approssimativamente 80.000, fu promulgata la prima classificazione sismica, cioè un elenco dei Comuni nei quali dovevano essere applicate particolari norme costruttive. Questo elenco comprendeva i Comuni della Sicilia e della Calabria gravemente colpiti nel 1908 e inoltre altre località in cui era vivo nella popolazione il ricordo di danneggiamenti subiti nel passato. Dall'inizio del 20° secolo al 1980 la lista venne via via modificata dopo ogni evento sismico importante, semplicemente con l'aggiunta dei nuovi Comuni danneggiati. L'entità dei danni subiti discriminava la categoria (prima o seconda) in cui venivano inseriti i Comuni, una sorta di vincolo alle risorse economiche erogate dallo Stato per consentire la ricostruzione.
Solo nel 1974 fu promulgata una nuova normativa nazionale, che separava concettualmente i criteri di costruzione antisismica rispetto alla classificazione, intesa come elenco dei Comuni colpiti. La l. 64/1974 ("provvedimenti per le costruzioni con particolari prescrizioni per le zone sismiche", in vigore fino al 2003) delegava il ministro dei Lavori Pubblici a emanare, per decreto, le norme tecniche per le costruzioni pubbliche e private, di concerto con il ministro dell'Interno e sentito il parere del Consiglio superiore dei lavori pubblici e del Consiglio nazionale delle ricerche (CNR); il ministro doveva inoltre aggiornare la classificazione sismica mediante appositi decreti ministeriali. Il punto caratterizzante di questa legge era, dunque, la possibilità di aggiornare sia la classificazione sia le norme ogni qualvolta ciò fosse stato giustificato dal progredire delle conoscenze dei fenomeni sismici; nella realtà fino al 1980 si è continuato semplicemente a inserire i nuovi Comuni rimasti danneggiati.
Una svolta significativa si ebbe a seguito di due drammatici eventi sismici, verificatisi nel 1976 in Friuli e nel 1980 in Irpinia. Gli studi di carattere sismologico e geologico intrapresi negli anni Settanta nella prospettiva di installazioni nucleari, nonché i risultati conseguiti nell'ambito del Progetto finalizzato geodinamica del CNR, avevano portato a un sostanziale aumento delle conoscenze sulla sismicità del territorio nazionale. Ciò permise alla comunità scientifica, rappresentata dal CNR, di formulare una proposta di classificazione sismica. Tale proposta fu accettata dal governo sulla spinta emotiva causata dall'elevatissimo bilancio di vittime del terremoto irpino e si tradusse in una serie di decreti classificativi emessi, da parte del Ministero dei Lavori Pubblici, tra il 1980 e il 1984. La classificazione proposta dal CNR, per la prima volta nel nostro paese guidata da indagini di tipo probabilistico della sismicità italiana, conteneva in modo embrionale una stima del rischio sismico del territorio nazionale, portando a tre le categorie sismiche: in prima e in seconda categoria venivano inseriti Comuni la cui sismicità fosse comparabile a quella delle aree già classificate sismiche; la terza categoria (la meno pericolosa, introdotta dal d.m. 3 giugno 1981, nr. 515) comprendeva soltanto alcuni Comuni di Campania, Puglia e Basilicata i cui edifici erano considerati particolarmente esposti e vulnerabili, situazione che, anche nel caso di terremoti non molto forti, comporta un notevole rischio. Con questa operazione l'Italia avrebbe dovuto allinearsi su un percorso di aggiornamento continuo della normativa, data la rapida evoluzione delle discipline riguardanti la sismogenesi e le tecniche di protezione antisismica. Non si può affermare che ciò sia avvenuto e sono state disattese anche le aspettative di interventi specifici mirati alla riduzione del rischio sismico per il patrimonio edilizio già esistente. La normativa sismica, infatti, si applica alle nuove costruzioni, mentre sono molto limitati gli interventi sulle costruzioni già esistenti, che comportano anche un riadeguamento sismico in quanto comprendono unicamente i casi di modifica strutturale.
Neppure la stesura delle norme tecniche ha avuto uno sviluppo facile. Con il d.m. del 3 marzo 1975, promulgato dal Ministero dei Lavori Pubblici, furono emanate le prime disposizioni; a quella data risalgono anche la prima introduzione dello spettro di risposta per le strutture e la possibilità di eseguire indagini di tipo dinamico. Successivi interventi legislativi e circolari ministeriali hanno regolamentato la progettazione, l'esecuzione e il collaudo di particolari opere, quali dighe di sbarramento, tubazioni, costruzioni prefabbricate e ponti, ma senza mai affrontare compiutamente l'aspetto sismico. Bisogna attendere il d.m. del 16 gennaio 1996, promulgato dal Ministero dei Lavori Pubblici, per ritrovare un aggiornamento delle norme tecniche in zona sismica, limitato peraltro ad alcuni aspetti generali, quali per esempio l'altezza massima ammissibile per gli edifici in funzione della larghezza della strada prospiciente. È del 1998, infine, l'ordinanza del Dipartimento della Protezione civile che individua le zone a elevato rischio sismico del territorio nazionale, prevedendo anche meccanismi di incentivazione per gli interventi di riadeguamento antisismico.
Queste ultime modifiche legislative avvengono in realtà in un quadro di mutate (e talvolta conflittuali) competenze istituzionali, come nel caso della costituzione, nel 1992, del Servizio nazionale di Protezione civile, che ha fra i suoi obiettivi anche la prevenzione dei rischi. Nel 1998 si attua anche la cosiddetta devoluzione, che conferisce a Regioni ed enti locali funzioni e compiti amministrativi in precedenza appartenenti allo Stato. Il quadro conoscitivo della esposizione ai terremoti si è altresì molto modificato rispetto alla fine degli anni Settanta: fra il 1996 e il 1999 vengono completati, da parte della comunità scientifica, alcuni progetti relativi al problema della normativa sismica, fra cui le mappe di pericolosità, realizzate con una base di dati completamente rinnovata e con tecniche di calcolo accettate a livello mondiale, e un'innovativa proposta di riclassificazione del territorio nazionale, la quale per la prima volta propone il declassamento (ovvero la diminuzione delle restrizioni antisismiche) per alcuni Comuni sulla base delle ricerche effettuate negli ultimi decenni.
È proprio sulla proposta di riclassificazione sismica del 1999 che viene definita la zonazione sismica di prima applicazione della già citata ordinanza del 20 marzo 2003; in essa non vengono declassati i Comuni precedentemente considerati più sismici, anche se le Regioni dispongono comunque di criteri di tolleranza per modificare la zonazione nazionale. Le norme tecniche, invece, sono di derivazione internazionale (Eurocodice 8, tuttora in discussione nella comunità ingegneristica europea) e stabiliscono criteri progettuali e costruttivi per edifici, ponti, opere di fondazione e di sostegno dei terreni.
La zonazione sismica del 2003 suddivide il territorio in quattro livelli, in funzione del pericolo pertinente a ciascuna area; l'intero territorio nazionale diventa quindi in qualche modo sismico, anche se per la zona a minor pericolo (la zona 4, corrispondente ai Comuni considerati non sismici dalla precedente normativa) viene demandata alle Regioni la facoltà di richiedere o meno la progettazione antisismica per gli edifici ordinari. Questa modifica non incide quindi solo sulle percentuali di popolazione che dovranno adottare accorgimenti antisismici, ma di fatto propone l'accettazione di un 'assunto' scomodo: tutto il territorio nazionale deve rapportarsi ai terremoti e gli edifici non possono essere progettati tenendo in considerazione esclusivamente i carichi statici, pena conseguenze drammatiche anche senza invocare catastrofi naturali.
A ciascuna zona sono poi riferiti sia un preciso intervallo di valori di moto atteso del suolo, espresso in termini di accelerazione orizzontale di picco (PGA, Peak ground acceleration), sia uno specifico spettro di risposta, che si differenzierà ulteriormente sulla base delle condizioni geologico-geotecniche individuate in situ. Questi due elementi (PGA e spettro di risposta) consentono alle norme tecniche di abbandonare l'impostazione prescrittiva, che stabilisce le regole costruttive minime che devono essere applicate, in favore di un approccio a livello di prestazione, che invece stabilisce per l'edificio in progettazione le condizioni di risposta minima specifica che possono essere raggiunte con molteplici soluzioni da parte del progettista. Il tradizionale sistema di progettazione, basato sul concetto di 'tensioni ammissibili', viene sostituito da uno più moderno e rigoroso, basato sul calcolo degli 'stati limite' (per esempio collasso, danno strutturale ecc.).
Le norme tecniche, infine, regolamentano le verifiche sugli edifici esistenti: ciò costituisce una importantissima apertura per l'adeguatezza del patrimonio edilizio italiano e per il problema della salvaguardia degli insediamenti storici. Infine, l'ordinanza 3274 stabilisce i criteri guida e i requisiti minimi per procedere all'aggiornamento periodico della zonazione sismica, scadenzandone la revisione e pianificando l'aggiornamento scientifico dei professionisti che operano in tale settore.
È chiaro quindi il legame della recente normativa sismica con la mappatura e l'aggiornamento della pericolosità sismica, cioè della stima del moto atteso del suolo in una certa area a seguito di un terremoto. Si tratta, in fondo, di un concetto di previsione dei terremoti, anche se in parte diverso da come lo si intende tradizionalmente.
Prevedere i terremoti
La zonazione sismica si basa sulla conoscenza, o meglio sulla ipotetica conoscenza, di quali saranno i terremoti che avverranno nel futuro. Queste ipotesi derivano generalmente dal trattamento statistico o deterministico dei dati relativi ai terremoti del passato. Si accetta, dunque, l'assunzione che la sismicità del futuro ripeterà più o meno quella del passato. La pericolosità sismica formalizza, quindi, la risposta alle domande 'come, dove e quando' avvengono i terremoti, anche se il 'quando' consiste per lo più in una valutazione della frequenza degli eventi; si può parlare in tal senso di previsione a lungo termine.
La pericolosità sismica di una regione è oggi convenzionalmente associata a un valore di moto del suolo (scuotimento) che si ritiene non verrà superato in un certo periodo di tempo, con un dato livello di probabilità. Quest'associazione è possibile in quanto le tecniche maggiormente accreditate per la stima della pericolosità sismica consistono in analisi probabilistiche dei dati geologici e sismologici disponibili per l'area. Nel passato, invece, lo scuotimento atteso veniva quantificato con una mappatura degli effetti storicamente osservati (massime intensità macrosismiche).
Per convenzione, lo scuotimento di riferimento è dato dalla PGA che con il 90% di probabilità non verrà superata in 50 anni, soglia che corrisponde a un periodo di ritorno di 475 anni (con 'periodo di ritorno' si intende il tempo medio che intercorre tra due terremoti di simile magnitudo). È interessante ricordare la provenienza di questo numero, entrato ormai ufficialmente nella progettazione antisismica. I primi calcoli probabilistici di pericolosità sismica per il territorio degli Stati Uniti, realizzati nel 1976 dal locale Servizio geologico, mostravano, a titolo di esempio, una carta di pericolosità con un periodo di ritorno di 475 anni. Quella carta apriva un filone di studi di pericolosità basati tutti sulla stessa metodologia di calcolo, detta metodologia del probabilismo sismotettonico perché utilizza informazioni sismologiche e geologiche. Da quel momento in poi, tutte le carte probabilistiche di pericolosità sismica sono state riferite a quel valore.
La scelta del periodo di ritorno di un fenomeno è legata all'oggetto per cui si effettua l'analisi probabilistica: nel caso dei terremoti e, soprattutto, della normativa sismica, l'oggetto principale è l'edilizia civile. Il termine di 50 anni, in tal senso, diventa rappresentativo del periodo di vita media di un edificio: un'assunzione semplicistica che, però, possiamo ritenere in buona parte rispettata dalla frequenza media con la quale vengono apportati ammodernamenti e modifiche strutturali. È chiaro, peraltro, che nel caso di impianti speciali (per esempio le centrali nucleari) la soglia di probabilità di rispetto non può essere la stessa dell'edilizia civile; in questi casi è necessario fare riferimento a fenomeni con un periodo di ritorno più lungo.
Una mappa di pericolosità sismica utile alla pianificazione preventiva dell'uso del territorio oggi non è vincolata dalle condizioni geologiche locali né dal momento in cui viene attuata l'applicazione della norma. Ciò comporta che lo scuotimento viene indicato in relazione alle medesime condizioni dei terreni di fondazione ed è riferito a un generico intervallo di osservazione (50 anni qualunque e non i prossimi 50 anni). La tecnica è la stessa che viene utilizzata, per esempio, per la programmazione e la sincronizzazione dei semafori cittadini. L'intervallo di 'verde' viene tarato sul numero medio di autoveicoli che arrivano a un certo incrocio nelle diverse ore della giornata. Se si potesse limitare la circolazione alternativamente solo a grossi camion o alle auto da corsa, si calibrerebbero gli intervalli di verde sulla velocità media dei diversi veicoli; questa, in pratica, è l'operazione che si compie discriminando nel terreno di fondazione le potenziali condizioni locali di amplificazione o di attenuazione del moto del suolo. Per tornare all'esempio dei semafori urbani, nello stesso modo si potrebbe attivare lo scatto del verde in relazione al tempo trascorso dall'arrivo dell'ultimo veicolo, sapendo che statisticamente aumenterebbe così il numero dei veicoli in attesa di passare.
È tutt'altro che scontato che il risultato di questi modelli sofisticati (dipendenti dalla tipologia o dal tempo) sia migliore della più semplice assunzione di omogeneità e stazionarietà. Per questo motivo, nelle carte di pericolosità sismica, il periodo di ritorno preso in esame è svincolato dal momento nel quale viene realizzata la stima di pericolosità; il processo temporale considerato è dunque di tipo poissoniano, cioè non basato sulla memoria di quando sono avvenuti i terremoti del passato.
Altri modelli, detti modelli con memoria, forniscono invece previsioni per il prossimo futuro, cioè dipendenti da cosa è avvenuto nel passato o, almeno, dal tempo trascorso dall'ultimo terremoto. Questi ultimi modelli potrebbero essere molto utili; tuttavia non vi è consenso sulla loro attendibilità nella comunità scientifica. Le stime dipendenti dal tempo, inoltre, andrebbero riviste dopo ogni terremoto medio-forte e questa strategia sarebbe inapplicabile alla zonazione sismica che, guidando gli interventi urbanistici, non può ovviamente cambiare troppo spesso. Queste tecniche, che rappresentano a tutti gli effetti una previsione dei terremoti a medio termine, potranno ragionevolmente diventare più importanti ed efficaci in futuro, soprattutto quando si tratti di operare scelte di priorità di interventi mirati alla riduzione del rischio sismico.
Un altro tassello del lungo percorso della previsione sismica è stato recentemente messo a punto dai ricercatori del Servizio geologico degli Stati Uniti i quali, studiando i terremoti della California, hanno notato che il verificarsi di un terremoto di elevata magnitudo fa aumentare anche di tre volte la probabilità che un altro terremoto si possa poi verificare lungo la stessa faglia oppure su una faglia adiacente. Questa teoria, denominata 'innesco da stress', si basa sulla constatazione che le faglie reagiscono a variazioni di stress causate da terremoti vicini. Lo stress rilasciato durante un terremoto, infatti, non viene dissipato ma al contrario si concentra in siti non lontani dall'epicentro, favorendo quindi futuri terremoti. Questo modello, calibrato sui terremoti californiani, è stato applicato anche alla sismicità della faglia nordanatolica con risultati estremamente positivi. Infatti, sia la Turchia sia la California sono caratterizzate dalla presenza di importantissime strutture trascorrenti, che si presentano con una geometria piuttosto semplice e un movimento molto veloce (2-4 cm/anno). La teoria dell'innesco da stress è quindi riuscita a spiegare il verificarsi di 13 terremoti forti che hanno interessato la faglia nordanatolica a partire dal 1939, compresi quelli più recenti di Izmit (agosto 1999) e Duzce (novembre 1999). La teoria è stata applicata con discreto successo anche in alcune aree italiane, dove però la fagliazione è estremamente più frammentata e la velocità di deformazione decisamente inferiore. L'applicazione sistematica del modello dell'innesco da stress può portare, dunque, all'individuazione delle aree a maggior probabilità di terremoti futuri, con ricadute in termini di preparazione davvero importanti.
Purtroppo, però, l'applicazione della teoria di innesco da stress costituisce una forma di previsione che risponde ancora evasivamente alla domanda 'quando avverrà il terremoto?'. Per l'immaginario collettivo, così come per la sismologia, la previsione sismica dovrebbe invece fornire una stima dei parametri spaziali, temporali ed energetici del futuro terremoto, con relativi margini di errore, cioè: dove avverrà? quando? e quanto forte sarà?
Finora gli studi di questo tipo vengono generalmente fatti a posteriori e spesso non hanno rigore scientifico, limitandosi a dimostrare che il terremoto era prevedibile dopo che è avvenuto.
La previsione sismica rimane dunque un affascinante tema di ricerca, ma si discute ancora molto 'se' e 'quanto' possa avere ricadute di tipo applicativo e quale sia il rapporto costi/benefici di allarmi che si rivelino infondati o sbagliati.
È bene fare una breve cronistoria della previsione sismica. Osservazioni multidisciplinari sono state effettuate regolarmente per diversi anni in Cina e hanno portato a prevedere il terremoto di Haicheng del febbraio 1975; molti parametri indicavano l'approssimarsi di un terremoto nella zona, ma è stato il numero crescente di microsismi a motivare l'allarme sismico dato per l'area. Grazie alla previsione sismica il terremoto, di magnitudo 7,3, non ha provocato una catastrofe. Nel luglio 1976 un terremoto di magnitudo 7,8 ha colpito la città cinese di Tangshan. Anche in questo caso si erano verificati diversi fenomeni precursori: anomale fluttuazioni del livello di falda che si erano registrate in 80 pozzi, variazioni dei parametri geochimici delle acque di falda e variazioni della resistività elettrica apparente dei terreni dell'area epicentrale. Purtroppo era mancata, però, la valutazione statistica di tali osservazioni, condizione necessaria a far scattare un allarme; di conseguenza, la previsione sismica che aveva dato ottimi risultati per Haicheng fallì invece per Tangshan.
I casi di terremoti preceduti da variazioni di parametri chimici e fisici sono numerosi. Il terremoto di Tashkent in Uzbekistan del 1972, pur avendo una magnitudo pari solo a 5,5, fu il primo caso in cui vi fu la certezza che le variazioni di radon in un pozzo potessero costituire un precursore sismico. Da allora altre aree sono state monitorate (per esempio Parkfield in California) con un numero rilevante di strumenti atti a misurare svariati parametri fisici, ma si è ancora lontani dal poter formulare previsioni deterministiche (luogo, giorno e magnitudo) del terremoto che si sta per verificare.
La strada della previsione sismica è oggi ancora in salita anche perché, a fronte di un rilevante sforzo economico sostenuto per installare una strumentazione adeguata, non sono state finora fornite indicazioni attendibili; la previsione dei terremoti rimane dunque un importante argomento di ricerca, ma ancora inadeguato alla difesa dai sismi. Rimane indispensabile il collegamento tra gli studi di pericolosità sismica, il monitoraggio geofisico e geochimico di aree sismiche e la modellizzazione della propagazione degli sforzi nella crosta terrestre. Dall'integrazione di tutti questi metodi sarà possibile, un giorno, individuare con più precisione le aree a rischio di prossimi terremoti.
Conclusioni
Da quanto esposto finora si può desumere che la prevenzione sismica sembra promettere una drastica riduzione dei disastri futuri, perché la progettazione, dettata da una specifica classificazione e da norme tecniche, permette di costruire edifici resistenti ai terremoti, come testimoniano molte esperienze internazionali. Tutto ciò sarà efficace, però, solo se contemporaneamente si varerà una seria operazione di adeguamento sismico degli edifici esistenti; per realizzare quest'ultima operazione sono necessari investimenti economici rilevanti, per il cui recupero il governo italiano nel passato aveva esaminato la possibilità di una forma di assicurazione obbligatoria contro le calamità naturali (terremoti, alluvioni, incendi e altri fenomeni). Per quanto riguarda la previsione sismica, invece, non sono ancora prevedibili i tempi necessari per arrivare a disporre di un efficace sistema di allarme, che potrebbe evitare la perdita di molte vite umane ma non ridurrebbe, comunque, i danni alle cose.
L'ordinanza del marzo 2003 ha previsto la realizzazione di una nuova carta nazionale di pericolosità sismica, utilizzabile come documento di riferimento da parte delle Regioni, alle quali è demandata la definizione della classificazione sismica nell'ambito del territorio di loro competenza. Tale carta è stata realizzata dall'Istituto nazionale di geofisica e vulcanologia nella primavera 2004 e presentata alle autorità competenti: essa è stata compilata secondo i più avanzati criteri di calcolo, sulla base di dati aggiornati e controllati. Vi sono dunque tutte le premesse perché l'Italia si allinei agli Stati Uniti e al Giappone nella difesa dai terremoti, fermo restando che il problema più rilevante per la nostra nazione, così ricca di storia, rimane il reperimento degli stanziamenti necessari a intervenire sul patrimonio edilizio e architettonico.
Tabella
Elementi di sismologia
Definizione
Un terremoto (dal lat. terrae motus, "movimento della terra") è un movimento a carattere vibratorio di una porzione di superficie terrestre, provocato da onde elastiche (onde sismiche) che si originano in un punto di varia profondità della crosta, l'ipocentro o fuoco, per un improvviso spostamento di masse rocciose. Il terremoto viene avvertito quando le onde sismiche arrivano in superficie; i suoi effetti sono massimi all'epicentro, il punto della superficie terrestre situato sulla verticale dell'ipocentro; la sua origine è da ricercare nella improvvisa liberazione, nell'interno della Terra, di energie di tensione accumulate in tempi più o meno lunghi. Durante un terremoto le oscillazioni del terreno (scosse sismiche) si succedono per un periodo di tempo che può andare da pochi secondi ad alcuni minuti, in corrispondenza dell'arrivo di gruppi diversi di onde sismiche. Le prime onde ad arrivare sono quelle più veloci, longitudinali, che determinano nel suolo sollecitazioni alternate di compressione e di dilatazione, con conseguenti vibrazioni dirette secondo la direzione di propagazione delle onde; seguono le onde trasversali, che generano vibrazioni perpendicolari alla direzione di propagazione e, successivamente, le onde superficiali, con carattere più complesso. Le vibrazioni sismiche che si manifestano all'incirca lungo la verticale del luogo di osservazione prendono il nome di scosse sussultorie, mentre le vibrazioni orizzontali vengono chiamate scosse ondulatorie. Spesso un terremoto è seguito, a breve distanza di tempo, da altre scosse, dette scosse di replica, la cui intensità è di solito inferiore e la cui frequenza tende a diminuire nel tempo; sono dovute a fenomeni di assestamento conseguenti allo squilibrio creato dalla scossa principale nelle zone circostanti. A volte la scossa principale è preceduta da lievi scosse preliminari.
Come si studiano i terremoti
Negli studi di sismologia sono gli strumenti e le osservazioni sul terreno a fornire i dati di base che permettono di analizzare le onde sismiche, di localizzare i terremoti, di determinare la loro entità e la loro frequenza. I parametri che caratterizzano in modo semplificato un terremoto sono le coordinate spaziali (ovvero latitudine, longitudine e profondità dell'ipocentro), la forza e il tempo di origine. Queste grandezze si determinano mediante le registrazioni dei sismografi, da cui vengono dedotti gli istanti di arrivo delle varie onde, la loro ampiezza e il loro periodo.
In passato, per valutare l'intensità delle scosse erano usate esclusivamente le cosiddette scale macrosismiche, basate sulla classificazione dei danni provocati ai manufatti civili e, per i terremoti più violenti, all'ambiente naturale, mentre per i terremoti di lieve entità si faceva riferimento all'avvertibilità, sia strumentale sia umana. La prima scala di misurazione di questo tipo fu definita nel 1883 dallo studioso italiano M.S. De Rossi insieme allo svizzero F.-A. Forel; essa catalogava gli effetti risentiti in una certa località e assegnava al sisma un grado di intensità (dal I al X) in relazione ai danni prodotti o alle sensazioni provocate. Un'altra scala macrosismica ampiamente diffusa è la scala Mercalli (proposta da G. Mercalli nel 1902), inizialmente divisa in 10 gradi e successivamente ampliata a 12 gradi (scala Mercalli-Cancani-Sieberg); questa scala viene ancora utilizzata, specialmente negli Stati Uniti, nella versione rivista da H.O. Wood e F. Neumann e chiamata Mercalli modificata. A partire dal 1963 è stata utilizzata in Europa la scala Medvedev-Sponheuer-Karnik, mentre è del 1998 la scala macrosismica europea. Queste ultime due scale tengono conto, nell'assegnazione del valore di intensità, della tipologia edilizia del manufatto. Le scale macrosismiche associano un valore di intensità a ogni località in cui il terremoto è stato avvertito; il valore più elevato corrisponde generalmente (cioè in assenza di forti amplificazioni locali dovute alla natura e alla forma del terreno) al sito più prossimo all'epicentro del terremoto. Questo criterio ha dominato a lungo la sismologia e ha tuttora una certa importanza, tanto che le prime scale sismiche di intensità sono state adattate alla progressiva evoluzione dell'ingegneria civile, cercando di collegare gli aspetti qualitativi a qualche parametro fisico e, principalmente, all'accelerazione massima del suolo, di primaria importanza tecnica.
Attualmente, per misurare la forza del terremoto all'ipocentro si preferisce utilizzare scale basate sulla magnitudo, cioè su una grandezza fisica rigorosamente oggettiva, che misura l'energia sismica rilasciata durante il terremoto. La prima di queste scale fu introdotta da C.F. Richter (1935) e classifica i terremoti in base all'ampiezza di specifiche onde sismiche. Poiché tuttavia tale ampiezza può variare a seconda delle frequenze d'onda misurate, viene riconosciuta come la più attendibile per valutare l'entità di un terremoto la scala di magnitudo basata sul momento sismico, che prende in considerazione il processo fisico all'origine del fenomeno, vale a dire lo scorrimento di rocce lungo un piano di faglia. Il momento sismico è legato al valore della coppia di forze che provocano la dislocazione delle rocce lungo la faglia ed è uguale all'area della superficie di rottura moltiplicata per lo spostamento medio della roccia lungo la faglia e per un coefficiente di rigidità caratteristico della roccia. Su questa base il momento sismico di un terremoto, e quindi la sua magnitudo di momento, possono essere determinati dalle componenti di bassa frequenza delle onde sismiche, le quali a loro volta possono essere registrate a distanza dai sismografi.
L'intensità delle scosse sismiche decresce, di norma, con l'aumentare della distanza dall'epicentro. Congiungendo, su una carta geografica, i punti della superficie terrestre nei quali l'intensità di una data scossa ha assunto il medesimo valore si ottengono linee, dette isosismiche, che generalmente racchiudono l'epicentro e il cui andamento dipende in modo assai stretto dalle caratteristiche elastiche del suolo. L'isosismica relativa al massimo valore di intensità si chiama linea megasismica, ed epicentro macrosismico la regione da essa delimitata. L'epicentro macrosismico si trova talvolta distante qualche chilometro dall'epicentro microsismico, determinato con il calcolo per mezzo dei sismografi, a causa di disomogeneità nella zona percorsa dalle onde sismiche.
La nozione di epicentro era un tempo legata essenzialmente alla constatazione dell'esistenza di un luogo in cui il terremoto si era manifestato più violentemente. Oggi sappiamo che il terremoto è causato principalmente da fratture di rocce e che l'energia elastica liberata da un terremoto sotto forma di onde sismiche si sprigiona da una sorgente costituita da volumi piuttosto vasti di roccia. Pertanto, le nozioni di ipocentro e di epicentro nella sismologia moderna non possiedono un preciso significato fisico, ma hanno solo un valore di approssimazione al caso limite in cui le dimensioni della sorgente siano veramente trascurabili rispetto alla distanza percorsa dalle onde in esame. Di conseguenza, per la determinazione dei parametri ipocentrali, costituiti dal tempo origine e dalle tre coordinate spaziali, pur avendo presente che il terremoto non ha origine né in un istante né in un punto, è comunque ritenuta una valida ipotesi quella di considerare l'energia sismica che si propaga lungo i raggi sismici.
Terremoti e tettonica delle placche
La teoria della tettonica delle placche, postulata da A. Wegener (1912-24) e confermata in seguito da tutti i più moderni studi geologici, interpreta sia la deformazione dell'involucro rigido della Terra (litosfera), sia i fenomeni geologici come la deriva dei continenti, i terremoti, il vulcanismo e la formazione delle catene montuose. Il meccanismo-guida di questa teoria è la convezione del mantello, lo strato intermedio della Terra situato tra la crosta e il nucleo. La convezione del mantello e la fenomenologia relativa alla tettonica delle placche costituiscono un unico sistema, alimentato dal calore radiogenico e dal lento raffreddamento della Terra durante i circa 4,5 miliardi di anni della sua storia. Lo studio di questo sistema è il punto di raccordo tra diverse discipline che compongono le scienze della Terra: geochimica, sismologia, fisica dei minerali, geodesia, tettonica e geologia.
La tettonica analizza la dinamica delle deformazioni della superficie terrestre e studia sia le grandi strutture geologiche che costituiscono la litosfera, sia le forme che assumono i corpi rocciosi sottoposti a sforzi che modificano le loro originarie configurazioni. La maggior parte di tali deformazioni è prodotta da processi orogenetici, durante i quali le rocce subiscono una serie di dislocazioni, come pieghe, faglie, sovrascorrimenti e falde di ricoprimento. La teoria della tettonica delle placche, partendo dall'esistenza di ben definite zone sismiche, suddivide la litosfera in un mosaico di placche rigide, che costituiscono il modulo-base della configurazione dinamica della Terra. Questo mosaico è in continuo movimento: tutte le placche, infatti, sono a contatto fra loro e in movimento relativo l'una rispetto all'altra e si spostano su una sottostante zona plastica, l'astenosfera. È stato così definito un modello di tettonica globale, che vede la litosfera terrestre composta da sette grandi placche (nord- e sudamericana, africana, eurasiatica, indiana, pacifica e antartica) e da numerose placche più piccole. Ogni placca viene considerata rigida e l'attività sismica è principalmente associata ai movimenti relativi delle placche stesse. La maggior parte dei terremoti è infatti concentrata in fasce che seguono i confini delle placche, mentre solo una piccola percentuale si origina all'interno di esse. Le ricerche geologiche hanno evidenziato che la crosta continentale si deforma in risposta alle sollecitazioni compressive trasmesse dai margini di placca; questa deformazione può provocare terremoti. Altri studi hanno inoltre messo in evidenza che grandi terremoti possono avvenire in corrispondenza di faglie cieche presenti sotto successioni sedimentarie a pieghe, la cui deformazione evidenzia una compressione della crosta dovuta alla collisione di due placche.
L'attività sismica differisce considerevolmente per frequenza e intensità tra le varie zone considerate. Circa il 75% dell'energia rilasciata dai terremoti è raggruppata nella cosiddetta cintura circumpacifica, che segue la linea delle coste e degli archi insulari del Pacifico; un altro 20% è prodotto nella cintura alpina, che si estende dall'area mediterranea fino all'Asia centrale, attraverso il Vicino e Medio Oriente.
È stato osservato che gli ipocentri dei terremoti hanno una profondità massima di circa 700 km, che rappresenta il limite della subduzione delle placche oceaniche sotto quelle continentali. Si è anche constatato, esaminando la distribuzione in profondità dei terremoti su un campione di dati su scala mondiale, che circa il 30% degli eventi si verifica a una profondità maggiore di 100 km. Tradizionalmente i terremoti vengono suddivisi in superficiali, intermedi e profondi a seconda se la loro profondità è rispettivamente inferiore a 70 km, compresa tra 70 e 300 km, superiore a 300 km. I terremoti superficiali sono prodotti da processi di fratturazione e di scivolamento, con attrito lungo i piani di faglia, mentre quelli intermedi e profondi si originano nelle zone di subduzione.
Potere distruttivo dei terremoti
Gli effetti delle scosse sismiche sono particolarmente vistosi nei terreni coerenti e si manifestano con la formazione di frane e dislocazioni orizzontali o verticali; si possono inoltre avere notevoli mutamenti nell'idrografia della regione colpita, come per esempio la deviazione di corsi d'acqua, la scomparsa di bacini lacustri e la formazione di nuovi, per alterazione nel regime delle sorgenti. Alla vibrazione della superficie terrestre sembra sia da ascrivere il rombo sismico, caratteristico cupo rumore che spesso accompagna le scosse, specialmente se di origine molto superficiale.
I terremoti causano distruzione in vari modi: le vibrazioni del suolo possono scuotere le strutture così violentemente da farle crollare, le accelerazioni del suolo in prossimità dell'epicentro di un terremoto violento possono avvicinarsi al valore dell'accelerazione di gravità e persino superarla, cosicché un corpo appoggiato sulla superficie terrestre può letteralmente venire lanciato in aria. Pochissime strutture costruite dall'uomo sono in grado di resistere a uno scuotimento così violento e quelle che resistono subiscono comunque gravi danni. Se l'epicentro del terremoto cade in mare si verifica un maremoto, che consiste appunto nell'insorgere e nel propagarsi di onde di gravità in seno a un mare o a un oceano. L'origine di queste onde va ricercata nei bruschi movimenti (sollevamenti o abbassamenti) del fondo marino causati da un terremoto o da fenomeni di vulcanismo sottomarino. Le onde di maremoto (conosciute anche con il nome giapponese di tsunami) si propagano con una velocità che dipende in modo alquanto complesso dalla lunghezza d'onda nonché dalla profondità del fondo marino, e che raggiunge valori dell'ordine di 100 m/s; la lunghezza d'onda può raggiungere qualche centinaio di chilometri e il periodo qualche decina di minuti. Anche l'ampiezza delle onde dipende dalla profondità marina: in mare aperto, con notevoli profondità, l'ampiezza è di pochi metri, mentre avvicinandosi alla costa, in acque via via meno profonde, l'ampiezza aumenta fortemente, fino a raggiungere decine di metri. In alto mare i maremoti passano quindi quasi inavvertiti, mentre sulle coste le onde si abbattono sulla terraferma con disastrosa violenza, penetrando anche notevolmente nell'interno e arrecando spesso danni di eccezionale gravità. Le onde di maremoto percorrono migliaia di chilometri in 10-20 ore; questi lunghi tragitti sono particolarmente evidenti nell'Oceano Pacifico, dove spesso violenti terremoti che si verificano presso la costa del Giappone producono, dopo una ventina di ore, maremoti sulle coste del Cile e viceversa. Tra i maremoti più violenti sono da ricordare quelli associati con i grandi terremoti di Lisbona (1755) e di Messina (1908), con onde alte circa 15 m, e quello di Kamaishi in Giappone (1896), in cui l'altezza delle onde superò i 30 m.
Pericolosità e rischio sismico
Sebbene i termini rischio e pericolo siano spesso utilizzati come sinonimi nella lingua comune, essi si riferiscono a due situazioni ben diverse. Il pericolo è una condizione oggettiva, legata a eventi che non sono controllabili o modificabili. Il rischio, invece, è legato all'esistenza di un soggetto in pericolo e ne rappresenta le possibili conseguenze. Nell'ingegneria sismica, la pericolosità viene indicata con la probabilità di osservare un certo scuotimento del terreno in un certo periodo di tempo; il rischio sismico, invece, viene quantificato tramite la probabilità di ricavare dal terremoto un certo danno, in termini economici o di perdite umane. Nell'applicazione pratica, una carta di pericolosità sismica serve a guidare le caratteristiche tecniche per la costruzione di nuovi edifici, o per gli interventi di adeguamento antisismico di edifici già esistenti, mentre una carta di rischio sismico serve a orientare le priorità di intervento sulle vecchie costruzioni o a pianificarne una diversa destinazione d'uso.
Lo studio della pericolosità sismica è molto recente e solo da pochi decenni è affiancato e supportato da aspetti specialistici che si occupano degli elementi indispensabili a un'analisi di pericolosità. I primi prototipi di studi di pericolosità risalgono agli anni Cinquanta e consistono in mappe delle massime intensità macrosismiche osservate. Vi sono vari metodi per calcolare la pericolosità sismica: attualmente il più diffuso è il metodo del probabilismo sismotettonico, così chiamato perché elabora con tecniche statistico-probabilistiche le informazioni sismotettoniche, cioè sulla sismicità e sulla geologia, disponibili per la regione studiata. L'elemento fondamentale è la definizione delle sorgenti sismogenetiche, che devono rappresentare condizioni massimamente omogenee; ciò si traduce in genere nell'individuazione di aree al cui interno i terremoti sono generati da faglie con caratteristiche simili, o almeno con sismicità osservata simile.
Le sorgenti sismogenetiche possono essere singole faglie, o insiemi di faglie, per le quali è possibile calcolare sia quale dovrebbe essere la massima magnitudo dei terremoti, sia qual è il rapporto fra il numero dei terremoti forti e di quelli deboli. Le informazioni geologiche atte a definire la geometria delle sorgenti sismogenetiche, il catalogo dei terremoti e il modello di propagazione delle onde sismiche sono i dati necessari per procedere al calcolo probabilistico della pericolosità sismica. È quindi molto importante possedere una buona conoscenza delle caratteristiche tettoniche della regione oggetto di studio, cioè di quali faglie sono attive, per delimitare spazialmente le sorgenti sismogenetiche e caratterizzarne il potenziale sismico.
Altrettanto necessario è un catalogo di terremoti che spazi dalla sismicità storica a quella recente. Fra i terremoti storici vanno considerati soltanto quelli più distruttivi, mentre i terremoti recenti, essendo stati registrati da un numero elevato di strumenti di buona precisione, forniscono i dati più attendibili sul processo di frattura delle rocce che ha generato le onde sismiche. Gli studi e le osservazioni compiuti evidenziano che in Italia la pericolosità è più alta lungo la dorsale appenninica (Val di Magra, Mugello, Val Tiberina, Val Nerina, Aquilano, Fucino, Valle del Liri, Beneventano, Irpinia), in Calabria e in Sicilia; è elevata anche in certe zone del Nord Italia (Friuli, parte del Veneto e Liguria occidentale). Gli eventi più distruttivi, storicamente, si sono verificati nell'Italia centromeridionale. Per fare un solo esempio, il più recente dei terremoti gravi della storia italiana, quello del novembre 1980 in Irpinia, ha lasciato tracce e ferite ancora riconoscibili non solo sul territorio ma anche sugli abitanti, l'economia e la cultura di quelle zone.
Di diversa concezione e applicazione sono gli scenari di scuotimento e, di conseguenza, di danno atteso. In questo caso il trattamento dei dati è di tipo deterministico; viene cioè ricostruito lo scenario derivante da un ben preciso terremoto. Questo terremoto può essere il più forte, anche se estremamente improbabile, che può interessare una regione oppure quello distruttivo che può presentarsi con maggiore probabilità. L'utilizzo della pericolosità sismica e quello degli scenari di danno sono tra loro profondamente diversi. La zonazione sismica e la pianificazione urbanistica si basano, ovviamente, su stime probabilistiche, in quanto puntano alla difesa dai terremoti in senso generale. Gli scenari di scuotimento e di danno risultano invece importanti nella pianificazione delle operazioni di protezione civile.
Un caso particolare è rappresentato dalla costruzione delle centrali nucleari. In passato le stime di scuotimento venivano calcolate in base allo scenario del massimo terremoto possibile per il sito. Recentemente, invece, viene preferenzialmente adottato il metodo del probabilismo sismotettonico con due particolarità: le stime vengono riferite a un periodo di ritorno molto lungo e vengono penalizzate conteggiando tutte le incertezze insite nel calcolo. Su questo metodo è basato il Progetto Pegasos relativo alle quattro centrali nucleari presenti nel territorio svizzero. Il progetto ha richiesto il contributo di un numero elevato di specialisti che hanno optato per diverse modellizzazioni dei vari parametri coinvolti nel calcolo. In questo modo, a ogni diversa scelta dei parametri è associato un ramo di un albero logico decisionale che porta a un risultato. Analizzando statisticamente i 1025 diversi risultati ottenuti, è possibile quantificare le incertezze insite nel calcolo. Le stime di scuotimento, poi, si riferiscono a un periodo di ritorno di 107 anni, ben più lungo dei 475 anni calcolati come periodo di ritorno dalla progettazione antisismica per l'edilizia residenziale.
I terremoti più gravi tra 20° e 21° secolo
Fra gli eventi naturali, i terremoti sono i principali responsabili di un elevatissimo numero di vittime. Lo sviluppo di tecniche antisismiche, che possono salvaguardare la vita umana anche laddove si verifichino eventi estremamente forti, non è di per sé sufficiente a diminuire complessivamente l'impatto catastrofico di questi eventi. Anzi, l'aumento globale della popolazione mondiale, unito al fatto che la maggioranza degli individui vive in strutture totalmente inadeguate a resistere ai terremoti, porta periodicamente a tragedie per l'umanità.
Neppure quantificare correttamente il numero di vittime causate dagli eventi sismici è facile: le stime dei morti sono solo orientative, anche nel caso di terremoti avvenuti nel passato relativamente prossimo del secolo scorso. Limitando l'analisi al 20° secolo e ai pochi anni trascorsi del 21°, non vi sono sensibili indicatori di un miglioramento. Le Nazioni Unite hanno dedicato l'ultimo decennio del Novecento alla riduzione dei rischi naturali; a questo scopo è stata realizzata la mappatura mondiale della pericolosità sismica nell'ambito del progetto internazionale GSHAP (Global seismic hazard assessment program). Ma la conoscenza del rischio sembra non aver ancora sortito alcun risultato di mitigazione del rischio stesso; in particolare nell'ultimo quinquennio abbiamo assistito a eventi con decine di migliaia di morti in zone già note per la loro sismicità.
L'impennata di vittime degli ultimi anni è principalmente legata a tre eventi catastrofici: Turchia (1999), India (2001) e Iran (2003) sono tre casi molto diversi tra loro per contesto antropico e livello di prevenzione adottato ma accomunati dalle decine di migliaia di morti.
Il 17 agosto 1999 un terremoto di magnitudo 7,6 colpì le province di Istanbul, Kocaeli e Sakarya. È stato interessato un segmento di circa 120 km della faglia nordanatolica, la più importante e conosciuta struttura tettonica dell'area, con spostamenti laterali che in alcuni punti hanno raggiunto anche 5 m. Le vittime sono state oltre 17.000, per lo più in località di recente impianto urbanistico legato al rapido incremento demografico dell'area prospiciente il Mar di Marmara. Le tipologie edilizie prevalenti nella zona consistono in strutture di cemento armato a diversi piani, successive agli anni Sessanta, che sono risultate, dal rilievo post-evento, inadeguate sismicamente per la povertà dei materiali costruttivi o il mancato rispetto delle prescrizioni della normativa sismica. Non sono rari gli esempi di strutture tardo-ottocentesche che hanno retto la violenza del terremoto per il solo fatto di avere rispettato alcune elementari norme antisismiche (per esempio, intelaiatura scatolare elastica in legno, elevazione di uno o due piani, impiego di materiali leggeri per la copertura del tetto).
Il 26 gennaio 2001 fu la regione del Gujarat, nell'India nordoccidentale, a essere colpita da un terremoto di magnitudo 7,7; l'ultimo evento forte verificatosi precedentemente nell'area risaliva al 1819 e l'edilizia non era sismicamente protetta. Le vittime sono state circa 20.000 e oltre alle strutture abitative sono risultate compromesse le funzionalità del sistema sanitario, scolastico e di comunicazione di una vasta zona.
Infine, quello avvenuto in Iran, nella regione di Bam, il 26 dicembre 2003 è il terremoto con il maggior numero di morti degli ultimi decenni. La magnitudo, pari a 6,7, è stata inferiore a quella del terremoto dell'Irpinia del 1980, ma localmente si sono registrate accelerazioni molto elevate (0,98 g a Bam; con g si indica l'accelerazione di gravità pari a 9,81 m/s2). La stima non ufficiale delle vittime è di oltre 41.000 persone, la maggior parte delle quali rimasta intrappolata nel sonno nelle case di argilla degli insediamenti storici e nella edilizia povera della regione. Si tratta sicuramente del più forte evento sismico avvenuto nell'area negli ultimi 2000 anni, nel quale è andato perduto anche il patrimonio storico della cittadella fortificata di Bam, un gioiello architettonico, dichiarata dall'UNESCO patrimonio dell'umanità.