Armamenti
Ogni epoca storica e società ha conosciuto differenti e peculiari tipi di guerra e armamenti. Le armi bianche – da taglio e da getto – e quelle da fuoco a corta gittata e a ridotta celerità di tiro, hanno caratterizzato le guerre ‘agricole’, dall’antichità al XIX secolo. Nella seconda metà dell’Ottocento, sono comparse le guerre ‘industriali’, contraddistinte da due aspetti: da un lato, dalla maggiore celerità di tiro delle armi e dall’aumento della loro gittata; dall’altro, dalla più elevata mobilità – prima strategica, con le ferrovie, poi anche tattica, con la meccanizzazione. La maggiore celerità di tiro obbligò a diradare gli schieramenti, trasformando il campo di battaglia da pieno a vuoto e segnando la fine delle formazioni in linea e in colonna. La maggiore gittata conferì centralità strategica alla profondità; l’accresciuta mobilità, anche al tempo. Il passaggio dalle guerre agricole a quelle industriali si verificò con la rivoluzione militare del XIX sec., derivata dallo straordinario progresso tecnologico nel campo della propulsione (vapore per le ferrovie e per le navi e poi motori a scoppio e a turbina), della chimica, della metallurgia e delle telecomunicazioni. Agli spazi strategici della terra e del mare, si aggiunsero quelli subacqueo e aereo e, con l’invenzione della radio, anche quello elettromagnetico. Nella seconda metà del XX sec., si sono poi sommati lo spazio extra atmosferico e il cyberspazio.
Gli armamenti delle guerre postindustriali sono derivati dagli enormi sviluppi delle tecnologie dell’informazione, avvenuti negli ultimi decenni del Novecento, che consentono di integrare informazioni e armi sia tecnicamente – a livello del singolo sistema – sia tatticamente e strategicamente, nelle dimensioni spaziali prima ricordate. La potenza militare dipende sempre più dalla capacità d’integrazione sistemica. Su di essa è basata la cosiddetta Nuova rivoluzione negli affari militari (RMA, Revolution in military affairs), in atto soprattutto negli Stati Uniti, denominata anche Network centric warfare. La rete strutturale sostituisce in gran parte la piramide gerarchica propria di tutti gli eserciti del passato. La potenza network-centrica – raggiunta dagli Stati Uniti a livello globale – non può essere contrastata con strategie, tattiche e tecniche ‘simmetriche’, bensì solo con quelle ‘asimmetriche’. Esse assumono due forme: (a) le guerre insurrezionali, basate sulle tecniche e sulle tattiche della guerriglia e del terrorismo; (b) l’attacco ai vulnerabili sistemi satellitari e cyberspaziali, che costituiscono la struttura portante della rete informativa e, quindi, del complesso dei sistemi della Network centric warfare. Attualmente sono in corso poderosi sforzi, da un lato, per adeguare le capacità militari dell’Occidente al nuovo tipo di guerre che deve affrontare (in parte analogo alle campagne coloniali del XIX sec.) e, dall’altro, per ridurre la vulnerabilità e aumentare la resilienza dei sistemi spaziali e cibernetici. Nel XXI sec., grazie all’egemonia militare e tecnologica degli Stati Uniti, la probabilità di guerra fra gli Stati più potenti è notevolmente diminuita; ma, se tale egemonia dovesse venire meno, essa potrebbe tornare a essere un pericolo reale.
Le dimensioni tecnologiche e industriali sono essenziali non solo per la strategia, cioè per il modo di organizzare e di impiegare la forza militare, ma anche per la stessa utilità politica del suo uso. Se la tecnologia favorisce l’attacco sulla difesa, la forza può costituire uno strumento efficace per la politica. Essa consente, infatti, di ottenere risultati decisivi con perdite limitate e tempi contenuti, talvolta, con la sola minaccia del suo impiego effettivo (diplomazia della violenza).
La tecnologia è sempre stata un motore della storia. Non esiste però determinismo tecnologico. Gli impatti delle innovazioni scientifiche e tecnologiche dipendono dall’esistenza di un contesto politico, economico, sociale e culturale che consenta di valorizzarle. Esistono poi altri fattori egualmente importanti. Per esempio, l’avvento del nazionalismo e della democrazia hanno rivoluzionato la storia delle guerre. La tecnologia non crea direttamente il cambiamento, determina soltanto possibilità, la cui realizzazione è funzione di altri fattori.
La prima Rivoluzione industriale ha consentito – assieme alla coscrizione obbligatoria – la costituzione degli eserciti di massa, protagonisti delle guerre totali del XX secolo. L’organizzazione industriale e la tecnologia delle produzioni commerciali sono sempre state analoghe a quelle per la creazione della potenza militare. Tra le due sono sempre esistite strette correlazioni. Talvolta, predomina il flusso dell’innovazione tecnologica dal militare al civile (spin-off ); altre volte, quella dal civile al militare (spin-in). Il primo passaggio era più accentuato nel passato, quando le tecnologie militari erano dedicate e largamente finanziate dagli Stati più potenti. Oggi vi è un maggiore equilibrio, specie per le ICT (Information and communication technologies), che sono più avanzate in campo civile.
L’evoluzione tecnologica non è progressiva e lineare, avviene con soluzioni di continuità, spesso molto accentuate e rapide. Più lenta è invece l’evoluzione delle capacità militari. Da un lato, perché gli arsenali possono essere sostituiti solo progressivamente e sono quindi sempre composti da armamenti di generazioni successive; dall’altro, perché interviene la rigidità delle culture e delle strutture militari, nonché l’isteresi necessaria per integrare le nuove armi in una coerente dottrina d’impiego.
La superiorità tecnologica è sempre temporanea. Inizialmente, avvantaggia l’offensiva. Poi viene progressivamente attenuata, prima con misure tecnico-tattiche – tipiche sono quelle delle attuali guerre asimmetriche – e, successivamente, con la costruzione di nuove armi in grado di neutralizzarla. È la lotta fra il cannone e la corazza, che contraddistingue l’intera storia militare.
Esistono però periodi in cui lo sviluppo tecnologico accelera e le innovazioni nel settore degli armamenti non sono solo incrementali, ma creano capacità strategiche qualitativamente nuove. Allora si verificano le RMA. Esse sono il risultato non solo dell’integrazione di diverse tecnologie fra di loro e nel quadro di una coerente dottrina d’impiego, ma anche di mutamenti politici, sociali e geostrategici.
Rari sono i casi di RMA determinate solo da nuove tecnologie. Una è derivata dalle armi nucleari. Nel passato la potenza di fuoco era sempre stata carente rispetto alle necessità strategiche. Le armi nucleari, invece, ne posseggono una talmente grande da non essere neppure impiegabile effettivamente: può esserlo solo virtualmente, per la dissuasione, cioè per la non guerra. La tecnologia della miniaturizzazione, specializzazione e riduzione degli effetti collaterali – come del fallout radioattivo – sta però modificando tale loro caratteristica nell’attuale seconda era nucleare.
Gli armamenti in dotazione alle forze armate e le loro strutture sono determinati, oltre che dalla tecnologia, dal contesto geopolitico e dal tipo di guerra e di avversario che si prevede di dover combattere. Nella Guerra fredda, il compito principale delle forze armate occidentali era la difesa del territorio. La minaccia era simmetrica. La potenza di fuoco costituiva il paradigma dominante. Oggi, le forze armate dell’Occidente sono destinate a interventi esterni, a bassa intensità operativa e tecnologica, ma di lunga durata. I suoi nemici tendono a prolungare i conflitti e a utilizzare la loro maggiore capacità di affrontare sacrifici e perdite. L’Occidente, per vincere, deve accrescere le proprie capacità – più psicologico-politiche che materiali – di condurre guerre prolungate e di ridurre le perdite, sempre meno accettabili dall’opinione pubblica. Le ricerche tecnologiche sono quindi centrate sull’accrescimento della protezione, più che della potenza di fuoco, già disponibile in misura spesso superiore alle necessità. Ciò comporta anche un maggiore ricorso ai robot terrestri e ai velivoli non pilotati, nonché la trasformazione del singolo soldato in un sistema d’arma sempre più sofisticato, per metterlo in condizioni di fronteggiare i moderni guerrieri tribali. Lo sviluppo delle nanotecnologie accrescerà enormemente sia la sua efficienza fisica e psicologica sia la sua protezione e sopravvivenza.
La sigla RMA suggerisce una vera e propria discontinuità non solo negli armamenti e nei sistemi che li integrano, ma nel modo stesso di combattere. La RMA ha trasformato in superiorità militare l’enorme capacità statunitense nelle tecnologie dell’informazione e nell’integrazione sistemica. Ha contribuito al consolidamento del mondo unipolare, determinando un’egemonia militare completa mai verificatasi nella storia. La RMA collega sistemi d’arma di grande gittata e precisione (aerei, terrestri e navali) con una rete informativa capillare – in gran parte basata nello spazio – e completata da sensori posti a bordo di aerei o di velivoli non pilotati, oppure situati a terra. A essa concorrono – come è avvenuto in Afghanistan e in Iraq – nuclei di forze speciali, equipaggiati con designatori laser, a infrarossi o satellitari. La RMA ha conferito agli Stati Uniti la capacità di distruggere le forze nemiche con azioni di fuoco – missilistico, aereo o terrestre – effettuate mantenendosi al di fuori del raggio d’azione delle armi avversarie. Evitando il combattimento di contatto, si riducono le perdite. Il nemico viene paralizzato con bombardamenti convenzionali e con attacchi elettronici e informatici, che ne neutralizzano innanzitutto i sistemi di comando, controllo, comunicazione e informazione. Non può così più agire come un sistema coerente. Si riduce a un insieme di obiettivi puntuali, che vengono poi distrutti uno a uno. La precisione delle bombe intelligenti permette di ridurre l’entità delle forze e di alleggerire il peso logistico; rende perciò possibile una maggiore rapidità di intervento su scala globale, sostituendo il trasporto aereo a quello marittimo.
La RMA mira dunque a superare i condizionamenti dello spazio e del tempo e a ridurre le forze necessarie per conseguire la superiorità sul nemico. Le componenti più pesanti (carri armati e artiglieria per l’esercito; portaerei e navi da battaglia per la marina; cacciabombardieri per l’aeronautica) vengono ridimensionate a favore delle forze speciali, dei mezzi aerotrasportabili, delle ‘navi arsenale’ (vere e proprie batterie galleggianti) e dei robot terrestri e aerei.
Le esperienze dell’Iraq e dell’Afghanistan hanno dimostrato i limiti della trasformazione tecnologica e della riduzione delle forze terrestri previste dai fautori più radicali della RMA. Un elevato numero di effettivi rimane necessario per il controllo del territorio occupato. Contro gli insorti e in zone urbanizzate, le tecnologie della RMA perdono gran parte della loro efficacia. Forze armate strutturate ed equipaggiate esclusivamente secondo i concetti della RMA sono troppo poco flessibili e quindi inidonee all’azione contro avversari che si disperdono fra la popolazione e nel territorio. Sta quindi prevalendo un approccio meno radicale, anche per il fatto che le guerre che l’Occidente dovrà combattere a breve e medio termine hanno caratteristiche diverse da quelle di una nuova grande guerra contro forze regolari e tecnologicamente avanzate.
La Guerra fredda era mantenuta tale dall’equilibrio del terrore, basato sulla possibilità di una sicura distruzione reciproca – MAD (Mutual assured destruction) – dei due blocchi, quindi dalla conservazione della reciproca vulnerabilità. Le difese antimissili erano perciò destabizzanti, avrebbero infatti diminuito la vulnerabilità di una superpotenza rispetto alla rivale, compromettendo la MAD. Ne conseguì un accordo fra Stati Uniti e Unione Sovietica per limitarle col Protocollo ABM (Anti-ballistic missile) del 1972. Terminata la Guerra fredda, la minaccia più pericolosa per gli Stati Uniti è rappresentata – oltre che dal terrorismo e dalla destabilizzazione di regioni critiche per la globalizzazione, come quella del Golfo – dalla proliferazione di missili e di armi di distruzione di massa (chimiche, biologiche, nucleari e radiologiche o bombe sporche), da parte dei cosiddetti ‘Stati canaglia’. In tale contesto, non ha più senso basare la sicurezza sulla propria vulnerabilità e neppure sulla dissuasione reciproca. Non è infatti più valido l’assunto della razionalità dell’avversario, che tanto aveva contribuito a mantenere la stabilità strategica nel mondo bipolare.
Con l’avvento dell’Amministrazione Bush jr., il progetto di difesa antimissili – iniziato ai tempi della presidenza Reagan e proseguito da quella Clinton – ricevette un notevole impulso. Non è stato ancora deciso quale ‘architettura’ definitiva adottare. Il sistema verrà costruito in fasi successive. Quella iniziale prevede lo schieramento di un certo numero di intercettori antimissili in Alaska e California, capaci di distruggere per impatto diretto (hit-to-kill) le testate intercontinentali – nordcoreane e iraniane – nella loro traiettoria extra atmosferica. Di tale prima fase fa parte anche il progettato schieramento di 10 intercettori in Polonia e di un radar nella Repubblica Ceca, che tante proteste ha suscitato in Russia. Una seconda fase – sia integrativa sia indipendente dalla prima – prevede la dislocazione su navi di missili antimissili superveloci (sistema Navy Wide o Aegis Standard II Bloc 4), capaci di distruggere i missili nella loro fase di lancio o in quella postpropulsiva (prima, cioè, che il missile attaccante abbia raggiunto il punto di inizio della sua traiettoria balistica nello spazio). Tale soluzione – già parzialmente adottata dal Giappone – è più idonea a estendere la difesa antimissili ai Paesi alleati degli Stati Uniti. Una terza fase prevede lo schieramento di almeno una parte dei sistemi di difesa a bordo di satelliti. Dallo spazio, essi dovranno colpire i missili nemici nelle fasi di lancio, di postlancio e di traiettoria balistica extraatmosferica. Un sistema multistrato, dotato di diverse fasce di difesa, garantisce una migliore protezione. Lo schieramento satellitare di sistemi antimissili nello spazio violerebbe il Trattato di non militarizzazione dello spazio. Esso sta acquisendo grande importanza non solo per la difesa contro i missili, ma anche rispetto ai satelliti americani, specie dopo che la Cina, nel gennaio 2007, ha dimostrato le proprie capacità antisatellitari, abbattendo con un missile, con testata a impatto diretto, un suo vecchio satellite meteorologico.
Data l’importanza del programma antimissili, gli Stati Uniti hanno esercitato nel 2002 la loro opzione di ritiro dal protocollo ABM. I loro alleati europei e asiatici sono per ora interessati soprattutto alla difesa antimissili tattica (o di teatro), in particolare delle loro forze d’intervento. Si ricordano i due programmi a cui partecipa l’Italia: il MEADS (Medium extended air defense system), con gli Stati Uniti e la Germania, e l’ASTER (Advanced spaceborne thermal emission and reflection radiometer), con la Francia e la Germania. Altri sistemi sono in fase di avanzata realizzazione in Russia e in Israele.
Durante la Guerra fredda, gli arsenali nucleari strategici erano finalizzati essenzialmente alla dissuasione fra le due superpotenze, mentre quelli tattici al collegamento delle difese convenzio-nali con i deterrenti centrali. Come ricordato, il sistema era fondato sull’assunto della razionalità dell’avversario (nonché su quello, meno dichiarabile, dell’irrazionalità propria poiché, decidendo di impiegare le armi nucleari, si condannava a una pressoché certa distruzione quanto si voleva difendere). Esso ha comunque funzionato, evitando che la Guerra fredda si trasformasse in una guerra vera e propria e che l’Unione Sovietica approfittasse della sua superiorità di forze convenzionali in Europa.
Tale dottrina è stata di fatto abbandonata dagli Stati Uniti e dalla NATO. Le armi nucleari, secondo quanto precisato nella “Nuclear posture review” del Pentagono, devono continuare a garantire un equilibrio strategico globale nei riguardi degli altri Stati nucleari. Gli Stati Uniti stanno però producendo nuovi tipi di testate nucleari, da utilizzarsi non per la dissuasione, ma per l’impiego operativo. Si tratta in particolare di bombe earth penetrator, destinate a distruggere depositi posti a grandi profondità, in cui gruppi terroristi o Stati canaglia stiano producendo o abbiano stoccato armi di distruzione di massa.
La costruzione di bombe nucleari specializzate è in corso anche in Cina e in Russia. Esse sviluppano armi capaci di produrre un impulso elettromagnetico rinforzato, per neutralizzare i satelliti e i sistemi informatici su cui si basa la potenza della Network centric warfare americana.
Gli sviluppi principali nel settore degli armamenti terrestri riguardano l’alleggerimento dei mezzi corazzati per conferire loro una più elevata mobilità strategica. I mezzi di trasporto logistico sono stati invece rafforzati per porli in condizione di resistere agli effetti degli ordigni esplosivi, sempre più potenti e sofisticati, impiegati da insorti e guerriglieri. La protezione è stata migliorata con corazze multistrato (metalli e ceramiche), la cui realizzazione si è resa possibile attraverso le tecnologie dei nuovi materiali, e corazze attive, costituite da camicie esplosive che deviano il dardo esplosivo prodotto dalle cariche cave. La protezione viene incrementata anche con la diminuzione delle sagome e della marcatura infrarossa dei mezzi, nonché con l’adozione di motori a turbina, che permettono fortissime accelerazioni, per porli in grado di sfuggire agli attacchi. L’incorporazione di sensori di vario tipo e di telemetri laser, nonché l’aumento della precisione dell’armamento principale conferiscono ai moderni carri armati una probabilità di far centro al primo colpo che si aggira intorno al 90%.
Ulteriori sviluppi hanno registrato le artiglierie e i lanciarazzi multipli, mentre si è generalizzato l’impiego degli elicotteri. Particolarmente perfezionati sono risultati quelli da combattimento. È poi aumentato l’uso di robot terrestri, prima limitati a compiti di sminamento, anche se i loro progressi in tale campo non sono raffrontabili a quelli verificatisi per i robot aerei, dai drones agli RPV (Remotely piloted vehicles) o agli UAV (Unmanned aerial vehicle).
Un’innovazione tecnico-tattica particolarmente importante è l’associazione di nuclei di forze speciali con le forze aeree. Essa ha determinato una vera e propria rivoluzione nel combattimento terrestre. Finora la potenza di fuoco della fanteria era condizionata dalla trasportabilità di armi e munizioni a distanza di tiro dal nemico. Inoltre, la fanteria, sparando, si esponeva al fuoco nemico, che generalmente disponeva di armi con le medesime caratteristiche, e subiva perdite. La nuova fanteria – dotata di designatori laser, infrarossi e satellitari – dirige sul nemico le bombe e i missili lanciati da aerei, rimanendo invisibile. Dispone quindi di una potenza di fuoco molto superiore e subisce poche perdite.
Contrariamente a quanto ipotizzato da taluni esperti, il periodo del dominio delle grandi portaerei, dotate di aerei pilotati, non è ancora tramontato. I dodici gruppi di grandi portaerei nucleari continuano a costituire l’ossatura delle capacità di proiezione globale di potenza degli Stati Uniti, unitamente alle loro tre grandi divisioni di Marines (ciascuna di 50.000 uomini e con un centinaio di aerei di appoggio diretto). Sono però in corso di elaborazione nuovi progetti: per esempio, quello di nave arsenale (Arsenal ship), una sorta di batteria di missili da crociera, capace di erogare un enorme volume di fuoco su obiettivi situati a grande profondità dalle coste, senza la complicazione e la vulnerabilità dei gruppi portaerei. La diffusione di mine marine sempre più sofisticate aggiunge una nuova dimensione alla tradizionale contrapposizione tra la terra e il mare e, come si era già visto nella Guerra del Golfo, rende importante disporre di un grande numero di dragamine e cacciamine. In tale settore l’Europa potrebbe dare un importante contributo alla capacità di proiezione globale di potenza degli Stati Uniti.
Negli ultimi decenni, l’evoluzione degli armamenti aerei è stata molto dinamica. Uno sviluppo particolare è stato registrato dalle tecnologie stealth, risultanti dall’integrazione di una serie di elementi – dalla forma alla vernice, alla schermatura delle emissioni di calore ecc. – capaci di rendere gli aerei invisibili ai radar e ai sensori all’infrarosso. In continuo perfezionamento sono le armi di precisione e quelle stand-off, capaci di colpire un obiettivo restando al di fuori del raggio di azione delle sue difese dirette. Sta attenuandosi la distinzione tra l’aviazione strategica e quella tattica. In Afghanistan, per colpire gli stessi obiettivi, sono stati impiegati bombardieri decollati dagli Stati Uniti e dotati di bombe riprogrammabili in volo. Si valuta che un bombardiere B-2 abbia una capacità distruttiva pari a quella di mille B-29, le superfortezze volanti della Seconda guerra mondiale.
Significativo sviluppo hanno sperimentato i missili da crociera lanciati da navi, sommergibili e aerei. L’impiego del GPS (Global positioning system) per la loro guida ne garantisce una grande precisione. È in corso di realizzazione un velivolo intermedio tra l’aereo e l’elicottero, denominato convertiplano, che integra la flessibilità e le prestazioni di entrambi. Infine, grandi progressi si sono registrati nel campo dei velivoli non pilotati, che vengono impiegati non solo per i tradizionali compiti di ricognizione, ma anche per la guida di bombardieri e per l’attacco diretto di obiettivi di opportunità. Essi presentano il grande vantaggio di poter rimanere a lungo in volo (oltre 24 ore) e, quindi, di consentire una presenza armata continua nelle zone in cui si presume possano esservi obiettivi.
Lo spazio extra-atmosferico è divenuto una nuova dimensione della competizione strategica. Dall’inizio degli anni Sessanta, sono stati lanciati oltre 3500 satelliti militari, prevalentemente di telecomunicazione e di osservazione della Terra, ma anche di posizionamento satellitare, meteorologici e di allarme contro il lancio di missili balistici. I satelliti sono ormai una componente essenziale della potenza militare. A seconda dell’altezza a cui orbitano nello spazio, si distinguono in geostazionari oppure a orbita alta, media o bassa. In funzione delle loro dimensioni e del loro peso, si classificano in satelliti pesanti e leggeri, fino a giungere ai minisatelliti di pochi chilogrammi, impiegati soprattutto per lanci di opportunità. Gli attuali satelliti di osservazione hanno un potere di risoluzione di pochi centimetri. Grande interesse ha rivestito dagli anni Novanta l’uso militare di satelliti civili. Tale possibilità non annulla la necessità di satelliti militari dedicati, protetti da contromisure elettroniche o da impulsi elettromagnetici. Uno sforzo particolare è in corso per rafforzare le difese sia passive sia attive dei satelliti, anche con la messa in orbita di satelliti anti-ASAT (Anti-satellite). L’aspetto più destabilizzante delle attuali difese antimissili consiste nella possibilità del loro uso per distruggere i satelliti avversari.
La crescente importanza degli aspetti elettromagnetici e informatici della potenza militare ha comportato la messa a punto di vere e proprie armi finalizzate non solo a intercettare e localizzare le sorgenti di emissione, ma anche a interferire con i sistemi di comando, controllo, intelligence, comunicazione ecc., dell’avversario, sia per neutralizzarli temporaneamente sia per distruggerli. Nel campo elettromagnetico, si è sviluppato un gran numero di contromisure elettroniche (ECM, Electronic counter measures) volte a disturbare e a neutralizzare le emissioni nemiche (sia comunicazioni, come quelle delle radio, sia non comunicazioni, come quelle dei radar). La difesa da esse viene realizzata con contro-contromisure elettroniche (ECCM), anch’esse sempre più sofisticate. Per le ECM e le ECCM sono impiegate piattaforme terrestri, aeree e navali specializzate.
Nel campo informatico si mettono a punto hacker e virus capaci di distruggere il software dei calcolatori. Circuiti elettronici e banche dati possono poi essere inabilitati da impulsi elettromagnetici. Essi tendono a neutralizzare il sistema di sistemi, su cui si basa la superiorità strategica degli Stati Uniti.
Le armi chimiche non hanno registrato significative evoluzioni rispetto al passato. Quelle biologiche, invece, sono in costante sviluppo – nonostante le vigenti limitazioni internazionali – per i rapidissimi progressi della microbiologia e delle biotecnologie. La capacità di produzione di massa di microrganismi e le possibilità di una loro migliore conservazione – con la liofilizzazione e le manipolazioni genetiche – ne facilitano l’impiego anche per attacchi terroristici. La loro efficacia deriva anche dal ritardo esistente fra la contaminazione e il manifestarsi dei primi sintomi. Ciò può determinare un panico incontrollabile, soprattutto in caso di armi biologiche contagiose. Esse hanno una letalità simile a quella delle armi nucleari, ma non richiedono la medesima difficoltà di produzione. Il loro uso da parte dei terroristi rimane però complesso e questi ultimi, almeno finora, hanno preferito impiegare armi ed esplosivi convenzionali.
Le armi non letali o a ridotta letalità comprendono un’ampia gamma di mezzi che possono neutralizzare temporaneamente il personale nemico, senza ucciderlo, o componenti del sistema industriale dell’avversario, senza arrecarvi danni permanenti. Nell’ultimo decennio sono state notevolmente migliorate e continueranno a esserlo, specie per la rilevanza che esse hanno nelle operazioni di supporto della pace. Tra le armi antipersonale vanno ricordati gli ultrasuoni, le colle, le reti, le pallottole di gomma, le bombe abbaglianti e quelle acustiche (impiegate anche nelle operazioni per la liberazione di ostaggi), quelle lacrimogene, utilizzate dalle forze di polizia per il mantenimento dell’ordine pubblico, e così via. Tra quelle che hanno per obiettivo il sistema industriale dell’avversario vanno ricordate le bombe a grafite, impiegate dallaNATO per neutralizzare talune centrali elettriche serbe durante la crisi del Kosovo. Armi non letali possono essere considerati molti dei mezzi impiegati per il mantenimento dell’ordine pubblico e per le operazioni antisommossa, nonché i defolianti, largamente utilizzati nella guerra del Vietnam. Secondo i loro fautori, queste armi consentirebbero operazioni militari umanitarie riducendo il numero delle vittime tra la popolazione civile, consentendo di contrastare operazioni condotte da forze paramilitari, che attaccano proteggendosi con folle di donne e bambini. Il dibattito sulle armi non letali resta però aperto. La loro introduzione in servizio non segna l’inizio di un nuovo tipo di guerra umanitaria, anche perché coloro contro cui saranno impiegate generalmente non ne dispongono e, quindi, reagiranno con armi tradizionali, cioè letali. Secondo taluni esperti, le armi non letali sarebbero addirittura controproducenti. Infatti, esse riducono l’effetto dissuasivo delle armi letali, costringendo alla fine a usare un livello di violenza superiore a quello che sarebbe sufficiente con l’impiego tempestivo di armi da guerra o semplicemente con la minaccia del loro uso. In sostanza, sebbene possano utilmente integrare le armi tradizionali in specifiche situazioni, le armi non letali non possono sostituirle, neppure nelle operazioni di mantenimento della pace.
La rivoluzione dell’informazione, che ha già trasformato armamenti e tattiche, continuerà ad avere importanti ricadute specie nel settore della robotica e della . Per quanto riguarda la robotica, lo sviluppo sarà particolarmente marcato per gli UAV (Unmanned aerial vehicle), sia da ricognizione sia di attacco. Si stanno mettendo a punto esemplari capaci di riconfigurare automaticamente le armi di bordo a seconda del tipo di obiettivo che si apprestano ad attaccare: per esempio, la medesima testata può essere a frammentazione, se l’obiettivo è costituito da truppe allo scoperto, o a carica cava, se si tratta di mezzi corazzati. Il Congresso statunitense ha espresso l’auspicio che, entro il 2010, un terzo dei nuovi aerei di attacco sia costituito da UAV, e che, entro il 2015, anche un terzo dei nuovi veicoli terrestri sia robotizzato. Sforzi sostenuti saranno effettuati anche nel campo della cyberwar, sia offensiva sia difensiva.
Un’attenzione particolare verrà dedicata alla difesa dei satelliti contro attacchi ASAT, dato il timore di una Pearl Harbour spaziale. La difesa, come accennato, verrà attuata sia con misure passive (corazzatura, capacità di evasione, emissione di falsi echi ecc.), sia attiva, con l’impiego di satelliti armati, in grado di distruggere le armi ASAT.
Uno sviluppo notevole è atteso nel settore delle armi a energia diretta, sia laser, sia a microonde e a impulso elettromagnetico.
Le nanotecnologie – per le quali gli Stati Uniti da soli spendono oltre 4 miliardi di dollari l’anno – verranno massicciamente impiegate per potenziare le capacità fisiche e psicologiche dei combattenti, nonché per aumentarne la protezione. Sono in corso di messa a punto uniformi che cambiano di colore per adattarsi all’ambiente esterno e il rafforzamento della potenza fisica individuale, per consentire il trasporto a spalla, per 24 ore, di carichi di un quintale alla velocità di 8 km/h.
Le biotecnologie saranno sviluppate non solo per la difesa contro aggressivi biologici, ma anche per fermare le emorragie e per effettuare diagnosi a distanza dei feriti, installando apparecchiature direttamente sulle uniformi da combattimento.
Ogni epoca è caratterizzata da differenti tipi di guerre e di armamenti. Questi ultimi sono connessi non solo alle tecnologie disponibili, ma anche al tipo di organizzazione sociale e con i compiti affidati alle forze armate. La storia degli armamenti costituisce una parte non trascurabile della storia politico-sociale dei vari popoli. Non può essere considerata separatamente da essa. Il rapidissimo progresso tecnologico e la necessità delle forze occidentali di adeguarsi al nuovo contesto strategico, fanno prevedere che, nei prossimi decenni, armamenti ed equipaggiamenti conosceranno un’evoluzione molto dinamica nel settore. Essa consentirà alle forze occidentali di fronteggiare meglio le guerre asimmetriche sia contro i guerrieri tribali sia contro le superpotenze regionali, che hanno l’ambizione di trasformarsi in globali, sviluppando capacità antisatellitari e di guerra nel cyberspazio.
Alexander 1999: Alexander, John B., Future war. Non-lethal weapons in the twenty-first-century warfare, New York, St. Martin’s Press, 1999.
Arquilla, Ronfeld 2001: Arquilla, John - Ronfeld, David, Network and netwar. The future of terror, crime and militancy, Santa Monica (Cal.), RAND, 2001.
Boot 2006: Boot, Max, War made new. Technology, warfare and the coming of history, New York, Gotham Books, 2006.
Freedman 1998: Freedman, Lawrence, The revolution in strategic affairs, New York-London, Oxford University Press, 1998.
Fuller 1998: Fuller, John F.C., Armament and history. The influence of armament on history, New York, Da Capo, 1998.
Gray 2005: Gray, Colin S., Another bloody century. Future warfare, London, Weidenfeld & Nicolson, 2005.
Iklé 1995: Iklé, Fred C., The second coming of the nuclear age, “Foreign affairs”, 75, 1995, pp. 119-128.
Owens 1995: Owens, William A., The emerging system ofsystems, “US Naval Institute proceedings”, 121, 1995,pp. 35-39.
Rumsfeld 2006: Rumsfeld, Donald, Quadrennial defensereview report, Washington D.C., US Government Printing Office, 2006.
Toffler, Toffler 1993: Toffler, Alvin - Toffler, Heidi, War and anti-war: survival at the dawn of the 21st century, Boston, Little, Brown and Co., 1993.
Van Creveld 1991: van Creveld, Martin, The transformation of war, New York, Free Press, 1991.
di Gianfranco Bangone
L’utilizzo di patogeni in attività belliche è documentato sin dall’Età classica. Erodoto descrive l’impiego da parte degli arcieri sciti di frecce avvelenate – presumibilmente con il batterio Clostri-drium botulinum che induce il tetano – che provocavano paralisi respiratoria. È la prima testimonianza dell’uso dei cosiddetti incapacitanti, il cui impiego nelle tecniche di guerra biologica avrà il suo massimo sviluppo in epoca moderna.
È presumibile che per molti secoli a seguire l’utilizzo di cadaveri fosse la principale tecnica disponibile per la guerra biologica; quest’uso da parte dei Tartari è ben documentato nell’assedio della colonia genovese di Caffa del 1346, oggi Feodosija in Ucraina, quando furono catapultate oltre le mura di cinta della città salme di soldati tartari morti di peste bubbonica. L’epidemia si diffuse all’interno della città e furono gli stessi Genovesi che, rientrando in patria, trasportarono le pulci che nel giro di tre anni diffusero la peste in tutta l’Europa.
Una variante ‘moderna’ di guerra biologica fu introdotta nella tarda primavera del 1763, quando durante le guerre franco-indiane, un’epidemia di vaiolo colpì Fort Pitt, un importante caposaldo britannico per il controllo del fiume Ohio. Qualche mese dopo fu deciso di utilizzare le coperte dei soldati ammalati per diffondere la malattia tra gli ostili nativi americani, regalando loro delle coperte contaminate da escreti di soldati ammalati di vaiolo. L’operazione, almeno dal punto di vista militare, ebbe successo perché la malattia si diffuse tra i nativi – immunologicamente ‘naive’ – facendo molte vittime.
Il primo vero disegno di guerra biologica risale alla Prima guerra mondiale, con il progetto tedesco di infettare con il Bacillus anthracis – un batterio sporigeno che provoca il carbonchio – le pecore rumene destinate all’esportazione in Russia e il bestiame argentino destinato alle truppe inglesi; mentre in Francia si tenta di diffondere lo Pseudomonas mallei, che produce infiammazioni delle vie respiratorie nei cavalli e nei muli. Si cerca addirittura di far scoppiare un’epidemia di peste a San Pietro-burgo e di colera fra i soldati italiani al fronte, ma nessuno di questi tentativi raggiungerà gli obiettivi prefissati.
Nei primi anni Trenta è il Giappone a sperimentare la via della guerra biologica su grande scala quando il generale Shiro Ishi dà vita all’Unità 731 ad Harbin in Manciuria, impiegandocirca 5000 tecnici in 26 stabilimenti dove si fa ricerca su tutti i patogeni conosciuti all’epoca sperimentandone l’efficacia su prigionieri cinesi (ci saranno almeno 600 vittime in uno solo dei centri). Alla fine della Seconda guerra mondiale gli Stati Uniti offrono l’immunità ai tecnici dell’Unità 731 in cambio della collaborazione con una commissione di inchiesta militare americana. Negli Stati Uniti un simile programma di ricerca aveva mosso i primi passi nel 1941 e nel 1951 si inizia la produzione in scala del patogeno della tularemia (Francisella tularensis). Nei trent’anni che seguono vengono effettuati diversi rilasci di batteri sotto forma di aerosol, ma l’esperimento più famoso è quello del 1966 quando nella metropolitana di New York viene effettuato un rilascio di Bacillus globigii, un batterio non patogeno utilizzato per simulare un attacco di carbonchio.
Il periodo dal 1959 al 1969 viene considerato da molti storici una sorta di golden age per gli sforzi profusi dall’amministrazione americana e per i risultati raggiunti: si va dal bacillo dell’antrace al virus dell’encefalite equina, dall’enterotossina B stafilococcica alla Coxiella burnetii che produce una particolare forma di polmonite. Il programma viene chiuso dal presidente Richard Nixon nel 1972, affidando al nucleare il ruolo di deterrente, e nel 1975 gli Stati Uniti firmano la Convenzione per le armi biologiche. Al trattato aderirà anche l’Unione Sovietica ma ciò non impedirà il lancio del Biopreparat, il più grande programma di ricerca militare che la storia ricordi, con circa 60.000 persone impiegate. Nei primi anni Novanta, dopo l’avvento di Michail S. Gorbačëv, la struttura viene ufficialmente smantellata e l’Occidente ne verrà a conoscenza quando un alto dirigente del Biopreparat ripara nel Regno Unito. Poco dopo un altro nome eccellente della ricerca militare sovietica – il colonnello Kanatjan Alibekov, che oggi si fa chiamare Ken Alibek – espatria clandestinamente negli Stati Uniti. Qui viene nominato consulente della difesa, e racconta che l’Unione Sovietica aveva sviluppato, nel 1987, non solo una versione di carbonchio resistente a tutti gli antibiotici utilizzati nel periodo, ma aveva addirittura ‘militarizzato’ agenti come il vaiolo e la letale febbre emorragica di Marburg. Tuttavia, esistono fondati dubbi sull’attendibilità di Alibekov.
Nel frattempo il processo di produzione è diventato straordinariamente sofisticato: nei centri del Biopreparat vengono sviluppate tecniche per la coltivazione, la selezione di ceppi più virulenti e la loro essiccazione che consente di conservarli a temperatura ambiente. Ad Alibekov si deve la formula di una particolare sostanza segreta da utilizzare come ‘involucro’ per la diffusione degli agenti biologici. Si sa che il prodotto finale è una specie di polvere della consistenza del talco le cui microsfere contengono il patogeno. Il vettore destinato a trasportare le testate biologiche è il missile intercontinentale SS-18 che contiene dieci ogive, e secondo Alibekov è in grado di colpire dieci diverse città americane. L’attacco era previsto nelle ore immediatamente dopo l’imbrunire perché il patogeno contenuto nell’aerosol tende a degradarsi per l’azione della radiazione ultravioletta, perdendo efficacia.
La dissoluzione dei blocchi e lo smantellamento dell’Unione Sovietica hanno stimolato negli anni Novanta un nuovo filone di studi relativo ai problemi di proliferazione non solo nucleare ma anche biologica. È più che probabile che l’ascesa di nuove potenze regionali dopo il crollo del muro di Berlino e lo smantellamento del Biopreparat abbia portato non pochi tecnici dell’ex Unione Sovietica in molti Paesi del Terzo Mondo dove l’opzione nucleare sembra ancora impraticabile. Nel 1991 la guerra del Golfo convince molti strateghi delle potenze emergenti che il conflitto ‘classico’ non ha più ragione di esistere perché nessun Paese al mondo può sfidare in un confronto aperto gli Stati Uniti. Si afferma quindi un nuovo scenario di riferimento, l’asymmetric warfare, dove gli agenti biologici sembrerebbero l’arma più appropriata per attentati di tipo terroristico per la facilità con cui li si può ottenere e soprattutto per i limitatissimi costi di produzione.
Un rapporto dell’ONU stima che un’operazione su larga scala contro la popolazione civile di un Paese costerebbe 2000 dollari per km2 con armi convenzionali, 800 con il nucleare, 600 con i gas nervini, ma solo un dollaro con agenti biologici. La produzione di 50 kg di antrace è alla portata di un piccolo laboratorio e non presenta particolari difficoltà: un tale quantitativo disperso da un aereo da turismo sopra una grande città potrebbe fare 95.000 vittime e sarebbe in grado di infettare almeno 125.000 persone per diverse settimane, portando al collasso le strutture sanitarie. Dopo gli attentati dell’11 settembre 2001 l’emergenza antrace, innescata da una serie di lettere inviate a uffici federali, network televisivi e giornali, sembra dar corpo a questo scenario e negli Stati Uniti vengono varati piani per la difesa da simili minacce. Tuttavia, nonostante il risalto dato a queste azioni, le lettere all’antrace non rappresentano un episodio isolato di terrorismo perché negli anni Ottanta e Novanta diversi gruppi eversivi americani avevano già fatto uso di agenti biologici per attentati progettati o eseguiti.
Nel 2001 vengono condotte due esercitazioni, a Topoff e Dark Winter, dove si dimostra la straordinaria vulnerabilità delle metropoli americane: un rilascio di vaiolo in quattro centri commerciali di Oklahoma City produrrebbe circa 3 milioni di contagiati e un milione di vittime nell’arco di otto settimane. Ma negli stessi anni alcuni risultati scientifici lasciano presagire la possibilità di utilizzare la tecnologia del DNA ricombinante per la produzione di nuovi agenti letali. Il caso scoppia nel 2001 quando alcuni ricercatori australiani, nel tentativo di ridurre la prolificità dei roditori, tentano di ingegnerizzare il virus Ectromelia – un parente stretto del virus del vaiolo umano – per ottenere una sorta di vaccino contraccettivo. Il virus ingegnerizzato si dimostra però letale anche in topi che erano stati precedentemente vaccinati contro il vaiolo murino. Il lavoro viene pubblicato per allertare la comunità scientifica internazionale, ma solleva aspre polemiche perché secondo alcuni indica la strada per potenziare la virulenza di un patogeno e rendere inefficace anche un’eventuale vaccinazione preventiva.
L’anno successivo il gruppo di Eckard Wimmer dimostra la possibilità di ricostruire il virus della polio a partire dagli oligo-nucleotidi disponibili commercialmente nel catalogo di aziende biotech. Un risultato simile era stato già ottenuto da David Baltimore nel 1981, e in ogni caso il virus sviluppato da Wimmer è assai meno virulento della versione wild, ma tanto basta per generare l’ennesimo allarme. Nel 2002 viene anche pubblicatosui “Proceedings of the National Academy of Sciences” (PNAS) un lavoro del gruppo di Ariella M. Rosengard in cui si comparala risposta immunitaria nei confronti di Variola major, il virus responsabile del vaiolo ormai eradicato da decenni, e Vaccinia, ovvero il virus attenuato che è stato utilizzato per immunizzare la popolazione umana nei confronti di questa malattia. Non avendo a disposizione il virus selvatico, per confrontare i geni che codificano un inibitore chiave della risposta immunitaria i ricercatori ne ricostruiscono il gene utilizzando tecniche di sintesi. In sostanza, per ricostruire il gene di Variola sostituiscono nel corrispondente di Vaccinia 13 oligonucleotidi. Per alcuni il risultato di Rosengard è di grande importanza perché se il vaiolo ricomparisse nella popolazione umana si potrebbe tentare di ridurre la risposta del gene in questione, ma per altri esiste il pericolo che ingegnerizzando il Vaccinia con lo stesso gene si potrebbe aumentarne la virulenza e quindi riportare in vita il virus del vaiolo.
Nel 2003 un comitato del National Research Council pubblica un rapporto – spesso citato come ‘rapporto Fink’ – in cui riepilogando questi casi raccomanda alla comunità scientifica di porre particolare attenzione ai problemi di sicurezza e consiglia di agire a stretto contatto con esperti del settore per prevenire usi impropri di questa tecnica. L’ennesimo caso che genera scalpore è la pubblicazione nel 2003 di un lavoro del gruppo di Craig Venter in cui si annuncia la ricostruzione in vitro del batteriofago ΦX174 a partire da oligonucleotidi di sintesi disponibili in commercio. In circa due settimane, è possibile ricostruire i 5386 oligonucleotidi del genoma e successivi esperimenti dimostrano che il costrutto artificiale è in grado di infettare il suo ospite naturale Escherichia coli.
Due anni dopo un ricercatore dell’Università di Stanford, Lawrence Wein e un suo laureando, Yifan Liu, mettono a soqquadro i media americani pubblicando su PNAS una simulazione delle vittime prodotte da un attentato terroristico che contaminasse con 10 g di botulino alcuni silos di stoccaggio del latte. Secondo la stima effettuata, il consumo del latte contaminato renderebbe necessario il ricovero in ospedale e il ricorso alla ventilazione meccanica per almeno 50.000 persone. A causa dell’impossibilità per le strutture sanitarie americane di garantire simili terapie a un così ampio numero di pazienti, i due ricercatori valutano che nella popolazione adulta il tasso di mortalità sarebbe di circa il 60%, con punte ancora più elevate tra i bambini che sono forti consumatori di questo alimento. Nonostante il rapporto Fink raccomandi la creazione di un board per la biosicurezza che dovrebbe autorizzare la pubblicazione di lavori con possibili ripercussioni sulla sicurezza nazionale, al momento in cui la rivista riceve il lavoro il board non è ancora operativo; si decide di pubblicarlo in ogni caso nonostante le proteste del Dipartimento di Sanità. L’articolo viene accompagnato da un editoriale di Bruce Albert, presidente della National Academy of Sciences, in cui si ricostruisce il percorso di peer review a cui è stato sottoposto l’articolo in questione e si ribadisce che la libera circolazione di dati scientifici è di per sé utile per la sicurezza nazionale, al contrario della censura preventiva. A contribuire al clamore suscitato dai risultati di Wein e Liu è la rivelazione di alcuni quotidiani statunitensi che riferiscono di aver trovato in un sito di fondamentalisti islamici un manuale di 28 pagine dove si spiega la procedura per ottenere il botulino.
I risultati scientifici sul genoma di sintesi scatenano un vivace dibattito nella comunità scientifica, ma molti ricercatori ribadiscono che la via più semplice per progettare e realizzare un attentato è far ricorso ad agenti infettivi o tossici largamente presenti in natura. Non va infatti dimenticato che le tecniche di sintesi richiedono sofisticati laboratori e personale altamente specializzato. Peraltro i think thank che si occupano di terrorismo raramente sono stati in grado di anticiparne le tendenze: di volta in volta sono state annunciate forme di transizione nella tecnica terroristica, per esempio le cosiddette bombe sporche o patogeni vegetali che potrebbero produrre ingenti danni al settore agricolo, ma le cronache degli ultimi anni dimostrano che l’attentato suicida con il ricorso a esplosivi convenzionali è ancora la via più semplice, più facile da praticare e che assicura i risultati migliori perché non richiede alcun know how. L’adozione di misure di secretazione e di restrizione della circolazione dei risultati scientifici è quindi innaturale e mette in crisi un sistema di validazione che garantisce risultati non solo in termini di sicurezza nazionale ma anche di biopreparedness.