La fisica oggi
In base alla prevalente ricerca scientifica svolta nel primo decennio del 21° sec., e all’interesse che le fonti di informazione hanno riservato ai risultati ottenuti in campo biomedico, sembra che questo attuale si potrà definire il secolo della biologia. Tuttavia, le altre scienze, quali la matematica, la fisica e la chimica, non appaiono in condizione ancillare. In particolare, la fisica, dopo i grandi risultati ottenuti nel 20° sec. nella comprensione dei fenomeni microscopici mediante la meccanica quantistica e dei fenomeni a scala stellare mediante la relatività generale, sta riemergendo con una sensibilità nuova verso gli interessi specifici dell’uomo, visti nel più ampio contesto sociale.
Nel presente contributo si cercherà di porre l’accento, senza alcuna presunzione di completezza, su alcuni dei grandi settori della fisica in cui attualmente si concentrano le ricerche di maggiore interesse, ponendone in evidenza le possibilità applicative. Saranno sottolineate inoltre le interconnessioni tra scienza e società, per gli aspetti sia culturali sia etici e di comunicazione.
A partire dagli ultimi decenni del 20° sec., in fisica ha preso l’avvio un approccio metodologico nuovo rispetto a quello della fisica classica: un metodo che si sviluppa parallelamente, e per molti aspetti in antagonismo, rispetto al procedere dell’approccio riduzionistico, che mira a ricondurre le proprietà di un sistema macroscopico al comportamento dei suoi componenti.
Prendiamo le mosse da una nota ricerca del matematico statunitense Edward N. Lorenz (Deterministic nonperiodic flow, «Journal of the atmospheric sciences», 1963, 20, 2, pp. 130-41). Egli si occupava di previsioni meteorologiche e scoprì che, con il modello di atmosfera da lui adottato, bastava modificare di pochissimo le condizioni iniziali per pervenire a previsioni completamente diverse. Inutile dunque, utilizzando un potente computer, eseguire il calcolo con precisione elevata quanto si voglia: poiché le condizioni iniziali non sono note con una precisione infinita, le previsioni non sono molto attendibili. L’approfondimento di questa spiacevole situazione portò Lorenz alla riscoperta dei risultati delle ricerche che un grande matematico francese, Jules Henri Poincaré, aveva condotto più di ottant’anni prima sulle equazioni di Newton per la dinamica dei sistemi non lineari (Mémoire sur les courbes définies par une équation différentielle, «Journal des mathématiques pures et appliquées», 1881, sér. 3, 7, pp. 375-422, e 1882, sér. 3, 8, pp. 251-96). Benché si tratti di equazioni strettamente deterministiche, il comportamento delle loro soluzioni, anche nel semplice caso di tre soli corpi interagenti, può diventare caotico, ossia imprevedibile, per l’impossibilità di principio, e non soltanto pratica, di stabilire le condizioni iniziali con precisione: basta infatti una minima perturbazione (per es., il battito d’ali di una farfalla) per dar luogo a soluzioni sensibilmente diverse. In seguito Lorenz sintetizzò tale fenomeno nell’espressione butterfly effect, che prende spunto dal titolo del discorso da lui tenuto nel 1972 al 139° congresso dell’American association for the advancement of science (Predictability. Does the flap of a butterfly’s wings in Brazil set off a tornado in Texas?); l’espressione sarebbe divenuta popolare anche fuori dell’ambito strettamente scientifico, pur se spesso in accezioni improprie.
Il fatto che i sistemi caotici siano rimasti esterni allo sviluppo della scienza nei tre secoli durante i quali essa ha messo a segno una serie così rilevante di successi metodologici, conoscitivi e applicativi, può indurci a pensare che questi sistemi siano rare eccezioni all’interno del panorama di quelli possibili. In realtà si tratta di un’impressione falsa, dovuta a una scelta che la scienza classica ha compiuto a priori, ovvero quella di limitare la sua attenzione a quei sistemi che potessero essere indagati con l’approccio riduzionistico, che potessero cioè essere schematizzabili con modelli semplici e ripetibili, e fossero dunque descrivibili da algoritmi capaci di produrre previsioni certe.
Una volta abbattuto lo schermo che circoscriveva il mondo oggetto dell’indagine scientifica, separandolo dall’universo assai più esteso del conoscibile, ci si è resi conto della varietà di fenomeni e di ambiti disciplinari al cui studio non è applicabile il metodo scientifico classico. In particolare sono caotici, e quindi intrinsecamente non predicibili, i sistemi complessi. È detto complesso un sistema costituito da un enorme numero di componenti fra loro interagenti con legge non lineare, tale quindi da avere proprietà collettive di insieme non riconducibili a quelle dei suoi costituenti (proprietà emergenti). Sono sistemi complessi, per es., tutti quelli appartenenti all’ambito della vita (un essere vivente, una colonia di esseri viventi microscopici o macroscopici, un ecosistema ecc.). Molti sistemi sono complessi a più ordini: è il caso, per es., di un organismo vivo, composto di cellule, a loro volta composte di molecole e così via. I sistemi complessi godono in generale di un certo numero di proprietà, tra le quali l’irriducibilità della loro evoluzione a fattori strutturali, il carattere autoreferenziale della loro struttura interna, la capacità di autorganizzarsi. Il loro comportamento caotico spiega perché il tentativo di molte discipline di adottare il metodo scientifico galileiano per replicarne il grande successo come motore della macchina produttrice di conoscenza (tentativo che ha coinvolto la biologia, la sociologia, l’economia ecc.) non sia stato coronato da significativi successi: si tratta di discipline che si occupano di sistemi complessi, ai quali semplicemente il metodo scientifico classico non è applicabile. Il futuro di un sistema complesso non può essere indagato; può essere studiata soltanto la sua evoluzione passata, i cui punti salienti possono anche essere ricondotti univocamente alla relativa causa. Tuttavia, qualora si volesse ripercorrerne la storia, quella stessa causa potrebbe produrre effetti completamente diversi.
Queste caratteristiche e proprietà dei sistemi complessi hanno precise implicazioni non soltanto sugli strumenti conoscitivi a essi applicabili, ma anche sulle tecniche che possono essere adottate per controllarli. Nel caso di un sistema classico noto (di cui si conoscano le equazioni che ne governano l’evoluzione), se si vuole che esso evolva a partire da una nota condizione iniziale verso una determinata configurazione finale, basta intervenire agendo in maniera appropriata sulle cause, in modo che esse determinino l’evoluzione verso tale configurazione finale. Per un sistema complesso, che non mostra nel suo comportamento alcuna correlazione deterministica di causa-effetto, il suddetto metodo non è applicabile: il sistema si manifesta, nelle sue interazioni con l’ambiente, come un’entità globale. Per costringerlo a una determinata configurazione non si può che agire su esso come entità globale. Sarà poi il sistema stesso, agendo sulle sue ridondanze interne, e usando le capacità autoreferenziali di organizzarsi, a costringere i suoi costituenti ad assumere le configurazioni compatibili con quella di insieme che le si è imposto. Si ha così, rispetto al caso classico, una sorta di inversione dei rapporti di causa-effetto; o quantomeno una sorta di circolarità, per cui l’effetto globale diviene anche causa degli aggiustamenti dei comportamenti.
In questo quadro, non appare in particolare realistica né proponibile l’ipotesi che l’osservatore e l’osservato procedano indisturbati l’uno rispetto all’altro, su due binari paralleli che corrono ciascuno nel proprio mondo. Al contrario, essi si influenzano reciprocamente, in una relazione causale inestricabile nelle sue caratteristiche di circolarità: l’osservazione perturba in modo apprezzabile, e spesso drasticamente, le caratteristiche e l’evoluzione del sistema osservato; da parte sua, quest’ultimo influenza fortemente il comportamento dell’osservatore, e le stesse regole e modalità di osservazione. Questa interazione, con le sue caratteristiche di circolarità, si manifesta quando l’osservatore compie la sua campagna di osservazione e indagine su un particolare sistema, e si amplifica quando si allarga l’attenzione al complesso di sistemi più ampi.
Il Modello Standard contiene un settore inesplorato di nuove interazioni dovute alla presenza di particelle scalari, ossia sprovviste di momento angolare intrinseco, la più semplice specie tra quelle che compongono l’insieme delle particelle elementari. Grazie a queste interazioni e alla peculiarità del campo scalare corrispondente di pervadere con un valore costante tutto lo spazio-tempo, acquistano una massa non nulla i mediatori delle interazioni deboli e tutte le particelle (elettroni, neutrini e quark) che vanno a costituire i mattoni fondamentali della materia che ci circonda. Inoltre, attraverso le interazioni con sé stesso, acquista massa anche il bosone di Higgs, ipotetica particella prevista dal Modello Standard. Oltre ad agire sulle masse delle particelle, gli scalari prima citati giocano un ruolo fondamentale nella cosmologia. Attraverso i mescolamenti tra particelle di specie (sapore) differente, la componente scalare è responsabile anche dell’esistenza di accoppiamenti che violano la simmetria materia-antimateria delle interazioni microscopiche, condizione necessaria per spiegare l’asimmetria macroscopica della materia dell’Universo, che altrimenti si sarebbe annichilata con la corrispondente antimateria. Inoltre l’esistenza di un valore del campo uniforme nello spazio-tempo ha conseguenze sull’evoluzione dell’Universo, in quanto chiama in causa un termine nelle equazioni della relatività generale al quale oggi si attribuisce il ruolo di spiegazione dell’energia oscura che regola l’espansione dell’Universo. Infine, il meccanismo di rottura spontanea della simmetria nell’interazione delle particelle, che prevede un minimo di energia per il potenziale del campo scalare a un valore non nullo più favorevole del minimo simmetrico a campo scalare nullo, permette di concepire un periodo di evoluzione nel quale l’Universo accelera la propria espansione ‘cadendo’ dal minimo di energia simmetrico a quello asimmetrico, resosi disponibile all’abbassarsi della temperatura, una condizione che spiega anche l’asimmetria materia-antimateria.
Nuove interazioni, un’influenza decisiva sull’evoluzione dell’Universo e la possibilità di violazioni microscopiche della simmetria materia-antimateria sono tutte collegate ai nuovi scalari che regolano il problema della massa delle particelle, per le quali la scoperta del bosone di Higgs rappresenterebbe una prova convincente di esistenza.
L’osservazione e lo studio del moto degli astri (reale o apparente) è, probabilmente, la più antica delle pratiche scientifiche: un moto sostanzialmente ripetitivo e ciclico, ubbidiente a ferree e prevedibili leggi. Soltanto nel corso dell’era moderna, e segnatamente del 20° sec., la scienza si è resa conto che, al di là dell’apparente ripetitività del moto dei corpi celesti, vi è un Universo in profonda evoluzione. Le stelle che popolano il firmamento nascono, vivono e muoiono, ciascuna rispettando un’evoluzione che dipende dalla loro massa; stelle, nebulose e galassie sono in movimento le une rispetto alle altre, a una velocità che può avvicinarsi a centinaia di migliaia di chilometri al secondo, e ci appaiono fisse solo per il fatto che le loro distanze relative sono enormi. Il Cosmo, nel suo insieme, appare soggetto a un’evoluzione che ne va modificando nel profondo la struttura e le proprietà, per azione di una delle quattro forze fondamentali, la gravitazione (quella stessa che, responsabile della caduta dei gravi, fa muovere pianeti e satelliti nel Sistema solare).
È ormai certo che l’Universo è nato da un’immane esplosione primordiale (Big Bang) circa 13,7 miliardi di anni fa: ne sono testimonianza la radiazione cosmica di fondo, residuo ormai freddo (circa a 2,7 K) di quella caldissima emessa dal Big Bang, e la cosiddetta legge di Hubble, per cui le galassie appaiono allontanarsi l’una dall’altra con una velocità proporzionale alla loro distanza, così come ci si aspetterebbe se avessero un’origine comune. Un quesito fondamentale a cui cercare di rispondere è il seguente: quale sarà il destino dell’Universo?
La materia emessa dal Big Bang ad altissima velocità, e poi aggregatasi nella forma dei vari corpi celesti, viene frenata nel suo moto dall’attrazione gravitazionale che ogni porzione di materia esercita su ogni altra. Questa attrazione reciproca è sufficientemente forte perché la velocità di allontanamento delle galassie prima o poi si annulli, e poi si inverta, portando l’Universo a una fase d’implosione e, in ultimo, a ricomporsi in una morte calda, simmetrica e inversa rispetto al Big Bang? Oppure il moto di fuga, pur rallentato, continuerà per sempre, portando infine la materia cosmica a disperdersi, ormai fredda, nell’infinità dello spazio?
Qualunque sia la risposta a questa affascinante domanda, essa dipende dalla determinazione della densità media della materia cosmica. Se si calcola tale densità tenendo conto soltanto dei corpi celesti visibili, risulta troppo bassa per dare ragione della morte calda. Tuttavia è fondato il sospetto che oltre ai corpi celesti visibili vi sia altra materia che non viene da noi rilevata, la cosiddetta materia oscura, non visibile. Quest’ultima può essere composta sia da materia ordinaria non osservabile, per es. i buchi neri, cioè corpi cosmici così densi che la loro attrazione gravitazionale non lascia sfuggire né materia né radiazione elettromagnetica (luce) e risultano quindi sostanzialmente invisibili, sia da particelle neutre così leggere e così debolmente interagenti da sfuggire alla nostra rilevazione, ma tuttavia tanto numerose da contribuire significativamente alla densità della materia cosmica. La presenza della materia oscura, risultando questa non evidenziabile mediante alcuna interazione elettromagnetica, può essere dimostrata dalla sua azione gravitazionale. In particolare, la velocità di rotazione delle galassie ne prova l’esistenza, ma ancora più evidente è l’effetto di deformazione sulla forma delle galassie più lontane osservate, in quanto la luce da esse proveniente risulta debolmente deflessa dalla distribuzione della materia oscura interposta.
La struttura a grande scala dell’Universo indica che le galassie e gli ammassi di queste si sono formati a partire da fluttuazioni di densità presenti inizialmente e conseguenti all’espansione delle fluttuazioni quantistiche prima della fase inflazionaria. I modelli evolutivi della struttura attuale dell’Universo fanno riferimento al fatto che l’osservazione di supernovae lontane ha evidenziato che queste si trovano a una distanza maggiore di quanto ci si aspettasse, in conseguenza di un’espansione ancora accelerata dello spazio. Si è interpretata tale espansione come dovuta all’azione di una forma sconosciuta di energia (energia oscura) a pressione negativa. L’analisi della radiazione cosmica di fondo ha altresì dimostrato che l’Universo possiede una geometria di tipo euclideo, cioè piatta. Per rendere conto di una tale geometria, è necessario integrare la quantità di materia presente nell’Universo (composta soprattutto di materia oscura) con un contributo di circa il 70% di energia oscura. La presenza di tale energia, e la conoscenza della sua natura, ha profonde ripercussioni sul destino dell’Universo, vale a dire sul legame esistente tra la geometria dell’Universo e il modo con cui si espande. Se in effetti l’energia oscura è di tipo repulsivo, ossia a grandi distanze prevale sull’attrazione gravitazionale esercitata dalla materia, e si manterrà costante, lo spazio, spinto da tale forza, si espanderà sempre più: con il passare del tempo la nostra galassia rimarrà isolata da tutte le altre che, a mano a mano, scompariranno dall’orizzonte cosmico.
La meccanica quantistica attraversa una profonda evoluzione, e da teoria predittiva dei fenomeni microscopici sta diventando fondamento di una fase di sviluppo tecnologico atto a realizzare funzioni pratiche, cioè una tecnologia quantistica; in tale passaggio, il maggiore impegno di ricerca è dedicato alla possibilità di pervenire alla computazione quantistica. Mentre nella scienza dell’informazione classica l’elemento fondamentale è il bit, che può assumere due soli valori, 0 e 1, l’analogo nella teoria quantistica è il qubit, ossia la funzione d’onda di un sistema che possa esistere in due stati, per es. lo spin su (stato 1) e lo spin giù (stato 0). In realtà, la funzione d’onda può rappresentare uno qualsiasi degli infiniti stati di sovrapposizione coerente degli stati 0 e 1 e, quindi, mentre il bit classico fornisce a seguito di un’operazione uno soltanto dei due possibili valori, il qubit permette di effettuare più operazioni contemporaneamente analizzando tutte le possibili soluzioni e rappresenta così la caratteristica basilare per un efficiente calcolo parallelo. Se poi si considera un sistema di due qubit come, per es., una coppia di particelle di spin 1/2, il suo stato risulta una sovrapposizione di stati prodotto non separabili come un prodotto degli stati di particella singola (entanglement). Non potendosi stabilire i valori dei singoli qubit, tuttavia, se uno di essi viene determinato, l’altro assume immediatamente un diverso valore, per es. complementare al primo, qualunque sia la distanza tra le particelle. Ciò non significa che sia possibile utilizzare la misurazione del primo qubit per inviare istantaneamente un segnale con il secondo, cioè a velocità maggiore di quella della luce, contro il limite dettato dalla relatività; tuttavia, la possibilità di stati entangled (ossia non separabili), per i quali non esiste alcun analogo classico, dovrebbe permettere una maggiore velocità di calcolo in un computer quantistico. La computazione quantistica consente di scomporre in tempo polinomiale in fattori primi un numero intero che sia il prodotto di due numeri primi molto grandi. In tal modo è possibile, per es., la realizzazione di una chiave crittografica a distribuzione in parte pubblica estremamente efficiente: infatti, se un’informazione viene scambiata tra due individui mediante quanti non separabili, un qualsiasi tentativo d’intromissione di un terzo che voglia accedere alla comunicazione, poiché necessariamente comporta una misurazione che modifica il sistema facendolo transire in uno stato puro, viene immediatamente rivelato da coloro che sono collegati, anche se mediante un canale pubblico.
Un ulteriore settore della fisica quantistica in cui si concentrano gli sforzi della ricerca sperimentale è quello delle bassissime temperature (pochi miliardesimi di kelvin), ove hanno luogo processi di degenerazione. Mentre in fisica dello stato solido il fenomeno della superconduttività a bassa temperatura si spiega con la formazione, mediante i fononi del reticolo cristallino, di coppie di elettroni – cioè di fermioni – che diventano bosoni, un processo di degenerazione quantistica è stato realizzato anche con atomi fermionici utilizzando tecniche di raffreddamento mediante laser. In tal modo si ottiene un sistema atomico superfluido (condensato di Bose-Einstein) attraverso il quale, superando i limiti imposti dal principio di esclusione di Pauli, è possibile studiare alcuni dei fenomeni quantistici a molti corpi controllando con esattezza la temperatura, il numero e le interazioni reciproche degli atomi.
Oltre all’evoluzione del metodo, e all’impressionante volume di risultati sul terreno strettamente conoscitivo, ciò che soprattutto ha caratterizzato lo sviluppo della ricerca in fisica nel corso del 20° sec. e ancora all’inizio del 21°, è la crescente capacità di generare innovazione tecnologica, ovverosia di inventare, caratterizzare e realizzare una straordinaria varietà di materiali, dispositivi, processi che, entrando nell’uso comune, incidono in misura crescente sulla nostra vita, sui nostri gusti, sulla nostra cultura. A titolo di esempio, citiamo: materiali sofisticati in termini di struttura e di prestazioni, come semiconduttori, superconduttori, cristalli liquidi ecc.; dispositivi per telecomunicazioni, cellulari, videotelefonini, impianti satellitari ecc.; dispositivi per la diagnostica e la terapia medico-sanitaria; nanotecnologie con le più varie applicazioni; dispositivi militari. Un bagaglio di invenzioni e innovazioni che stanno penetrando così capillarmente e pervasivamente nella nostra vita da produrre una vera e propria rivoluzione di portata epocale.
Quello che deve preoccupare è che, mentre aumenta con tutto ciò la capacità dell’uomo di modificare non soltanto la propria civiltà, ma anche le stesse caratteristiche fisiche dell’ambiente in cui viviamo, sta andando in crisi sempre più profonda la capacità di prevedere e controllare le conseguenze di quello che, come comunità umana, si va facendo.
Il procedere della scienza verso la conquista di sempre nuovi traguardi conoscitivi può essere efficacemente illustrato con la metafora di una lampada in cima a un traliccio che illumina il terreno circostante, rappresentato da una radura. Via via che la scienza procede, la luce della lampada diventa più intensa e il traliccio più alto, e quindi sempre più si allarga l’area illuminata, sottraendo spazio al buio dell’ignoranza. Ma oltre alla radura, che rappresenta il mondo microscopico e quello macroscopico esplorabile dalla fisica classica, vi è la foresta vergine, intricata e folta, che rappresenta i sistemi complessi. Esplorarla vuol dire aprire in essa solchi profondi, sentieri fra loro divergenti: non si ha più l’immagine concentrica di conquista progressiva del conoscibile, ma la ramificazione irreversibile dello sviluppo del sapere e del saper fare. Scegliere di tracciare e percorrere un sentiero piuttosto che un altro porta non soltanto a sviluppare un sapere anziché un altro (saperi nei fatti alternativi), ma segna lo sviluppo globale della civiltà e del mondo, scrive una storia anziché un’altra, a livello macroscopico e planetario: la storia naturale si intreccia indissolubilmente con quella del sistema antropico e con la storia della scienza, un libro che viene scritto e letto via via che viene sfogliato.
La ricerca scientifica è la sorgente che alimenta l’immissione sul mercato, a ritmo via via più accelerato, di nuovi prodotti, nuovi servizi, nuove funzioni. Essa è divenuta sempre più la materia prima dei processi di produzione di profitto e di ricchezza. L’innovazione tecnologica, figlia della ricerca, è nell’era globale il vero motore dell’economia e della civiltà. Di conseguenza, attenzione crescente viene attribuita al problema del cosiddetto trasferimento, cioè all’ottimizzazione dell’interazione fra il sistema della ricerca e quello della produzione.
In linea di principio, i connotati di tale interazione possono muoversi fra due modelli estremi. Il primo dà priorità al sistema della produzione, che propone al mondo della ricerca i suoi problemi e le sue puntuali esigenze di innovazione, aspettandosi che la ricerca (che si dice allora applicata) fornisca una risposta. Il secondo modello consiste nell’offrire al sistema della ricerca, senza alcuna contropartita, le risorse umane ed economiche di cui esso ha bisogno, lasciando al sistema produttivo (e più in generale alla società) la briga di utilizzare o meno le conoscenze e i saperi che la ricerca produce.
Il primo di questi modelli – un fenomeno tutto moderno, che non ha riscontro nella storia della scienza – può dare frutti parziali a breve termine, ma porta nel medio termine all’isterilimento delle motivazioni conoscitive, senza le quali la ricerca appassisce e muore. Il secondo (detto della ricerca libera o fondamentale) dev’essere necessariamente adottato per una parte del sistema ricerca, e consente un’ibridazione dal primo modello: la ricerca fondamentale fornisce linfa vitale anche a quella applicata, che trae dalla prima certezze metodologiche, motivazioni conoscitive, stabilità organizzativa. Per quanto riguarda le ricadute economiche e produttive delle attività di ricerca, vale la pena citare il fenomeno della serendipity, neologismo coniato (1754) dallo scrittore inglese Horace Walpole ispirandosi alla novella dei tre principi di Serendip, antico nome dell’isola di Ceylon, l’attuale Srī Laṅkā. Serendipity è quel fenomeno per cui la ricerca dà alla domanda che l’aveva motivata una risposta diversa da quella attesa; o addirittura dà risposta a una domanda diversa. Questo fenomeno rende estremamente difficile programmare la ricerca in base ai risultati attesi.
Nel corso del 20° sec. si è andata consolidando la pratica di varare e finanziare grandi programmi di ricerca nazionali o sopranazionali, finalizzati al raggiungimento di importanti obiettivi conoscitivi, sociali, politici o militari. Fra i programmi sopranazionali motivati da fini conoscitivi si possono citare quelli basati sulla costruzione di laboratori e grandi acceleratori di particelle; fra i programmi motivati da fini politico-sociali, si possono menzionare quelli di sviluppo di fonti energetiche alternative; fra i programmi del settore militare (dopo aver ricordato quello storicamente più significativo ed emblematico, il progetto Manhattan per la realizzazione della bomba atomica), si possono ricordare quelli di sviluppo di missili intercontinentali o di ‘scudi spaziali’.
Anche in questo caso si manifestano sistematicamente fenomeni di divergenza fra cause (intenzioni) ed effetti (risultati). Questo meccanismo (designato con la locuzione eterogenesi dei fini) è particolarmente maligno, poiché gli effetti indesiderati sono tanto più perversi quanto più le intenzioni erano buone. Ciò è dovuto al fatto che quando il decisore si sente investito di una missione ‘superiore’ tende ad abbandonare il criterio della cautela, che è l’unica contromisura seria all’impossibilità di prevedere gli esiti.
I consumi energetici mondiali si aggirano attualmente intorno a 10 Gtep (10 miliardi di tonnellate equivalenti di petrolio) all’anno. Il loro tasso di crescita (dell’ordine del 2% annuo tra il 1980 e il 2005) è probabilmente destinato ad aumentare con l’ingresso nel novero dei Paesi industrializzati di Cina e India, dove vive più di un terzo della popolazione mondiale. I consumi sono oggi coperti soprattutto da fonti energetiche fossili fluide (petrolio e gas naturale) e, in minor misura, da carbone. Le riserve accertate di combustibili fossili fluidi ammontano a poche centinaia di Gtep, e quindi sono destinate a esaurirsi in alcuni decenni. Più consistenti, per un fattore 5÷10, sono le risorse di carbone, il cui impiego comporta però notevoli difficoltà in relazione all’impatto ambientale. Tutte le fonti energetiche fossili (solide, liquide o gassose) soffrono comunque di una comune e deleteria controindicazione ambientale: la loro combustione causa l’ineliminabile immissione nell’atmosfera di anidride carbonica (CO2), il principale fra i gas serra. Il tasso di CO2 in atmosfera si è accresciuto, nel corso del 20° sec., di oltre il 20%; ciò è destinato a produrre alla scala planetaria sconvolgimenti climatici catastrofici di cui già avvertiamo i primi segnali di allarme.
Questo quadro complessivo impone all’umanità tutta di impostare da subito una politica energetica alternativa, basata su una drastica riduzione del contenuto energetico dei vari processi (non ha senso, per es., che una persona che pesa 70 kg, per muoversi in città a una velocità di 20 km/h, usi un’automobile che pesa 1000 kg ed è mossa da un motore da 100 KW, quando ricorrendo a opportune tecnologie basterebbe un veicolo pesante 50 kg mosso da un motore da 0,5 KW) e sulla ricerca di fonti energetiche alternative e, per quanto possibile, inesauribili.
Le fonti non fossili in grado di far fronte a una frazione significativa dei fabbisogni attuali e futuri (tralasciando quindi quelle che producono quantità limitate di energia, come la geotermica, la solare indiretta, la eolica e l’idrica) sono soltanto tre: la radiazione solare diretta, la fissione nucleare e la fusione nucleare.
L’energia solare che investe complessivamente la Terra sarebbe, in termini strettamente quantitativi, largamente sufficiente a soddisfare tutte le esigenze energetiche presenti e future. Tuttavia essa soffre di due gravi difetti: ha una disponibilità intermittente e aleatoria; inoltre, è notevolmente diluita (quando il Sole è allo zenith e il cielo è sereno, ha una densità di circa 1 KW per m2 esposto). Di conseguenza, per soddisfare la ‘dieta energetica’ dell’europeo medio, occorrerebbe esporre al Sole circa 200 m2 pro capite di pannelli solari, il che attualmente confina questa fonte a un ruolo puramente integrativo.
Un approccio complementare è quello di usare l’energia solare approfittando della funzione clorofilliana svolta dalle piante, trasformando poi il materiale così ottenuto (biomasse) in combustibili utili, liquidi o gassosi. Questo percorso, che merita grande attenzione, va però in contrasto con l’uso alimentare dei prodotti agricoli e rischia di penalizzare ulteriormente le aree più povere del mondo che ancora soffrono la fame.
I grandi programmi strategici sovranazionali di ricerca e innovazione focalizzano così la loro attenzione sui reattori nucleari, siano essi a fissione o a fusione. Tutti i reattori finora realizzati e funzionanti nel mondo sono reattori a fissione che utilizzano come combustibile l’isotopo 235U, presente in bassissima percentuale (meno dell’1%) nell’uranio naturale 239U. Secondo il data-base dell’IAEA (International Atomic Energy Agency), nell’aprile 2010 i reattori in attività nel mondo erano 438, con una tendenza alla diminuzione (http://www.iaea.org/programmes/a2/, 9 giugno 2010). Affinché questa fonte riceva nuovo impulso è necessario che la ricerca sovranazionale dia soluzione ai suoi ancora rilevanti problemi di sicurezza, che riguardano sia il ciclo del combustibile (estrazione e arricchimento dell’uranio, smaltimento delle scorie) sia il ciclo operativo dei reattori e il loro smantellamento. Inoltre è necessario accrescere fortemente l’efficienza di utilizzazione dell’uranio naturale, cosa che può essere ottenuta ricorrendo a reattori veloci autofertilizzanti (che trasformano in combustibile utile anche l’elemento 239U), attualmente in fase di sviluppo e sperimentazione.
Tuttavia quella che viene considerata la soluzione strategicamente definitiva è data dalla fusione nucleare controllata, la cui fattibilità – oggetto di studio attraverso imponenti programmi di ricerca internazionali, cui anche il nostro Paese partecipa attivamente – non è stata ancora dimostrata. La fusione nucleare è alla base del processo che alimenta la radiazione emessa dal Sole: questa deriva dalla trasformazione in energia dell’eccesso di massa che si ha nella combinazione (fusione) di nuclei degli atomi leggeri (in particolare gli isotopi dell’idrogeno, deuterio e trizio). In questo caso il combustibile è abbondante in natura (tanto che questa fonte viene considerata praticamente inesauribile) e gli aspetti ambientali e di sicurezza sono controllabili con relativa facilità. La politica energetica basata sullo sfruttamento della fusione nucleare è una sfida molto difficile, considerato che per portare la reazione in condizione d’ignizione e poi di autosostentamento è necessario che il combustibile (costituito da plasma, cioè da una miscela di atomi ionizzati di deuterio e di trizio) si trovi in condizioni di pressione e temperatura analoghe a quelle presenti all’interno del Sole (rispettivamente, valori di alcuni MPa e dell’ordine di 108 K).
Le vie percorse per cercare di raggiungere queste condizioni sono sostanzialmente due: quella del confinamento magnetico, che consiste nel contenere il plasma (la cui altissima temperatura rende impossibile l’uso di un contenitore materiale) entro una complessa struttura immateriale realizzata con magneti superconduttori; quella del confinamento inerziale, che consiste nel preparare capsule metalliche riempite con combustibile (deuterio e trizio) ad alta pressione e nel fare implodere tali capsule investendole con un intensissimo flusso di energia (prodotto, per es., con laser di potenza). È azzardato ipotizzare che impianti per la produzione di energia basati sulla fusione nucleare possano essere messi in esercizio prima del 2050.
Un settore applicativo in rapidissimo sviluppo è quello della nanotecnologia, che si occupa di sviluppare materiali le cui caratteristiche sono progettate e realizzate alla scala nanometrica (pari a un milionesimo di millimetro). Le applicazioni di questa tecnologia si hanno nei campi più disparati: dai circuiti integrati per microelettronica, alla computazione quantistica, a dispositivi ottici ‘intelligenti’ e così via.
Benché si tratti di dispositivi macroscopici, la loro progettazione e la loro descrizione richiedono la revisione quantistica di concetti fondamentali relativi a grandezze le cui caratteristiche si ritenevano da tempo note. È questo, per es., il caso della temperatura e del suo ruolo nei fenomeni di trasporto di calore nelle strutture nanometriche. Così come il trasporto di energia elettromagnetica (in particolare, luminosa) è quanisticamente descritto introducendo i quanti di luce o fotoni (che possiamo immaginare come ‘treni d’onda’ del campo elettromagnetico), analogamente il trasporto di calore può essere descritto introducendo i fononi, cioè treni d’onda delle oscillazioni meccaniche degli atomi della struttura solida. I fononi si muovono da una zona a un’altra del materiale per effetto delle differen;e di temperatura, quest’ultima a sua volta definita, in un materiale omogeneo, in relazione all’energia media di oscillazione degli atomi della struttura.
Il trasporto di calore è così descritto in termini facilmente comprensibili: il moto dei fononi trasporta energia dalle zone del materiale in cui l’energia di agitazione termica è maggiore verso quella in cui essa è minore. Questo modello funziona in maniera efficace e semplice fino a che il materiale e le sue caratteristiche strutturali e termiche risultano omogenei. Quando però il materiale presenta, a causa di discontinuità nella sua struttura mi;crocristallina, disomogeneità a una scala confrontabile con il cammino libero medio dei fononi oppure addirittura con la loro lunghezza d’onda, il modello richiede una sua revisione critica. A questa scala, che è quella caratteristica delle nanotecnologie, la ricerca applicativa procede di pari passo con lo sviluppo della teoria.
Con il termine cultura s’intende il patrimonio di conoscenze e di valori comuni e condivisi posseduto da una comunità umana. Una volta soddisfatti i bisogni primari (fame, sete, salute ecc.), l’ammontare del patrimonio culturale è il parametro che più determina (insieme alla qualità dell’ambiente, fisico e sociale, e più ancora della ricchezza posseduta e prodotta) la qualità della vita della comunità, purché l’accesso a tale patrimonio sia davvero generalizzato, e non ristretto a una privilegiata minoranza. Nel corso del 20° sec., il patrimonio culturale dell’umanità – e in particolare del mondo occidentale – si è grandemente arricchito e ha subito un’evoluzione profonda. Tale evoluzione, trainata soprattutto dalla ricerca scientifica, ha da parte sua stimolato e sostenuto una vera e propria rivoluzione dell’intera civiltà umana. Il sapere scientifico, e l’innovazione tecnologica che ne è figlia, sono diventati, nei fatti, elementi condizionanti la competitività sul mercato globale, e dunque anche lo sviluppo economico e produttivo.
Nella consapevolezza di ciò, un Paese avanzato e progredito dedica risorse materiali e immateriali (tanto più ingenti quanto più è progredito) a conservare, a trasmettere di generazione in generazione, a incrementare e arricchire vieppiù il proprio patrimonio culturale, impiegando a tal fine un complesso sistema costituito da una varietà di operatori, pubblici e privati: scuola, musei e archivi, università, enti di ricerca, conservatori e accademie, mondo dell’editoria e altri imprenditori della cultura e così via. Ciascuno di questi operatori si specializza in una o più delle funzioni in cui si articola il processo culturale: conservazione del patrimonio (musei, archivi, biblioteche ecc.); incremento del patrimonio (enti di ricerca, università, accademie e istituti ecc.); trasmissione della cultura alle nuove generazioni (scuola, università ecc.); diffusione della cultura alla generalità dei cittadini (musei, science centers, biblioteche, mass media ecc.). Il fine di questo complesso sistema di operatori è di produrre sapere, in particolare – ma non soltanto – scientifico; di stimolarne e curarne la ricadute produttive, economiche e commerciali; di diffondere capillarmente nella società i semi dei nuovi saperi; di costruire quella che va sotto il nome di società della conoscenza. Che questo processo funzioni anche in Italia, è condizione ineludibile perché il nostro Paese sia competitivo.
Nella visione rassicurante e illuministica propria della scienza classica, gli scienziati si trovavano in una situazione di particolare privilegio e tranquillità: dal punto di vista conoscitivo, veniva a costituirsi un sistema completamente autoreferenziale, contenente al proprio interno le conoscenze e gli strumenti per poter dirimere mediante criteri oggettivi i propri dubbi; dal punto di vista morale, parimenti non sussisteva alcun dubbio, poiché quello che veniva perseguito e raggiunto era un sapere intersoggettivo, per definizione giudicato con benevolenza.
L’etica della scienza – o meglio dello scienziato – si riduceva in questo schema a una mera questione di credibilità, cioè in sostanza di comportamento coerente con il metodo scientifico.
Questa visione si dissolse già a partire dalla seconda metà del 20° sec., via via che la scienza si rendeva conto dell’incapacità di prevedere gli effetti delle proprie azioni. Ciò tanto più considerando che, su un terreno più pratico e politico, andava contemporaneamente sviluppandosi una connessione sempre più evidente fra lo sviluppo del sapere scientifico e lo sviluppo economico e produttivo, con conseguenze in generale decisamente positive anche sulla qualità della vita della società umana. E se questo da un lato pareva dare conferma nei fatti all’assunto che la conquista del sapere scientifico può essere identificata con il progresso e con la crescita del benessere per l’intera specie umana, dall’altro stimolava i governi e le industrie a investimenti crescenti nella ricerca; ciò poneva spesso, nei fatti, i vari settori scientifici in competizione fra loro.
In più, all’approssimarsi della metà del Novecento, la scienza si è cimentata su un terreno per lei nuovo nell’era moderna (anche se tutt’altro che nuovo in assoluto), quello delle applicazioni militari; esperienza che si è conclusa, sia per la scienza sia per gli scienziati, con un successo travolgente.
Un senso d’inquietudine si è diffuso sempre più ampiamente nei decenni successivi, quelli della guerra fredda e della deterrenza nucleare, quando un mondo diviso in due ha sviluppato via via un potenziale di distruzione capace di cancellare dal pianeta l’intera specie umana, e una filosofia d’impiego di quel potenziale tale da far temere come imminente e concreto il pericolo di un suicidio globale del genere umano; ed è risultato nel contempo chiaro che questi sviluppi distorti erano in sostanza contenuti, in nuce, nella decisione di dare avvio al progetto Manhattan.
In questo quadro, anche le questioni etiche si fanno più complesse, poiché se la scienza e i suoi sacerdoti possono influire in maniera così pesante, con le proprie scelte, sullo sviluppo della civiltà e sui destini dell’umanità intera, è naturale che essi debbano sentirsi investiti di una responsabilità etica, e politica, del tutto particolare. Benché la comunità scientifica, nel suo insieme, sia stata invero toccata soltanto marginalmente da simili scrupoli, è tuttavia abbastanza diffusa la consapevolezza che, di fronte a esperimenti scientifici che potrebbero indurre sviluppi di civiltà eccezionali e distorti, la scienza e gli scienziati dovrebbero adottare particolari cautele, e darsi precise regole. In questi ultimi due decenni, in cui il pericolo di un olocausto nucleare a scala planetaria pare scongiurato, dubbi, cautele e dibattiti si sono spostati in altre direzioni, per es. verso i pericoli connessi con gli sviluppi degli esperimenti che comportano la manipolazione genetica degli esseri viventi, e in particolare dell’uomo. Un imperativo etico per la scienza è quello dell’adozione sistematica e rigorosa del criterio di cautela.
Nell’era della globalizzazione, l’uso corretto della scienza richiede impegni etici che vanno ben oltre le cautele relative agli sviluppi eccezionali e distorti di particolari filoni di indagine, per estendersi invece alla gestione ordinaria della scienza nel suo complesso e del sapere da essa prodotto.
Come detto, il sapere scientifico rappresenta oggi un fondamentale motore dello sviluppo economico e produttivo. Questo bene prezioso, prodotto dal sistema della ricerca (laboratori pubblici e privati, università, enti di ricerca), viene presentato in forma criptica e sintetica, basata su un linguaggio denso di termini convenzionali e di simboli e formule matematiche; un linguaggio adatto alla comunicazione rapida e precisa fra specialisti, ma incomprensibile per i non addetti (e molto spesso anche per gli scienziati non appartenenti alla specifica nicchia specialistica cui si riferisce il lavoro scientifico in oggetto).
La scienza, tuttavia, oltre a essere espressa nei linguaggi ermetici adatti agli scambi fra specialisti, può anche essere comunicata in forma semplice e rigorosa, in modo da venire compresa da tutti: è questo un primo dovere verso cui gli scienziati dovrebbero sentirsi impegnati. Se è vero, dopotutto, che la maggior parte della ricerca viene svolta all’interno di strutture pubbliche, ed è dunque finanziata dai cittadini, questi avrebbero tutto il diritto di pretendere di poter capire e valutare l’oggetto e la motivazione degli studi e i risultati conseguiti.
Ma c’è di più. Si è affermato che la forza della scienza non è rappresentata tanto dai suoi risultati quanto dal metodo impiegato. Se allora vogliamo che essa venga messa al servizio della qualità della vita della collettività, è necessario che il ‘saper fare’ della scienza diventi patrimonio comune, dai bambini nelle scuole ai cittadini nella loro generalità, in un processo di apprendimento esteso a tutta le fasi della vita: è questo il secondo dovere morale verso cui la scienza – con i suoi uomini, le sue strutture, i suoi soggetti istituzionali – deve sentirsi impegnata.
Il metodo scientifico non si apprende a tavolino; occorre sperimentarlo nel vivo, applicarlo, magari in casi semplici, ma concreti; occorre, in altre parole, entrare in laboratorio. Tenendo a mente questo presupposto, la diffusione della scienza risulta un obiettivo che non può essere raggiunto senza sforzo, facendo cadere sotto il tavolo poche briciole del banchetto; occorre dedicare a essa risorse e strutture, risorse economiche, di lavoro e di pensiero, forse le risorse migliori. A fronte di un impegno serio su questo terreno, i risultati saranno sorprendenti. La produzione di sapere scientifico – che, come sappiamo, è ancora sapere intersoggettivo – richiede non soltanto il confronto interattivo, sul campo, tra soggetto e oggetto del processo conoscitivo, ma anche un approccio collaborativo fra soggetti, un’interazione positiva e costruttiva fra sperimentatori diversi. Ecco allora che la scuola di metodo, il laboratorio in cui esso si apprende, diviene anche momento di costruzione dello spirito di collaborazione, luogo di sperimentazione e acquisizione della gioia e dell’efficacia di lavorare insieme, per un comune obiettivo. La scuola del metodo scientifico è allora utile anche alla scienza che, altrimenti, vivendo in un isolamento, va invece parcellizzandosi in nicchie non comunicanti tra loro, e sull’altare della competizione sacrifica la collaborazione e sterilizza la sua stessa forza. Inoltre, se si vuole che la scienza e i prodotti del suo progredire siano messi a disposizione della qualità della vita della comunità umana, e che la scienza cessi di essere – come oggi di fatto è, al di là delle intenzioni e della consapevolezza – strumento di discriminazione e amplificatore delle disuguaglianze, per divenire garante della pari opportunità fra esseri umani, è anche necessario che le scelte di civiltà vengano compiute nella massima consapevolezza, con la più ampia partecipazione; poiché la scienza si configura sempre più come avanguardia della civiltà (nel senso che sui sentieri da essa aperti nella foresta inesplorata viene poi seguita dall’umanità tutta), è necessario che la partecipazione sociale alle scelte di politica scientifica sia la più ampia e consapevole possibile.
I luoghi di incontro fra scienza e società (dove i risultati ottenuti trovano un’espressione accessibile a tutti, e in cui si apprende e si diffonde il metodo) non possono essere luoghi in cui l’informazione fluisce in un solo verso, in cui la scienza parla e insegna e il pubblico ascolta e apprende. Devono essere territorio di condivisione, in cui si parla e si ascolta, e in cui la scienza, facendo un bagno di umiltà, si sottopone ad autocritica e si lascia criticare, perché sono passati i tempi in cui era lecito sperare che il progresso della scienza fosse per sua stessa natura equanime e imparziale, un bene che automaticamente si distribuiva su tutti gli uomini, diffondendo benessere in misura proporzionata alla velocità del suo progredire.
In tale contesto, ben vengano tutte le iniziative in cui la scienza è oggetto di confronto e di dialogo. Per il raggiungimento di tale fine probabilmente non esiste una strategia unica: si può iniziare dalle attività svolte dai musei di storia della scienza o da incontri organizzati dai mass media, dove non soltanto i risultati, ma anche l’approccio sperimentale seguito, sulla base di semplici e meno semplici modelli, siano discussi e criticati attraverso il confronto con altri possibili metodi di ragionamento. Occorre passare dalla divulgazione tuttora in forma primitiva e quasi contemplativa di alcuni aspetti del mondo naturale, in particolare di quello animale e biologico, a una maggiore prossimità con i processi critico-conoscitivi tipici della comprensione dei fenomeni di base, con un linguaggio e nelle forme che stimolino la curiosità intellettuale delle nuove generazioni.
J.M. Ziman, Real science. What it is, and what it means, Cambridge-New York 2000 (trad. it. La vera scienza. Natura e modelli operativi della prassi scientifica, Roma-Bari 2002).
A. Cerroni, Scienza e società della conoscenza, Torino 2006.
L. Gallino, Tecnologia e democrazia. Conoscenze tecniche e scientifiche come beni pubblici, Torino 2007.
M. Hack, L’Universo nel terzo millennio, Milano 2007, nuova ed.
«OECD science, technology and industry outlook 2008», 2008.