Fisica
Tutto dovrebbe essere reso
il più semplice possibile,
ma non più semplice
(Albert Einstein)
La fisica e i fisici
di Adriano Alippi
19 gennaio
Al Museo storico di Berlino il cancelliere Gerhard Schröder dà inizio alle celebrazioni per il cinquantesimo anniversario della morte di Albert Einstein. Nel 1905 lo scienziato pubblicò lavori fondamentali sulla teoria della relatività ristretta, sull'effetto fotoelettrico e sul moto browniano. In occasione del centenario l'ONU ha proclamato il 2005 Anno internazionale della fisica.
La conoscenza del reale
C'è un livello di conoscenza fisica del mondo che ciascuno di noi inconsciamente possiede, che utilizza nel gesto quotidiano, che perfeziona nell'allenamento: una conoscenza intuita, radicata nella nostra esperienza, sedimentata nei nostri processi cerebrali. Così, infatti, volgiamo la testa verso una sorgente di suono a osservare chi lo produca, afferriamo al volo un oggetto che ci venga lanciato o soffiamo su una minestra troppo calda prima di assumerla. C'e una fisica della propagazione per onde nel primo processo, che coinvolge i fenomeni di diffrazione, di riflessione, anche di assorbimento o di adattamento di impedenza se fortuitamente ci trovassimo all'interno di un ambiente chiuso; c'è la meccanica del punto o dei sistemi nel secondo esempio, con la determinazione delle traiettorie dalle condizioni iniziali e la valutazione delle forze attive, del peso e delle resistenze vischiose; c'è la termodinamica degli scambi termici, nell'ultimo esempio, con la valutazione dei calori latenti, dei calori specifici e l'analisi della fluidodinamica del vapore.
Nessun fisico, tuttavia, e nemmeno il più attento o il più fanatico tra questi, eseguirà mai la serie dei gesti sopra descritti nella piena coscienza e conoscenza dei fenomeni coinvolti. La previsione del fenomeno è intuita; i dati del processo valutati soggettivamente e trattati, diremmo, automaticamente dal nostro organismo. Potremmo ricercare, con l'aiuto di esperimenti di cognitivismo, se il processo cerebrale segua percorsi che diremmo di tipo analogico, affidandosi a reti neurali stimolate in modo simile a reti preesistenti e costruite su esperienze precedenti, e meravigliarci magari che non si intraveda alcuna via di tipo digitale nei meccanismi di tali conoscenze, come oggi ci siamo abituati a pensare che debba seguire ogni procedimento di calcolo sottostante il funzionamento di un dispositivo. Pur sempre, tuttavia, di conoscenza del mondo fisico si tratta e anche di una conoscenza assai specifica, in taluni casi, e di assoluta precisione; basti pensare, per esempio, al gesto atletico della battuta di un tennista, che eleva il braccio a colpire la palla con calibrata potenza in una zona ben precisa della racchetta imprimendole al tempo stesso una rotazione tale da far curvare per effetto aerodinamico la traiettoria rispetto a quella puramente balistica e centrare l'area di battuta dopo aver superato la rete di quanto meno possibile.
Ce n'è per una concorrenza vincente su un computer di grande potenza, e il tutto in tempo reale! La conoscenza così acquisita del mondo fisico presuppone la legge, senza avere necessariamente coscienza dell'esistenza di questa; l'esperienza del reale costruisce un rapporto tra il soggetto e l'ambiente simile a quello attraverso cui si forma il linguaggio con cui dialoghiamo: il bambino lo apprende nel rapporto con i genitori e gli amici, senza conoscere né grammatica né sintassi.
Il passaggio alla conoscenza scientifica nasce quando il reale diviene oggetto del conoscere, quando si indagano le cause, il perché degli eventi e il rapporto tra osservatore e mondo osservato diviene cosciente. Questo passaggio non è né fu immediato, se pensiamo che soltanto quattro secoli fa all'incirca nella storia dell'umanità si afferma il metodo scientifico, quando dall'osservazione mirata del fenomeno si estrae e si astrae la legge, la struttura che vincola il fenomeno a un ripetersi perennemente eguale a sé stesso, se riproposto nelle medesime condizioni. La legge è però assai di più: descrive e predice l'evoluzione di fenomeni anche assai diversi tra loro, di essi ritrova i caratteri comuni, sintetizza le invarianze e le simmetrie che li accomunano. La legge fisica è archetipo del fenomeno stesso, l'èidos a cui gli eventi sembrano mutuarsi. Dice Bruno Ferretti che "il compito della scienza naturale è cercare di precisare e definire ... le invarianze, e soprattutto di determinarne criticamente le connessioni strutturali e i limiti di applicabilità a una corretta descrizione dell'esperienza", la prima invarianza essendo, secondo le parole di Poincaré, "il fatto che ciò che è obiettivo deve essere comune a diversi intelletti e deve potersi trasmettere dall'uno all'altro" (Ferretti in Enciclopedia del Novecento, Roma, IEI, 2, p. 1029). Rapportare ogni singolo fenomeno osservato alla regola di sintesi che lo determina è l'assunto della conoscenza scientifica e costituisce il Leitmotiv, talvolta ossessivo, del pensiero del fisico.
Nel gioco assurdo dei perché che sale di livello come nelle domande insistenti di un bambino e prima ancora di giungere alla soglia del 'metafisico' (nell'accezione traslata dell'oltre il fisico) resta sospeso l'interrogativo dalla cui risposta prende valore tutta la nostra conoscenza del mondo naturale: per ogni fenomeno c'è sempre una legge? e poi, accettando un'implicita risposta affermativa e varcando il confine: come mai, perché? La risposta affermativa - lo si intuisce - è un'accettazione di determinismo, che può trovare la nostra opposizione o che si può cercare di superare per altre vie, ma che costituisce la base fondante della conoscenza scientifica.
Punto chiave del processo scientifico diviene allora l'oggettivizzazione del fenomeno, che si sostanzia nell'individuazione delle grandezze fisiche: gli osservabili - come vorrà chiamarli la meccanica quantistica -, gli enti, cioè, passibili di misura, di essere rapportati a enti omogenei che fungono da campione, sono l'unico punto di contatto con cui ci possiamo confrontare con la realtà dei fenomeni naturali, sono di fatto la nostra rappresentazione di quella e, in questo limite, per noi essi sono quella.
Appare certamente singolare, oggi, pensare che questa impostazione abbia richiesto così lungo tempo a formarsi: struttura mentale intrinseca di chi faccia scienza o, per usare un termine più modesto, ricerca scientifica, essa è guida certa su cui costruire le conoscenze, costituisce la forza dei risultati conseguiti e del loro procedere e, al tempo stesso, segna il limite di questo procedere. Ne sutor supra crepidam: non vada il ciabattino al di là della suola, dovrà infatti ripetersi nel suo lavoro lo scienziato! La sicurezza del metodo scientifico e la certezza dei risultati conseguiti - o comunque la loro coerenza interna - sono un capitale prezioso della ricerca scientifica che si trasferisce ai suoi cultori. Talvolta li caratterizza e nel quotidiano li rende riconoscibili: per la precisione definitoria dei procedimenti, quanto alla parte positiva, ma anche, quanto ai limiti e per la parte negativa, per una pretesa omnicomprensiva di competenza. Nella storia l'insorgenza del metodo scientifico non fu indolore e il processo stesso di Galilei valga per tutti a testimoniare le difficoltà dell'accettazione reciproca degli ambiti di competenza.
Così, la realtà, divenuta numero attraverso l'osservazione e la misura, trova nella matematica il suo interprete. Non però autore, né interlocutore: la matematica è, nell'indagine naturale, strumento perfetto e insostituibile del dialogo con cui lo scienziato-interlocutore si rapporta con la natura-autore, l'autore restando nascosto all'interlocutore, che lo interroga senza confine. Questo il fisico e la fisica con lui: in perenne dialogo con il fenomeno naturale, in un'intervista a tutto campo, che indaga sul nuovo e reinterpreta il vecchio.
I campi, allora: un'assurda tautologia, che pure implicitamente indica il percorso definitorio da seguire, direbbe che la fisica si occupa dei fenomeni fisici, ciò con cui si intende dire che il campo d'indagine nasce prima del suo contenitore. Non è più soltanto la specificità del metodo di indagine, fatta ormai propria da tutte le scienze naturali, a definire e caratterizzare la fisica, ma il suo oggetto di studio. Un elenco, tuttavia, non sarebbe esaustivo e, se pure lo volesse essere, dovrebbe replicare tutte le conoscenze della fisica oggi e sarebbe comunque passibile di critica. I confini si allargano nel tempo, mutano, si intersecano con quelli di altre discipline, svaniscono infine in un senso di globalità che si sutura con l'approccio olistico del conoscere non scientifico da cui abbiamo preso le mosse. Uomo e natura, uomo nella natura: soggetto e oggetto distinti in un rapporto di conoscenza e pure fusi nell'unicità del reale.
La meccanica quantistica, esasperando il concetto di misura, identificherà i limiti del rapporto tra osservatore e osservato, non potendosi presumere l'esistenza dell'osservato senza l'osservazione.
Il percorso storico della fisica classica
Provando a definire i campi di studio della fisica, quindi, torniamo a ripensare all'evoluzione storica del rapporto fra il soggetto e l'oggetto. Da questa sintetica rivisitazione storica può meglio apparire il salto conoscitivo del Novecento e con esso il senso di completezza, quasi di conclusione, che sembra talvolta trasparire dalle dichiarazioni di fisici illustri.
Salviati e Simplicio espongono a Sagredo nel Dialogo sopra i due massimi sistemi del mondo di Galilei del 1632 le teorie eliocentrica e geocentrica dei corpi del Sistema solare, facendo appello l'uno alle osservazioni dei corpi celesti stessi, l'altro all'autorità degli scritti aristotelici. Si sa da che parte si pone Galilei: la forza del vero discende dall'osservazione diretta del fenomeno ed è quest'ultimo che va misurato e interpretato, non già le scritture antiche. Risiede qui la forza innovativa del metodo scientifico. Galileo sa bene che, se Aristotele potesse rivivere, sceglierebbe senz'altro lui come suo discepolo e non tutti coloro che si definiscono tali: quegli "ingegni vulgari timidi e servili, che altrettanto confidano, sopra l'autorità di un altro, quando vilmente diffidan del proprio discorso, pensando potersi di quella fare scudo, né più oltre credon che si estenda l'obbligo loro, che a interpretare, essendo uomini, i detti di un altr'uomo, rivolgendo notte e giorno gli occhi intorno ad un mondo dipinto sopra certe carte, senza mai sollevargli a quello vero e reale, che, fabbricato dalle proprie mani di Dio, ci sta, per nostro insegnamento, sempre aperto innanzi".
È singolare, anche se tuttavia assai logico, che il primo laboratorio scientifico sia stato il cielo, piuttosto che la Terra: la meccanica dei corpi celesti è stata paradossalmente di più facile osservazione e misurazione di quella degli oggetti che si muovono sulla superficie terrestre. Il principio d'inerzia, l'invarianza della quantità di moto di un corpo non sottoposto a forze o della velocità stessa per un oggetto che non cambi di massa, così assoluto e necessario per la costruzione della meccanica, non si manifesta con piena evidenza nell'esperienza comune, nascosto com'è dagli effetti spuri dovuti alle forze di attrito e a quelle vischiose. Sul percorso logico di deduzione del principio d'inerzia con l'esperimento di un grave lanciato su un piano orizzontale via via reso meno scabro, viene fatto da Galileo un ulteriore passo storico per ciò che riguarda la formulazione del pensiero scientifico: la costruzione del modello, con l'estrapolazione degli effetti connessi. Il punto materiale libero, modello del corpo che si muove non sottoposto a forze esterne, simula l'oggetto in moto su un piano liscio, dove gli effetti resistivi del vincolo sono ridotti a zero insieme a quelli attivi della componente verticale del peso. Un Gedankenexperiment, o ipotesi di esperimento fisicamente fattibile pur se materialmente irrealizzabile, ante litteram, si potrebbe dire, stabilisce un rapporto di continuità la fisica classica e quella quantistica: un'ipotesi di esperimento, sempre tuttavia eseguibile, che segna la strada attraverso la quale si può arrivare alla deduzione della legge. Altri modelli seguiranno, anche noti al pubblico più vasto: il corpo rigido o il gas perfetto sono nozioni elementari che ricordano come la conoscenza scientifica si riconosca in schemi, che simulano la realtà riducendo al più semplice i fenomeni del più complesso.
Dopo la meccanica, la fisica classica si estende, per grandi aree, alla termodinamica e all'elettromagnetismo, ancora legati, come non sarà più nel seguito, alla fenomenologia dei sensi umani. Nella termodinamica è un concetto statistico, quello di valore medio rapportato a un grandissimo numero di sistemi elementari, atomi o molecole, che viene posto al centro dell'osservazione: il concetto di temperatura nasce da quello dell'energia media posseduta dai costituenti di un macrosistema e la nozione dell'equilibrio termico ricco anch'esso di contenuti statistici apre al tema dell'irreversibilità dei fenomeni naturali, al verso del fluire del tempo e alla così detta freccia temporale. Ancora una volta si scorge in filigrana l'apporto futuro della meccanica quantistica, con il senso dell'irreversibilità nascente dal principio di indeterminazione. L'elettromagnetismo, infine, sembra svincolarsi dall'osservazione del fenomeno mediata dai sensi dell'osservatore; nella sintesi finale dell'elettromagnetismo celebrata dalle equazioni di Maxwell ci sono soltanto le tracce iniziali del percorso da cui esso trae le mosse: le forze tra corpi strofinati reciprocamente, l'azione tra magneti naturali e materiali ferrosi. L'osservazione del fenomeno, rielaborata dal pensiero astratto, propone osservabili nuovi che l'esperimento verifica e affina in teorie successive. Un'ultima traccia di collegamento con la realtà individuata dai sensi resta tuttavia ancora in quella banda limitata dello spettro delle onde elettromagnetiche cui la retina umana è sensibile. L'ottica e la luce con essa, cui tanta parte della nostra vita quotidiana si affida e cui l'immagine antropologica dell'esistenza stessa sembra legarsi, non occupa di fatto che una limitata regione dello spettro elettromagnetico.
Naturalmente, molte altre conoscenze, oltre a quelle dei campi sopra citati, si sono aggiunte alla fisica, quale essa si presenta ai primi anni dello scorso secolo, in quel 1905, il cui centenario oggi celebriamo, riassunto nei lavori di Einstein di quell'anno. Si indaga sui raggi canale, prime immagini di una materia esplorata nei suoi costituenti, oltre e a fianco dell'indagine chimica sulle combinazioni di atomi e molecole; i cristalli disvelano le loro strutture più intime attraverso figure diffrattometriche e le prime tracce della radioattività naturale restano impresse sulle lastre dei coniugi Curie.
L'indagine fisica induce progressi tecnologici e questi forzano il procedere della scienza: processo costante nella storia della conoscenza scientifica, l'avanzamento paritetico di scienza e tecnologia è sinergico per entrambe, come si rileva ancor più oggi quando un evidente salto qualitativo della seconda ha reso simulabile attraverso il calcolo veloce l'esperimento stesso, proprio della prima.
1905-2005
Forse è un po' estremo dirlo, ma fino a quell'anno 1905 in qualche modo la conoscenza fisica del mondo aveva camminato sui percorsi segnati inizialmente da quel conoscere per esperienza diretta da cui siamo partiti all'inizio: la stessa sintesi finale dell'elettromagnetismo giustifica l'immediatezza del vedere, quell'apparente istantaneità tra emissione e ricezione dell'evento luminoso che trova nel valore estremo della velocità di propagazione della luce la sua giustificazione, legato alle costanti che vincolano le grandezze di campo nelle equazioni. Poi, quasi i confini di quel conoscere per intuizione o per esperienza, che è pur giunto fino alla postulazione dell'esistenza dei campi, superando il concetto di azione a distanza accettato da Newton.
La relatività, prima speciale e poi generale, e la meccanica quantistica targano il secolo che si apre con due impensabili ipotesi sulla struttura della realtà: un mondo in cui, da un lato, il concetto così immediato e intuitivamente assoluto di contemporaneità tra eventi distinti diviene relativo (e con esso la durata di un processo e la dimensione di un oggetto) e, dall'altro, quello in cui la contemporanea conoscenza dei valori di alcune coppie di grandezze fisiche non è concettualmente possibile. Non c'è riscontro di ciò nel nostro quotidiano osservabile; la scala dei valori su cui queste due fenomenologie divengono rilevanti - per altissime velocità dei corpi in moto e per piccolissime dimensioni degli oggetti coinvolti - è fuori dall'esperienza comune e l'evoluzione non ha elaborato sensi e procedure che abbiano reso intuitivi i processi coinvolti. C'è qui una rivalutazione dello scienziato e del suo lavoro, che va oltre il risultato di un'osservazione, l'affinamento di una misura o l'introduzione di una tecnologia.
C'è una frontiera superata e c'è un campo nuovo aperto alla conquista dell'intelletto. Il cammino percorso sul modello semplificante e, in certo senso riduttivo, della realtà, l'isolamento di un processo nel divenire più complesso dei fenomeni, il linguaggio astratto della matematica prevalgono in qualità sulla conoscenza intuitiva e totalizzata del fenomeno e propongono scenari innovativi.
Forte delle nuove idee, la fisica del Novecento dilaga sui diversi campi della fenomenologia e si spinge all'osservazione del sempre più piccolo, supportata da una tecnologia che essa stessa contribuisce a creare.
Particelle atomiche e strutture molecolari, poi campi e interazioni, quindi il nucleo e il suo interno, i solidi e i materiali in genere, le nuove forze e i mediatori delle forze, la cosmologia e l'origine dell'Universo, l'unificazione delle forze elementari: un'esplosione di conoscenze e uno specializzarsi di competenze che sembrano saturare il campo stesso dello scibile.
Ma nella sostanza permangono le domande di fondo sulla comprensione della realtà, cioè sulla teorica capacità di predire con arbitraria precisione l'evoluzione futura sulla base della conoscenza dello stato attuale del mondo. Il principio di indeterminazione ha spostato su una funzione, piuttosto che sulle singole variabili, il determinismo del reale e si può dire che la teoria quantistica insieme alle equazioni di Maxwell governino gran parte del nostro mondo, da cui restano fuori tuttavia due importanti aree: le forze nucleari e la gravità. Delle forze nucleari, quelle deboli sono state unificate con quelle elettromagnetiche da Glashow, Salam e Weinberg nella così detta teoria elettrodebole. Insieme a quelle forti, descritte da una teoria separata, la così detta cromodinamica quantistica, esse costituiscono il modello standard della fisica, che riesce a descrivere ogni fenomeno, eccetto la gravità. Quest'ultima, descritta dalle equazioni di Einstein, coinvolge forze assai deboli che prendono evidenza su scale enormi, dove non c'è bisogno di introdurre la quantizzazione.
Ma nei primi istanti di vita dell'Universo ciò non fu vero e una teoria omnicomprensiva deve includere la teoria dei quanti in quella della gravitazione. Questo è stato l'obiettivo principe della fisica dell'ultimo quarto di secolo, obiettivo certo non facile se si pensa che, mentre tutte le grandezze e i campi vengono descritti in funzione delle variabili spazio e tempo, la gravità è essa stessa spazio e tempo.
Quale fisica oggi?
Nuove teorie sono sorte variamente ricche di successo; ma a noi basta fermarci qui per avere il senso della fisica oggi a partire da quella che è stata, ed è un senso di completezza - come si è detto in precedenza - quello che avverte il fisico o meglio di identificazione dei confini, al quale si accompagna piuttosto una spinta a essere ancora protagonista, a spostarsi altrove nella consapevolezza di potere trovare in altri campi l'avventura già vissuta. Il fisico si porta dietro il suo metodo d'indagine: una rigorosa forza di analisi dei dati osservativi, la strenua ricerca dei principi primi, delle invarianze nei fenomeni naturali, delle grandezze che si conservano. Così, nell'attesa dell'esperimento finale e del genio che unifichi insieme tutte le forze elementari, l'interesse dei fisici si è spostato nel tempo recente sui sistemi complessi: non più, cioè, il singolo sistema fisico isolato dal contesto e sottoposto alle sole interazioni previste dal modello elementare di turno, quanto piuttosto tanti sistemi in mutua interazione. Una nuova termodinamica, si potrebbe pensare, dove però l'interazione tra le unità componenti del sistema è assai più complessa: i singoli elementi sono gli individui di un gruppo o le società quotate in borsa o persino i neuroni dell'encefalo umano. Occorre tenere in conto che l'interazione tra i singoli elementi non sia più lineare, con una dipendenza cioè non più diretta e costante tra la causa agente di uno e la risposta dell'altro. La non linearità nei sistemi complessi ha aperto la strada alla scoperta di fenomeni inusuali, come quelli delle instabilità e delle catastrofi. Cioè, lungo il percorso evolutivo di un sistema complesso ci sono istanti nei quali il sistema può prendere l'una o l'altra di due strade possibili in dipendenza di una minima, non misurabile, differenza nei valori di una grandezza iniziale. Si pensi, per comprendere facilmente il processo, alla caduta di una pallina sulla verticale di una lama di coltello: una piccolissima differenza nella posizione iniziale discrimina la caduta della pallina dall'una o dall'altra parte della lama. Non differentemente, la perturbazione infinitesima prodotta dal moto delle branchie di un pesce nell'Oceano Pacifico può avere prodotto il maremoto nell'Indonesia nel dicembre 2004. È prevedibile, ci si chiederà, l'evoluzione dell'indice di borsa di Wall Street o il clima del pianeta o l'umore di un nostro amico? Diremo che sono fenomeni determinati, ma non prevedibili, non essendo mai sufficiente la precisione con cui si potranno conoscere i dati di partenza da cui ottenere quelli finali. Può sembrare non più fisica questa, e forse non lo è, se dovessimo seguire una definizione un po'astratta dell'oggetto di studio, quale di proposito non si è voluta dare in precedenza. La continuità del campo di studio, piuttosto, è assicurata dai cultori della disciplina, i fisici, ai quali paradossalmente sembra necessario riferirsi per definire quella. Si è formato un senso di appartenenza reciproco tra gli uni e l'altra, che nasce dalla netta definizione del percorso storico insieme compiuto e che oggi permette aperture verso nuovi campi, mantenendo la specificità dell'approccio. Si è accennato poco sopra alla simulazione dell'esperimento: la possibilità del calcolo numerico massiccio e veloce, supportato da calcolatori di sempre crescenti potenzialità, ha offerto all'indagine dei fenomeni un nuovo strumento di studio. Accanto all'esperimento e alla speculazione teorica sui risultati di questo, un ponte si è creato che simula l'esperimento senza dover tenere in conto i limiti di errore e di funzionalità propri dello strumento. Così facendo, il fenomeno in istudio non è più necessariamente soltanto quello tipicamente 'naturale' della fisica di un tempo: è una struttura complessa qualsivoglia che evolve con una legge identificata o da identificare, alla quale si adatta un modello di sistema le cui equazioni di trasformazione saranno risolte per via numerica. La simulazione propone risultati che altri verificheranno. Anche qui allora si pone il quesito se questa sia ancora fisica. E ancora si potrebbe ripetere che non lo è secondo una definizione che di proposito non si è voluta dare, ma si può ancora dire che è l'approccio metodologico nel più lato senso, se non addirittura il cultore della disciplina, che implicitamente la definiscono.
repertorio
Cenni di storia
La fisica dalle origini al Seicento
Nell'ambito della storia del pensiero occidentale, una delle prime organiche sistemazioni teoriche dei principi della fisica fu quella di Aristotele, che distingueva la fisica o filosofia seconda - come teoria del movimento - dalla matematica e dalla filosofia prima o teologia. Oggetto proprio della fisica era quindi ogni forma di mutamento, di cui quattro erano considerate le specie fondamentali: mutamento sostanziale, qualitativo, quantitativo, locale. La cultura greca conobbe anche altre interpretazioni del mondo fisico: quella democriteo-epicurea, che proponeva una concezione atomistica della materia e avviava una fisica di carattere quantitativo, almeno nel senso di considerare le qualità come effetti - in rapporto agli organi di senso - di caratteristiche quantitative dei corpuscoli o atomi costituenti i corpi, e introduceva il concetto di vuoto, ponendo i fondamenti di una fisica meccanicistica; e quella platonico-stoica, essenzialmente animistica, con forte connotazione religiosa.
La cultura medievale per molti secoli non ebbe una vera fisica, come organico sistema della natura, la sua concezione restando legata piuttosto a interpretazioni simbolico-allegoriche dei fenomeni naturali, raramente e disorganicamente influenzata da motivi della primitiva cosmologia biblica o patristica, o neoplatonica. Di una fisica medievale si hanno prime formulazioni con l'apporto delle versioni di opere scientifiche greche e arabe tra il 12° e il 13° secolo; dalla metà del Duecento fu soprattutto la fisica aristotelica a essere accolta nelle sue linee fondamentali.
Nei secoli successivi, i progressi della tecnica, le scoperte geografiche e astronomiche, l'investigazione attenta, anche se non ancora metodica, dei fatti che la natura e le pratiche attività ponevano sotto gli occhi dell'osservatore causarono un generale disagio nei riguardi della vecchia fisica, di cui si avvertivano l'incompletezza e, per tanti aspetti, la contraddittorietà o l'arbitrio. Sicché, mentre il generale quadro della filosofia della natura restava, nel Cinquecento e per più aspetti anche nell'avanzato Seicento, quello trasmesso dalla cultura aristotelico-scolastica, si venivano via via riesaminando aspetti particolari di quella filosofia, riscontrandoli soprattutto con gli elementi che emergevano dall'indagine diretta della natura. È soprattutto su questo piano dell'osservazione della natura contrapposta alla ripetizione pedissequa di quanto si leggeva sui testi scolastici che si accese la polemica contro la fisica tradizionale e si venne lentamente approntando il materiale per una nuova concezione. Sul piano teorico la nuova filosofia della natura del Rinascimento (in cui rifluivano suggestioni pitagoriche, neoplatoniche e stoiche) propose schemi del mondo alternativi a quello aristotelico, mentre le discussioni sulla logica avviarono a una nuova problematica del metodo scientifico.
Sotto la spinta di elementi diversi (acquisizioni empiriche, nuove tecniche, sistemazioni teoriche) la fisica aristotelica, pur rimanendo nelle scuole fino a Seicento inoltrato, cominciò a perdere importanza e progressivamente alla concezione qualitativa e sostanzialistica dell'aristotelismo si venne sostituendo una concezione quantitativa e descrittiva dei fenomeni fisici. La fisica si organizzò come sistemazione di dati sperimentalmente conosciuti e connessi da legami validi sul piano dei fenomeni; a questa considerazione si sovrappose, ora in connessione ora in alternativa, una concezione più schiettamente matematica che venne a costituire un reticolato mentale di connessioni tra fenomeni suscettibili di essere trascritti in formule matematiche. Sperimentalismo, meccanicismo, matematizzazione del dato furono le vie, tra loro connesse, con le quali la fisica aristotelica venne superata e sostituita da una nuova concezione della fisica e da una nuova visione del cosmo.
La fisica classica
Il riconoscere, per dirla con le parole stesse di Galilei, "sola maestra la natura", l'affermare che la conoscenza della realtà non può derivare che dalle "sensate esperienze" e dalle "dimostrazioni necessarie" (cioè matematiche) sono direttive che si aprono su una concezione del tutto nuova della scienza, e in particolare della fisica. All'opera di Galileo Galilei fa seguito quella di Isaac Newton, cui si devono la precisa formulazione dei tre principi che reggono la 'meccanica classica' e la costruzione di una visione unitaria della natura, nella quale tutti i fenomeni sono visti in termini di corpi materiali interagenti meccanicamente. A questo fiorire della fisica si collega strettamente, d'altra parte, lo sviluppo di nuovi capitoli della matematica, come l'analisi infinitesimale che ebbe nello stesso Newton uno dei maggiori artefici. In realtà l'esigenza di rappresentare in termini matematici adeguati determinati fatti fisici fornì spesso spunti e impulso all'invenzione matematica, aprendo così la via alla costruzione di quella che è stata poi chiamata fisica matematica.
Mentre fervevano gli studi sulla meccanica, verso la fine del Settecento ebbe inizio lo studio sistematico dei fenomeni elettrici e magnetici. L'elettricità e il magnetismo, che devono il loro sviluppo prevalentemente all'opera di Charles-Augustin de Coulomb, di Hans Christian Ørsted, di André-Marie Ampère e di Michael Faraday, trovarono una sistemazione unitaria, nel 1870, nelle equazioni del campo elettromagnetico, dovute a James Clerk Maxwell. Le equazioni di Maxwell, stabilite sulla base delle leggi sperimentali dell'elettricità e del magnetismo, dei concetti già introdotti da Faraday circa il meccanismo di propagazione delle azioni elettriche e magnetiche e di considerazioni matematiche, ebbero brillante conferma sperimentale, nel 1887, nelle esperienze di Heinrich Rudolf Hertz. Il 1887 è la data della scoperta delle onde elettromagnetiche e insieme quella dell'affermarsi della concezione ondulatoria su quella corpuscolare relativamente alla struttura della luce, della quale appariva ormai chiara la natura elettromagnetica.
L'imponente complesso di concetti, di leggi, di fatti riconosciuti, analizzati e sistemati nel lasso di tempo che va dall'epoca di Newton al principio del 20° secolo costituisce quella che, oggi, comunemente si chiama la fisica classica, della quale sono alla base, in ultima analisi, i principi di Newton della meccanica da un lato, le equazioni di Maxwell dell'elettromagnetismo dall'altro. Ma tra il finire del 19° secolo scorso e l'inizio di quello seguente furono rimessi in discussione i principi stessi della fisica classica, soprattutto quelli newtoniani a opera di Ernst Mach e di Jules-Henri Poincaré; dall'interpretazione della legge spettrale del corpo nero data da Max Planck (1900), dell'effetto fotoelettrico data da Albert Einstein (1905) e dello spettro dell'atomo di idrogeno data da Niels Bohr (1913). L'inadeguatezza della fisica classica a fornire accettabili interpretazioni spinse alla formulazione di nuove ipotesi e di nuovi principi e alla conseguente costruzione di nuove teorie, dal complesso delle quali nasce quella che, in contrapposto alla fisica classica, si chiama fisica moderna.
La fisica moderna
Tra i postulati della fisica classica che il Novecento sottopose a revisione critica figurano anzitutto quello che attribuiva a lunghezze e tempi carattere assoluto, di indipendenza cioè dall'osservatore, e quello della continuità di determinati fenomeni (l'emissione, per es., dell'energia raggiante). La fisica moderna nacque dalla profonda crisi che investì questi due postulati, culminando nell'introduzione dei principi relativistici, che negarono a lunghezze e a tempi carattere assoluto, e dell'ipotesi quantistica, che rigettò la continuità.
Teorie della relatività. - La teoria della relatività, nata dalla constatata impossibilità di conciliare le vedute classiche con le risultanze sperimentali relative alla propagazione della luce, poggia su una revisione critica dei concetti di spazio e di tempo e, attraverso l'impiego di nuovi appropriati algoritmi matematici, come il calcolo differenziale assoluto, giunge alla formulazione di leggi, rispetto alle quali quelle proprie della meccanica classica conservano una loro validità come leggi di prima, anche se assai spesso largamente sufficiente, approssimazione, in tutti i casi in cui siano in gioco velocità non comparabili con la velocità della luce. Ne discende, tra l'altro, una profonda revisione dei principi di conservazione della massa e dell'energia, ai quali si sostituisce il principio di conservazione della massa-energia, fatto che ha trovato nella fisica nucleare e delle particelle elementari esaurienti conferme sperimentali.
Il principio di relatività galileiano afferma che nessuna esperienza eseguita nell'interno di un sistema può rivelarne un moto traslatorio rettilineo uniforme, rispetto a un riferimento fisso o, più genericamente, inerziale; in altri termini, qualsiasi esperienza od osservazione eseguita nell'interno di un corpo è atta a rivelarne un moto relativo soltanto a patto che questo non sia un moto traslatorio rettilineo uniforme. Nella formulazione galileiana del principio l'impossibilità di cui si è detto è limitata alle esperienze meccaniche. Einstein affermò nel 1905 che tale impossibilità sussiste per esperienze di qualsiasi natura. I postulati di base della nuova meccanica, o relatività ristretta, erano il principio secondo il quale nessuna esperienza, di qualsiasi natura, eseguita nell'interno di un corpo può rivelare un moto di traslazione rettilinea uniforme del corpo rispetto a un riferimento inerziale, e il principio della costanza della velocità della luce, secondo il quale la velocità della luce nel vuoto è una costante indipendente dal moto della sorgente e dell'osservatore.
Il principio di relatività einsteiniano è tra i postulati fondamentali delle varie teorie della relatività e in particolare della teoria della relatività ristretta (o speciale) dovuta (1905-07) allo stesso Einstein. A questa fece seguito, in una seconda fase (1912-16), la relatività generale per una più profonda indagine delle proprietà del continuo spazio-temporale che costituisce la sede di qualsiasi evento. Nella relatività generale quelle fondamentali proprietà della materia che sono la gravitazione e l'inerzia venivano a essere riportate a uno stesso principio, potendosi considerare ambedue come dovute alle proprietà geometriche dello spazio-tempo o, fisicamente, alla distribuzione, variabile nel tempo, della materia e dell'energia. In una terza fase (1918-50) si svilupparono le teorie unitarie (da Hermann Weyl ad Einstein), volte a ridurre a unità i fenomeni gravitazionali ed elettromagnetici, attraverso la costruzione di un unico modello geometrico per i due campi, appunto gravitazionale ed elettromagnetico.
Meccanica quantistica. - La meccanica quantistica cercò di rielaborare alcuni concetti della fisica classica per creare una teoria che potesse dar conto anche dei fenomeni relativi ai sistemi atomici e alle particelle elementari di cui è costituita la materia. Partendo da una profonda revisione critica del concetto di 'osservabile', la meccanica quantistica giunse a sostituire, relativamente all'evolversi dei fenomeni, schemi statistico-probabilistici a schemi classici di tipo deterministico. L'ipotesi quantistica, riferita precisamente all'energia, fu suggerita nel 1900 a Max Planck dall'esigenza di porre in accordo con le risultanze sperimentali la teoria dell'emissione del corpo nero. L'ipotesi quantistica di Planck, o principio della quantizzazione dell'energia, consiste nell'ammettere, in contrasto con i principi classici, che l'emissione e l'assorbimento di energia raggiante avvengano in modo discontinuo, o 'per quanti'. L'ipotesi, riferita ad altre grandezze, ha avuto un ruolo di primo piano nello sviluppo della fisica moderna. In particolare, su una ipotesi quantistica è fondata la teoria dell'atomo d'idrogeno, dovuta (1913) a Niels Bohr, e con essa quella conseguente, più ampia, detta di Bohr-Sommerfeld, di qualche anno successiva.
Il modello di Bohr non riusciva però a spiegare la struttura di atomi più pesanti dell'idrogeno. La soluzione venne fornita dal 'principio di esclusione' proposto da Wolfgang Pauli nel 1924: una stessa orbita (o stato quantico) non può essere occupata da più di due elettroni con gli stessi numeri quantici. Sulla base di questo principio diventò possibile fornire una descrizione della distribuzione degli elettroni nei diversi strati, dando così piena spiegazione del sistema periodico degli elementi atomici ideato da Dmitrij Mendeleev mezzo secolo prima. La quantizzazione dell'energia e la scoperta del fotone suscitarono però incertezze sulla natura della luce, che sembrava possedere nello stesso tempo il carattere di un corpuscolo e quello di un'onda. Tale dualità fra natura corpuscolare e ondulatoria, che sembrava in un primo tempo riguardare solo l'energia, venne estesa anche all'elettrone dal fisico francese Louis de Broglie (1924). Questa ipotesi, che si accordava con quella delle orbite stazionarie di Bohr, costituì un controllo indipendente della solidità della nuova teoria quantistica. Due anni più tardi, nel 1926, Erwin Schrödinger scrisse l'equazione dell'onda di de Broglie, ma rimaneva ancora oscuro quale significato fisico dovesse esserle attribuito. Fra le diverse tesi prevalse quella di Max Born, il quale propose di interpretare le funzioni d'onda non come la rappresentazione matematica di una traiettoria, ma come la misura della probabilità di trovare un elettrone in un dato punto (si tratta della cosiddetta 'interpretazione di Copenaghen' della meccanica quantistica, ancor oggi dominante, nonostante le molte voci di dissenso).
Pochi mesi prima che Schrödinger formulasse la propria equazione, Werner Heisenberg aveva chiarito le transizioni degli elettroni, che davano luogo a emissioni e assorbimenti di onde elettromagnetiche, attraverso un approccio radicalmente diverso. Anziché descrivere le orbite degli elettroni, di fatto non osservabili, egli sostenne che ci si dovesse concentrare unicamente sulle transizioni delle particelle da uno stato all'altro. Tali transizioni, pienamente definite dai due livelli energetici iniziale e finale, risultarono rappresentabili mediante matrici: il calcolo matriciale fornì così un altro strumento per lo studio delle radiazioni dell'elettrone, diverso rispetto all'equazione di Schrödinger ma a essa equivalente.
Fisica nucleare. - Le origini della fisica nucleare si fanno risalire alla scoperta, da parte di Ernest Rutherford, nel 1911, del nucleo atomico, ossia del 'luogo' in cui è concentrata tutta la carica positiva dell'atomo. Tuttavia è nel 1932, con la scoperta del neutrone da parte di James Chadwick, che inizia lo studio dei costituenti nucleari della materia, ovvero di quella che oggi si chiama fisica del nucleo (atomico). Il nucleo atomico è all'origine della scoperta di due nuovi tipi di interazioni fondamentali (oltre a quella gravitazionale ed elettromagnetica): l'interazione forte, che ne assicura la coesione, e l'interazione debole, responsabile della disintegrazione ß.
Dal 1932, anno che fu segnato anche da altre importanti scoperte (oltre a quella del neutrone, quelle del positrone, o elettrone positivo, del deutone, o idrogeno pesante, costituito da un protone e da un neutrone) nonché dalle realizzazioni delle prime macchine acceleratrici (generatore di John D. Cockcroft ed Ernest Thomas S. Walton e ciclotrone di Ernest O. Lawrence) e delle prime reazioni nucleari artificiali, il cammino della fisica nucleare è stato indirizzato soprattutto alle indagini sempre più approfondite dell'interno del nucleo.
La scoperta del neutrone e le ricerche delle sue interazioni con la materia (tra cui quelle del gruppo composto da Enrico Fermi, Edoardo Amaldi, Oscar D'Agostino, Bruno Pontecorvo, Franco Rasetti ed Emilio Segré a Roma) condussero a una delle scoperte più significative in questo campo: la fissione nucleare. Poco tempo dopo Irène Joliot-Curie, i tedeschi Otto Hahn e Fritz Strassmann, l'austriaca Lise Meitner e il britannico Otto Robert Frisch scoprirono che alcuni nuclei di uranio potevano scindersi in due frammenti distinti, liberando una gran quantità di energia ed emettendo neutroni isolati. I risultati delle ricerche successive suggerirono la possibilità di indurre una reazione a catena autoalimentata, che venne effettivamente ottenuta da Fermi e dal suo gruppo nel 1942, quando entrò in funzione il primo reattore nucleare. Da allora gli sviluppi tecnologici si susseguirono rapidamente; la prima bomba atomica fu costruita nel 1945 al termine di un imponente programma guidato da Julius Robert Oppenheimer, e il primo reattore nucleare per la produzione di energia elettrica entrò in funzione in Gran Bretagna nel 1956, con una potenza di 78 MW.
Gli sviluppi successivi nel campo della fisica nucleare riguardarono lo studio del meccanismo di produzione dell'energia nelle stelle. Hans Bethe scoprì che negli strati stellari più interni le temperature raggiungono i milioni di gradi e si sviluppano reazioni di fusione nucleare che sprigionano quantità enormi di energia. La reazione più probabile all'interno delle stelle è quella che porta alla formazione di un nucleo di elio a partire da quattro nuclei di idrogeno, con conseguente sviluppo di energia ed emissione di alcune particelle elementari. Questa reazione nucleare fu studiata da Edward Teller e riprodotta, con qualche modifica, nella bomba a idrogeno, detonata per la prima volta nel 1952.
Gran parte delle ricerche attuali mirano a ottenere un dispositivo che produca reazioni di fusione controllate, piuttosto che esplosive. Un reattore a fusione avrebbe il vantaggio di essere meno radioattivo di un reattore a fissione e costituirebbe una fonte pressoché illimitata di energia. Nel dicembre 1993 furono compiuti progressi significativi in questa direzione: alcuni ricercatori dell'Università di Princeton produssero, in un reattore del tipo Tokamak, una reazione di fusione controllata che sviluppò una potenza di 5,6 MW. Sembra però ancora lontano il giorno in cui l'energia prodotta da un reattore a fusione sarà maggiore di quella spesa per raggiungere le condizioni di temperatura e pressione necessarie al mantenimento del processo nucleare.
Sviluppi ulteriori. - Le linee di sviluppo della fisica si sono successivamente accentrate intorno a due principali direttive. Una è la generale tendenza alla costruzione di teorie unificate, atte cioè a dare giustificazione unitaria di fenomeni precedentemente ricondotti a principi tra loro diversi. La seconda, in un certo senso complementare della prima, è quella di orientare l'indagine sperimentale verso un maggiore approfondimento delle conoscenze intorno all'intima struttura della materia e ai fenomeni che si determinano in condizioni particolari, un compito di grande impegno per le imponenti risorse finanziarie che è destinato ad assorbire e del più grande interesse anche, com'è ovvio, dal punto di vista tecnologico.
Dopo la rivoluzione galileiano-newtoniana e quella relativistico-quantistica, nella seconda metà del Novecento la fisica ha conosciuto la cosiddetta rivoluzione della fisica della complessità. La prima rivoluzione ha portato a una concezione rigorosamente deterministica; la seconda, accanto all'affermazione della relatività spazio-temporale, ha sanzionato l'indeterminismo intrinseco dei fenomeni microscopici, evidenziando che è possibile fare solamente previsioni probabilistiche in relazione a questi fenomeni; la terza mostra che anche i fenomeni macroscopici possono non essere completamente prevedibili in quanto, anche per sistemi semplici (per es., tre corpi interagenti secondo la legge della gravitazione universale), può accadere che una piccola inevitabile incertezza sulle condizioni iniziali, intrinseca peraltro in ogni metodo di misurazione, faccia perdere la predicibilità a lungo termine dell'evoluzione del sistema.
Questa mancanza di predicibilità a lungo termine, rilevata da Jules-Henri Poincaré agli inizi del 20° secolo in relazione al problema dei tre corpi, fu riscoperta nel 1963 dal meteorologo Edward Lorenz, che si avvide che le previsioni meteorologiche, anche basate su un modello matematico estremamente semplice, potevano portare a risultati completamente diversi a causa del solo "battito di ali di una farfalla". La ragione profonda di questa imprevedibilità, verificata successivamente in numerosissimi fenomeni, risiede nella instabilità dinamica tipica dei sistemi con legge di evoluzione non lineare. È inoltre emersa, anche grazie all'impiego di grandi elaboratori elettronici, una complessità strutturale dei sistemi fisici consistente nell'impossibilità di descrivere in modo soddisfacente il comportamento di un sistema macroscopico riducendolo ai suoi componenti. La caratterizzazione quantitativa dell'impredicibilità legata a questi fenomeni è ottenuta introducendo opportuni indicatori (per es., entropia) e la fisica della complessità ha cominciato a fornire risposte, molti fenomeni trovando la loro descrizione naturale nell'ambito di queste nuove concezioni.
Tecniche sperimentali. - Le tecniche sperimentali sono probabilmente il settore della fisica che ha risentito maggiormente dei cambiamenti dell'organizzazione della scienza e del mutato rapporto fra fisica e tecnologia. All'inizio del 20° secolo gli esperimenti erano effettuati da gruppi molto piccoli di persone (al massimo due o tre) e una grande parte dell'apparecchiatura, anche molto sofisticata, era costruita all'interno dell'università. L'officina meccanica era estremamente attiva e, sotto la guida di artigiani di valore, era in grado di soddisfare gran parte delle necessità dei gruppi di ricerca.
La situazione cominciò a mutare anche sotto la spinta di rilevanti scoperte della fisica. La meccanica quantistica diede agli scienziati la possibilità di comprendere la struttura di molti materiali, alcuni estremamente rilevanti dal punto di vista applicativo, il cui comportamento era incomprensibile dal punto di vista classico (per es., i superconduttori). La fisica fu così applicata allo studio delle proprietà dei materiali e alla fine degli anni Quaranta il transistore fu progettato e realizzato nei laboratori della società statunitense Bell. I progressi tecnologici del dopoguerra non sarebbero stati possibili senza il contributo della fisica e, di contro, la sperimentazione si avvantaggiò di questa evoluzione. Il progresso dell'elettronica rivoluzionò le tecniche sperimentali, sia rendendo possibile la costruzione di strumenti di altissima precisione a basso costo, sia permettendo il rilevamento e l'analisi dei dati automaticamente, sotto il controllo di un calcolatore. Come conseguenza degli enormi progressi fatti dalla tecnologia, divenne impossibile costruirsi nel laboratorio buona parte degli strumenti necessari per eseguire esperimenti e misure.
Attualmente per effettuare determinate esperienze, per le quali sono necessarie attrezzature estremamente ingombranti e costose, difficilmente gestibili da un solo gruppo sperimentale, vengono costruiti laboratori attrezzati in appositi centri in cui possono lavorare fisici di varie università o di vari paesi. Questa tendenza è fortemente accentuata nella fisica delle alte energie, per la quale la concentrazione delle attività si rende necessaria a causa dell'alto costo delle apparecchiature di base, come acceleratori di particelle, apparati per rivelare le particelle emesse durante le collisioni e così via.
Negli ultimi decenni del 20° secolo, si è assistito all'apparire del calcolatore come strumento di indagine. Precedentemente, il passaggio dalle leggi alle conseguenze delle leggi era effettuato mediante argomentazioni che potevano sia ricorrere a strumenti matematici rigorosi, sia basarsi (e questo accadeva spesso) su una logica intuitiva e sull'analogia. Nell'immaginario scientifico il fisico teorico aveva bisogno solo di carta e matita per fare le sue previsioni, mentre il fisico sperimentale aveva necessità di costose apparecchiature. La vecchia dicotomia teoria-esperimento è stata sostituita da una tripartizione del sapere: teoria pura, simulazione ed esperimento. La simulazione fa spesso da trait-d'union fra la teoria e l'esperimento: lo sperimentatore confronta i suoi dati con i risultati delle simulazioni e il teorico vuole mettersi in grado di predire i risultati delle simulazioni. Uno dei motivi dell'interesse suscitato dalle simulazioni consiste nel fatto che si possono simulare anche sistemi non esistenti in natura, ma più semplici dal punto di vista teorico. Questo permette alle simulazioni di diventare il laboratorio privilegiato per la verifica di nuove teorie che non potrebbero essere verificate direttamente nel mondo reale.