Il contributo è tratto da Storia della civiltà europea a cura di Umberto Eco, edizione in 75 ebook
A inizio Ottocento la fisica spiega i fenomeni termici, elettrici e magnetici mediante ipotesi sulla natura di fluidi che permeano lo spazio e interagiscono con le molecole. Dopo decenni di scoperte l’Ottocento si chiude con l’eliminazione quasi totale dei fluidi e la scoperta dell’elettrone. Resta il problema di un fluido – l’etere – che dovrebbe trasmettere le onde elettromagnetiche e l’enigma costituito dall’impossibilità di spiegare l’azione gravitazionale.
Il calore come insieme di particelle
Spetta a Laplace il merito di elaborare, negli anni Venti, la prima teoria matematica dei fenomeni termici. La base della teoria è un insieme di ipotesi sulla natura del calore e sulle interazioni tra quest’ultimo e le molecole della materia. Secondo queste ipotesi il calore è un fluido, detto calorico, formato da corpuscoli in moto disordinato nello spazio lasciato libero dalle molecole.
Le interazioni in gioco sono tali che una parte del calorico è legato alle molecole: si tratta del cosiddetto calorico latente, ovvero di particelle non rilevabili con un termometro. Il termometro è invece in grado di misurare il numero medio di particelle che si muovono liberamente tra le molecole e che formano il cosiddetto calorico libero. Le ipotesi sul calorico costituiscono anche le fondamenta della teoria delle macchine termiche esposta da Sadi-Nicolas Carnot.
Negli anni Quaranta la teoria di Laplace viene abbandonata quando Joule porta prove sperimentali favorevoli all’idea che il calorico non esista e che la temperatura di un corpo sia una misura dell’energia di movimento delle sue molecole.
La termodinamica
Il crollo del modello di Laplace lascia spazio a ricerche che mirano a ricostruire la spiegazione dei fenomeni termici alla luce del principio di conservazione dell’energia. Mentre Lord Kelvin sviluppa una teoria libera da modelli, denominata termodinamica, Clausius, Maxwell e Boltzmann fondano un’interpretazione di questa teoria su matematizzazioni sempre più raffinate del comportamento probabilistico degli atomi e delle molecole nei gas.
Al centro di queste matematizzazioni stanno i processi irreversibili che, secondo Lord Kelvin, obbediscono alla seconda legge della termodinamica e, in linea di massima, sono regolati dal principio universale di dissipazione dell’energia meccanica. Resta tuttavia aperto il problema relativo ai moti molecolari, di come cioè sia possibile che essi siano caratterizzati da una tendenza verso stati di crescente dissipazione.
Le leggi del moto, infatti, sono simmetriche rispetto al tempo e non sembrano atte a giustificare l’esistenza di processi irreversibili che distinguono il passato dal futuro. Tali processi sono però descritti dalla seconda legge della termodinamica, nella forma datale da Clausius nel 1864, per cui “l’entropia dell’universo tende a un massimo”.
Il gas perfetto, i quanti e la costante H
Al fine di risolvere l’anomalia relativa alla tendenza verso stati di crescente dissipazione dei moti molecolari, negli anni Settanta Boltzmann suggerisce che i moti molecolari nei gas molto rarefatti, o ideali, siano descrivibili non tanto con le leggi del moto, quanto con il calcolo delle probabilità.
Al centro della teoria boltzmanniana sta il cosiddetto teorema H, secondo il quale in un contesto probabilistico l’entropia di un gas perfetto è costante o tende ad aumentare. Il teorema H, nelle intenzioni di Boltzmann, è una spiegazione matematica della seconda legge della termodinamica. Il fisico austriaco fornisce inoltre una dimostrazione del teorema che ipotizza l’esistenza di un quantum indivisibile di energia per i moti molecolari.
Nell’ultimo quarto di secolo si apre una vivace disputa sul reale significato di questo teorema e in questo contesto Planck tenta una spiegazione del cosiddetto problema della radiazione di un corpo nero. Nel 1900 il fisico tedesco trova una prima soluzione, fondata sull’ipotesi del quanto di energia, scoprendo in tal modo l’esistenza della costante universale H.
Il campo elettromagnetico e le vie dell’unificazione
Nella sua breve vita Maxwell compie indagini in tutti i settori della fisica, riprendendo in particolare il programma di Faraday e ricavandone un gruppo di equazioni differenziali che riconducono a una sola teoria di campo elettromagnetico tutti i fenomeni ottici, elettrici e magnetici.
La teoria di campo pone in posizione di privilegio la velocità della luce, che caratterizza la propagazione di onde elettromagnetiche nel continuo già introdotto da Faraday. Lo schema di Maxwell attribuisce pertanto all’interazione elettromagnetica un ruolo universale, pari a quello che Newton ha fornito all’interazione gravitazionale.
In seno alla nuova teoria sono tuttavia collocati due problemi fondamentali; le equazioni di campo, infatti, differiscono dalle equazioni del moto in quanto non sono invarianti rispetto ai sistemi di riferimento galileiani della meccanica. È negli ultimi anni del secolo che lo studio di queste differenze porta Hendrik Antoon Lorentz a scoprire un gruppo di trasformazioni matematiche che coinvolge le nozioni di spazio e di tempo e che pone le premesse della relatività ristretta.
La teoria di campo di Maxwell e Lorentz non è tuttavia in grado di affrontare la gravitazione e ciò implica un’incomprensibile separazione tra il campo elettromagnetico e il campo gravitazionale.
Una marea di fatti anomali
Negli ultimi vent’anni dell’Ottocento si assiste a una proliferazione di scoperte imprevedibili e a un’intensa crescita delle conoscenze fisiche.
Sulla base di alcune considerazioni di Maxwell relative alla misurabilità della velocità della luce, Michelson e Morley realizzano un esperimento che dovrebbe permettere di stimare il moto assoluto della Terra nell’etere. I risultati sono però negativi e seminano enigmi sui rapporti tra meccanica e ottica, stimolando Lorentz nei suoi studi.
Un’ulteriore lacuna nella teoria di Maxwell consiste nell’impossibilità di cogliere la natura della carica elettrica. Nel 1897 Thomson riesce tuttavia a trovare dati di laboratorio favorevoli all’ipotesi che esista una particella in grado di trasportare una carica elementare: l’elettrone. La scoperta della prima particella elementare, a sua volta, fa cadere l’opinione che gli atomi siano privi di struttura interna e la sostituisce con programmi di ricerca volti a spiegare la costituzione atomica in termini di elettroni.
Dal punto di vista sperimentale la scoperta dell’elettrone si accompagna all’individuazione di nuove forme della radiazione.
Vengono così scoperti i raggi X e i raggi spontaneamente emessi da composti in cui è presente l’uranio. Nel 1899 Rutherford è già in grado di distinguere, nella radiazione a uranio, la presenza di raggi alfa e beta.
Infine nel 1900 Poincaré sottolinea il conflitto esistente tra la meccanica di ispirazione newtoniana e i risultati ottenuti da Lorentz a proposito dell’elettrodinamica: tra luci e ombre l’Ottocento pone le premesse teoriche e sperimentali della fisica del Novecento.