Il contributo è tratto da Storia della civiltà europea a cura di Umberto Eco, edizione in 75 ebook
Fino alla metà dell’Ottocento la teoria della meccanica classica esprime in modo soddisfacente le leggi fondamentali del moto delle particelle di materia; tuttavia nell’affrontare sistemi più complessi, come nel caso di gas, la teoria si mostra in difficoltà. Nasce di qui l’esigenza di una nuova teoria che, tralasciando la descrizione della dinamica di ogni singola particella, riesca a predire le proprietà macroscopiche della materia ossia la velocità, la pressione e la temperatura. La meccanica statistica, teorizzata da James Clerk Maxwell e Ludwig Boltzmann, assolve appunto a questo scopo, ricorrendo a nozioni di probabilità e tecniche statistiche.
Che cos’è la meccanica statistica?
La meccanica statistica nasce alla fine dell’Ottocento per descrivere il comportamento dei sistemi fisici complessi, cioè composti da molte particelle. Da tempo i fisici disponevano di una teoria – oggi nota come “meccanica classica” – che esprimeva in modo soddisfacente le leggi fondamentali del moto delle particelle, ma la sua applicazione alla descrizione dei sistemi complessi aveva incontrato grandi difficoltà. Le leggi della meccanica classica infatti permettono di predire, in linea di principio, il moto di una o più particelle purché siano note le forze che agiscono su ognuna di esse, e si possano misurare le posizioni e le velocità di ogni particella a un certo istante. Tuttavia quando le particelle in gioco sono numerose è di fatto impossibile ottenere queste informazioni – basti pensare che pochi grammi di un gas contengono circa 100.000 miliardi di miliardi di atomi. Una delle prime questioni affrontate tra XVIII e il XIX secolo può aiutare a capire meglio il problema. Era noto che il comportamento dei gas è soggetto a leggi espresse da relazioni tra grandezze macroscopiche come il volume V, la pressione P e la temperatura T. Supponendo che il gas sia costituito da particelle materiali soggette alle leggi della meccanica classica, è possibile dedurre le leggi che legano V, P e T? Ebbene nel corso dell’Ottocento, prima con la teoria cinetica dei gas e poi con la meccanica statistica, si dimostrerà che questo è possibile rinunciando alla descrizione della dinamica di ogni singola particella costituente il gas e ricorrendo a nozioni di probabilità e a tecniche statitistiche.
La meccanica statistica, nome introdotto nel 1884 dal fisico americano Josiah Willard Gibbs, è proprio quella parte della fisica che studia come spiegare e predire le proprietà fisiche macroscopiche della materia (come V, P e T) a partire dalle proprietà dei suoi costituenti microfisici (come posizioni, velocità, energia). Essa trae origine dalla teoria del calore, ma i suoi successivi sviluppi si estendono a tutti quei settori in cui si ha che fare con sistemi costituiti da un grande numero di componenti (come la corrente di elettroni nei metalli o lo spostamento di ioni in una soluzione).
Dalla teoria del calore alla meccanica statistica
Intorno al 1850, Rudolf Clausius e William Thomson Kelvin (futuro Lord Kelvin) arrivano a stabilire i principi fondamentali della “teoria meccanica del calore”, oggi nota come termodinamica. La termodinamica si basa sull’idea che il calore non sia altro che uno stato di moto delle particelle componenti i corpi macroscopici, ma la formulazione dei suoi principi riguarda solo grandezze macroscopiche, indipendentemente dai modelli dettagliati del moto delle particelle. Proprio lo studio di questi modelli, con l’impiego sistematico di strumenti provenienti dal calcolo delle probabilità, costituisce l’argomento di quella che è oggi nota come teoria cinetica dei gas, al cui sviluppo danno un consistente contributo Clausius e James Clerk Maxwell. Dalla teoria cinetica dei gas trarrà origine negli ultimi trent’anni dell’Ottocento la moderna meccanica statistica, grazie soprattutto a Maxwell, Ludwig Boltzmann e Josiah Willard Gibbs.
Prima delle ricerche di Clausius e Maxwell, pochi erano stati i contributi alla teoria cinetica dei gas. Dopo i lavori pionieristici di Daniel Bernoulli (pubblicati nell’Hydrodynamica del 1738), alcuni passi avanti significativi erano stati compiuti indipendentemente da John Herapath e John James Waterston tra il 1820 e il 1847. Le loro ricerche tuttavia avevano avuto uno scarso impatto sulla comunità scientifica dell’epoca. Se il lavoro di Herapath influì su un primo approccio alla teoria cinetica avviato da James P. Joule, il lavoro di Waterston sarà riscoperto e valorizzato solo nel 1892 da Rayleigh. Dopo questi primi abbozzi di una teoria cinetica dei gas, un impulso alle ricerche nel settore viene da un articolo di August K. Krönig del 1856. È vero, come già notava Maxwell, che l’articolo di Krönig non contiene nessun progresso significativo rispetto ai lavori di Herapath e Joule, ma Krönig era a quel tempo uno scienziato famoso in Germania. Il suo articolo ebbe quindi grande risonanza, e influenzò la decisione di Clausius di pubblicare gli esiti delle sue ricerche.
Sulla specie di movimento che chiamiamo calore
Il primo lavoro di Clausius, uscito nel 1857 col titolo Sulla specie di movimento che chiamiamo calore, costituisce un notevole passo avanti rispetto ai risultati di Herapath, Joule e Krönig nella derivazione della formula che esprime il legame tra la pressione di un gas (una grandezza fisica macroscopica) e la velocità dei moti molecolari (una grandezza appartenente al livello microfisico). Joule e Krönig avevano infatti tentato di superare le difficoltà di una descrizione dei moti disordinati dei componenti di un gas facendo ricorso a ipotesi molto restrittive senza fornirne un’adeguata giustificazione.
Impostando in modo nuovo il problema, Clausius analizza le ipotesi relative alla costituzione del gas e agli urti molecolari. Prima di tutto il gas deve essere ideale, cioè assimilabile a un gas rarefatto, quindi lo spazio occupato dalle molecole deve essere infinitesimo rispetto al volume complessivo del gas. In secondo luogo, le collisioni molecolari devono avvenire in intervalli di tempo molto più piccoli degli intervalli di tempo che separano due collisioni successive. E, infine, l’influenza delle forze tra le molecole deve essere trascurabile. Si può allora pensare che nell’intervallo di tempo che intercorre tra due collisioni successive le particelle si muovano su traiettorie rettilinee con una velocità che Clausius, per semplicità, suppone uguale in modulo per tutte le molecole. Sulla base di queste ipotesi, Clausius mette in relazione grandezze termodinamiche e grandezze meccaniche. Identificando la quantità di calore contenuta in un gas con l’energia (di traslazione, vibrazione e rotazione) delle sue molecole, egli arriva a esprimere il legame tra pressione P, volume V e moti molecolari nella forma PV = 1/3 Nmv2, dove N è il numero totale di molecole del gas, m la massa e v la velocità di traslazione media di ogni molecola. Se a una data pressione si conosce la densità del gas Nm/V, la formula trovata permette di calcolare la velocità media delle molecole. I valori ottenuti da Clausius per l’ossigeno, l’azoto e l’idrogeno sono, rispettivamente, 461, 492 e 1844 metri al secondo. Come tiene a precisare Clausius, questi numeri rappresentano le velocità medie e quindi “le velocità reali delle molecole possono differire sostanzialmente da questi valori”.
Il risultato di Clausius viene criticato pochi mesi dopo dal meteorologo olandese Christoph H.D. Buys-Ballot. Una velocità molecolare così elevata – osserva Buys-Ballot – sembra in contraddizione con la relativa lentezza del processo di diffusione di un gas in un altro: se le velocità molecolari avessero in media questi valori, l’odore proveniente dalla vaporizzazione di una boccetta di profumo in una stanza impiegherebbe solo qualche frazione di secondo per essere avvertito in ogni parte della stanza, contrariamente a quanto avviene. Non è una critica irrilevante. Per rispondere a Buys-Ballot, Clausius riformula la sua teoria, e scrive nel 1858 un secondo articolo che verrà letto l’anno dopo da Maxwell. In quest’articolo Clausius abbandona l’ipotesi che le molecole del gas abbiano dimensioni infinitesime, assumendo per esse un diametro, o “sfera d’azione”, d sufficientemente grande che non permetta loro di percorrere lunghe distanze senza urtare un’altra molecola. A questo punto Clausius introduce un parametro, chiamato cammino libero medio e indicato con l, per designare la distanza media percorsa da una molecola prima di urtarne un’altra: l deve essere abbastanza grande rispetto a d, per rispettare l’ipotesi del gas ideale, ma allo stesso tempo deve essere sufficientemente piccolo da far sì che una molecola debba cambiare la sua direzione frequentemente, e impiegare quindi un tempo relativamente lungo per uscire da una certa regione dello spazio di dimensioni macroscopiche.
Pur non disponendo di dati certi per stimare il valore di l, Clausius ipotizza che esso sia molto piccolo rispetto alle dimensioni macroscopiche. Ricorrendo allora ad argomenti statistici Clausius stabilisce che la probabilità W che una molecola percorra una distanza x senza collidere è data da: W = e–x/l, per cui solo una piccola frazione delle molecole percorre una distanza maggiore a qualche l prima di collidere, e questo risponde all’obiezione di Buys-Ballot.
Due aspetti del lavoro di Clausius possono aver attirato l’attenzione di Maxwell. Il primo riguarda la possibilità di ottenere una trattazione rigorosa delle proprietà di un gas, una questione con la quale Maxwell si era confrontato in quegli anni occupandosi della stabilità degli anelli di Saturno, da lui descritti come un pulviscolo (una sorta di gas) che ruota in anelli concentrici intorno al pianeta. Il secondo aspetto concerne l’argomentazione statistica usata da Clausius per calcolare W. L’interesse di Maxwell per la teoria della probabilità risaliva agli anni tra il 1840 e il 1850, quando leggeva i contributi forniti in questo campo da vari autori, tra cui Laplace e Boole. Inoltre, nel 1850 era uscito un lungo saggio di John Herschel, che recensiva sulla “Edinburgh Review” La teoria delle probabilità applicata alle scienze morali e politiche del matematico belga Adolphe Quetelet. In questo saggio Herschell illustrava la teoria di Quetelet, imperniata sulla legge degli errori (la distribuzione “a campana” o gaussiana scoperta da Gauss), sottolineando l’importanza del “metodo dei minimi quadrati” – come ancora oggi viene chiamato – che sarà una delle direttrici del lavoro di Maxwell. È molto probabile che Maxwell, allora a Edinburgo, abbia letto il saggio di Herschell.
La distribuzione maxwelliana delle velocità
L’Illustration of the dynamical theory of gases del 1860 è il primo lavoro di Maxwell sulla teoria cinetica del calore. Il punto di partenza è l’analogia tra le molecole in un gas e un insieme di sfere di piccole dimensioni, dure e perfettamente elastiche. L’analisi degli urti elastici tra coppie di sfere permette a Maxwell di ricavare l’ipotesi fondamentale che trasforma la teoria cinetica in una teoria compiutamente statistica: le numerose collisioni tra le molecole di un gas in equilibrio termodinamico non determinano l’uguaglianza delle velocità delle varie molecole, ma hanno l’effetto di produrre una distribuzione statistica delle velocità, nella quale tutti i valori delle velocità, da zero all’infinito, sono presenti con probabilità diverse. Centrale quindi per l’intera teoria è la determinazione della funzione di distribuzione statistica f(v) delle velocità v delle molecole.
Con alcune assunzioni sui moti e sugli urti delle sfere, ragionevoli ma di non facile giustificazione, Maxwell riesce a dimostrare che “le velocità sono distribuite tra le particelle secondo la stessa legge con la quale gli errori sono distribuiti tra le osservazioni nella teoria del metodo dei minimi quadrati”. In altri termini, date N particelle, la funzione di distribuzione f(v), che esprime quante di queste particelle hanno una certa velocità v, tende a zero quando la velocità v tende a zero, e tende a zero quando le velocità sono molto grandi; inoltre f(v) ha un massimo per valori v vicini alla velocità media. Tutto ciò è fisicamente plausibile: solo un numero relativamente piccolo delle N particelle ha velocità molto basse o molto alte, mentre la maggior parte di queste ha velocità vicine alla velocità media.
La descrizione dei processi fisici tramite una funzione statistica segna una svolta importante nella fisica ottocentesca. Come sottolinea Gibbs nel necrologio scritto nel 1889 per Clausius: “Nello studiare Clausius ci sembra di studiare la meccanica; nello studiare Maxwell, come pure succede per la gran parte del lavoro di Boltzmann, ci sembra invece di studiare la teoria delle probabilità”. Dall’interpretazione causale deterministica, fondata sulle leggi della meccanica, si comincia a passare a un’interpretazione di tipo probabilistico, che troverà fondamento nella moderna meccanica statistica.
La derivazione della distribuzione maxwelliana delle velocità poggia però su alcune ipotesi problematiche. Numerosi tentativi saranno fatti per dare una dimostrazione rigorosa della distribuzione maxwelliana delle velocità in un gas all’equilibrio, che esperimenti successivi dimostreranno essere verificata con grande precisione. È lo stesso Maxwell a tentare per primo un approccio diverso in un fondamentale articolo del 1867 dal titolo On the dynamical theory of gases. Supponendo che le velocità molecolari si trovino già distribuite secondo la funzione maxwelliana, le collisioni elastiche tra le molecole lasciano questa distribuzione invariata nel tempo, cioè la distribuzione maxwelliana è stabile. Su questa base Maxwell congettura che la distribuzione trovata sia quella a cui converge qualunque distribuzione iniziale delle velocità. La dimostrazione matematicamente rigorosa di questa congettura, che ancora oggi è un problema aperto, sarà al centro del lavoro di Boltzmann.
Il “diavoletto” di Maxwell
I risultati della teoria cinetica dei gas palesano da subito l’esigenza di profondi mutamenti concettuali nella descrizione fisica dei fenomeni, specialmente in rapporto al dibattito sull’interpretazione del secondo principio della termodinamica. Quali conseguenze ha l’uso di metodi statistici nella formulazione delle leggi fisiche? È possibile con questi metodi spiegare l’irreversibilità dei processi espressa dal secondo principio della termodinamica? E come spiegare questa irreversibilità in rapporto alla reversibilità delle leggi fondamentali che governano i fenomeni meccanici? Sono queste domande che portano Maxwell a concepire già nel 1867 quello che oggi è noto come il diavoletto di Maxwell. Dell’esperimento ideale che ha come protagonista il diavoletto Maxwell parla per esteso nel suo Theory of heat del 1871:
“Uno dei fatti meglio stabiliti della termodinamica è l’impossibilità di produrre senza compiere lavoro una differenza di temperatura o di pressione in un sistema racchiuso in un contenitore che non permette cambiamenti di volume né passaggi di calore, e nel quale sia la temperatura sia la pressione siano ovunque le stesse. Questa è la seconda legge della termodinamica, ed è senza dubbio vera finché si può trattare i corpi solo nel loro insieme, senza poter percepire e maneggiare le singole molecole di cui sono composti. Ma se concepiamo un essere capace di seguire ogni molecola nel suo cammino, un tale essere sarebbe capace di fare ciò che per noi è attualmente impossibile. Infatti abbiamo visto che le molecole in un recipiente pieno d’aria a temperatura uniforme si muovono con velocità per niente uniformi, anche se la velocità media di un qualunque insieme sufficiente numeroso di esse è quasi esattamente uniforme. Supponiamo adesso che tale recipiente sia diviso in due parti, A e B, da un setto in cui vi sia un piccolo foro, e che un essere, che può vedere le singole molecole, apra e chiuda questo foro in modo da permettere solo alle molecole più veloci di passare da A a B, e solo a quelle più lente di passare da B ad A. In questo modo, senza compiere lavoro, egli innalzerà la temperatura di B e abbasserà quella di A, in contraddizione con la seconda legge della termodinamica. […] Dovendo trattare di corpi materiali nel loro insieme, senza percepire le singole molecole, siamo costretti ad adottare quello che ho descritto come il metodo statistico di calcolo, e ad abbandonare il metodo strettamente dinamico, nel quale seguiamo con il calcolo ogni movimento. Sarebbe interessante chiedersi fino a che punto quelle idee concernenti la natura e i metodi della scienza che sono state derivate dagli esempi di indagine scientifica in cui si segue il metodo dinamico siano applicabili alla nostra reale conoscenza delle cose concrete, che, come abbiamo visto, è di natura essenzialmente statistica, poiché nessuno ha ancora scoperto un qualche metodo pratico per tracciare il cammino di una molecola, o per identificare la singola molecola a istanti successivi”.
L’eperimento mentale di Maxwell contiene vari spunti di riflessione. Il primo è che a causa della distribuzione statistica delle velocità molecolari in un gas all’equilibrio ci saranno sempre fluttuazioni spontanee, a livello delle singole molecole, che possono provocare il trasferimento del calore dal corpo a temperatura minore a quello a temperatura maggiore: queste però sono “rare” e quindi non influiscono sulla nostra percezione macroscopica dell’irreversibilità. Solo l’azione del diavoletto, che opera a livello delle singole molecole, può produrre un flusso macroscopico di calore da un corpo a temperatura minore a uno a temperatura maggiore. Il secondo principio della termodinamica è perciò, a differenza delle leggi della meccanica classica, una legge di tipo statistico: le fluttuazioni indicano che può essere violato anche se con bassa probabilità. È il preludio della moderna interpretazione del secondo principio sviluppata in seguito, a partire dai lavori di Boltzmann. Maxwell inoltre, assimilando il flusso di calore al mescolamento molecolare, implicitamente asserisce che l’irreversibilità sancita dal secondo principio della termodinamica è equivalente alla transizione da un sistema parzialmente ordinato – dove le molecole mediamente più veloci si trovano da una parte e quelle mediamente più lente si trovano dall’altra – a uno meno ordinato: cioè l’ordine e il disordine molecolari vengono associati alle transizioni da uno stato di non equilibrio (bassa entropia) a uno stato di equilibrio (massima entropia) del sistema. È l’idea che diventerà esplicita nei successivi lavori di Boltzmann.
Boltzmann, il teorema H e la nascita della meccanica statistica
Boltzmann inizia le sue ricerche nel 1866 con l’obiettivo di trovare una derivazione del secondo principio della termodinamica a partire dai principi della meccanica.
Un suo primo importante risultato compare in un lavoro del 1868 nel quale generalizza la legge di distribuzione di Maxwell al caso in cui agiscono sulle particelle forze esterne, in particolare la forza di gravità. Boltzmann dimostra che è possibile avere equilibrio termodinamico a temperatura T costante in una colonna verticale di gas isolata. In questo caso la densità e la pressione del gas variano esponenzialmente con l’altezza in funzione del potenziale gravitazionale V. In notazione moderna quello che Boltzmann ricava è che la probabilità di trovare una molecola del gas in un punto di potenziale V è data da e–V/kT (noto come fattore di Boltzmann, dove k è una costante oggi chiamata costante di Boltzmann). Siccome V può essere l’energia potenziale di tutte le forze che agiscono sulla molecola, comprese eventuali forze intermolecolari, il fattore di Boltzmann combinato con la distribuzione di Maxwell permette di esprimere la probabilità di uno stato molecolare non solo nei gas, ma anche nei liquidi e nei solidi. Ecco perché la legge di distribuzione di Maxwell-Boltzmann ha avuto in seguito applicazioni così vaste diventando uno dei principi basilari della meccanica statistica.
Tra il 1868 e il 1871, Boltzmann pubblica una serie di lavori che contengono una raffinata ridefinizione delle nozioni base della teoria cinetica dei gas nell’ambito della teoria delle probabilità e che testimoniano una sua progressiva presa di distanza dall’idea di una totale riducibilità del secondo principio della termodinamica alle leggi della meccanica. Boltzmann va convincendosi, sulla falsa riga di Maxwell, che il secondo principio della termodinamica è una legge di tipo statistico diversa da quelle della meccanica.
Questo processo di revisione della teoria cinetica e di ridefinizione dei suoi statuti concettuali sfocia nel 1872 in un ampio articolo dal titolo Ulteriori studi sull’equilibrio termico delle molecole. È qui che Boltzmann svolge una prima trattazione generale degli effetti che le collisioni tra molecole in un gas producono su una generica funzione di distribuzione delle velocità, arrivando a scrivere un’equazione che esprime la variazione nel tempo della funzione di distribuzione. Trovata questa equazione, che oggi porta il suo nome, Boltzmann è in grado di dimostrare che le collisioni molecolari fanno evolvere una generica distribuzione delle velocità verso la distribuzione maxwelliana di equilibrio. In particolare è in grado di esprimere una certa quantità H, che dipende dalla funzione di distribuzione, che ha la proprietà di decrescere nel tempo a meno che la distribuzione non sia quella maxwelliana, nel qual caso H raggiunge un minimo stabile. Questo risultato è oggi noto come teorema H. Come Boltzmann illustra nell’articolo, nel caso di un gas all’equilibrio termodinamico H non è altro che l’entropia S con un segno meno davanti (H = - S). Nonostante l’entropia sia definita in termodinamica solo per stati di equilibrio, Boltzmann suggerisce che la funzione H possa essere considerata una generalizzazione dell’entropia anche in stati di non equilibrio. Quindi il teorema H è equivalente a stabilire che in un sistema isolato l’entropia cresce sempre fino a un massimo, come vuole il secondo principio della termodinamica. In tal modo la giustificazione della legge di distribuzione maxwelliana viene ricondotta alla generale tendenza dei sistemi complessi a evolvere in modo irreversibile verso l’equilibrio.
Molti punti della trattazione di Boltzmann rimangono problematici. Non è un caso che la giustificazione dell’equazione di Boltzmann e del teorema H sono ancora oggi oggetto di ricerche. Vale però la pena soffermarsi su un’obiezione che venne mossa al teorema H indipendentemente da Kelvin nel 1874 e da Joseph Loschmidt nel 1876. L’argomento di Kelvin e Loschmidt, oggi noto come paradosso della reversibilità, era il seguente. Le leggi della meccanica sono reversibili rispetto al tempo, cioè il moto di un qualunque insieme di particelle regolato dalle leggi della meccanica classica può essere fatto svolgere a ritroso (invertendo a un certo istante le velocità di tutte le particelle) e il moto a ritroso è ancora regolato dalle leggi della meccanica classica. Questo però sembra contraddire il teorema H. Infatti a un moto delle particelle che portano alla diminuzione di H dovrebbe corrispondere un moto a ritroso che porta a un aumento di H. Come si può allora affermare che H diminuisce sempre?
La risposta a questa obiezione si trova compiutamente espressa in una fondamentale memoria di Boltzmann del 1877, che sancisce la nascita della meccanica statistica. Abbandonando la descrizione dettagliata dei moti e delle collisioni tra atomi in un gas, Boltzmann si concentra sulla probabilità e la statistica. Gli N atomi contenuti in un certo volume di gas si muovono e urtano in modo irregolare. Supponiamo che l’energia (cinetica) totale del sistema abbia un certo valore E e dividiamo questo valore in parti discrete che sono multipli di un certo valore ε, cioè 0, ε, 2ε, 3ε, 4ε ecc. Ognuna di queste parti può essere pensata come una cella che racchiude gli atomi del gas che hanno quell’energia. Definire lo stato del gas significa quindi calcolare i possibili modi in cui gli N atomi si distribuiscono nelle celle. Gli urti tra atomi portano a continui salti da una cella all’altra. Tuttavia se in una certa distribuzione degli atomi nelle celle si prendono due atomi qualunque e li si scambia di posto (come avviene negli urti) i due stati (microscopici) del gas sono diversi, ma siccome il numero di atomi in ciascuna cella rimane invariato, lo stato complessivo (macroscopico) del gas non cambia. Per calcolare quindi la probabilità W di un macrostato del gas basterà contare i microstati che lo realizzano. Per comprendere questo punto basta osservare che è altamente improbabile che tutti gli atomi finiscano in un’unica cella mentre è molto più probabile che si distribuiscano in più celle. Nel primo caso infatti esiste solo un microstato che rappresenta lo stato del gas, nel secondo invece ce ne sono numerosi, tutti quelli ottenuti permutando atomi da una cella all’altra senza cambiare il numero di atomi contenuti nelle celle.
Boltzmann può quindi concludere che “lo stato di un sistema sarà, nella maggior parte dei casi poco probabile e il sistema tenderà sempre [a causa dei moti disordinati degli atomi] verso stati più probabili, fino ad arrivare allo stato più probabile (cioè all’equilibrio termodinamico). Se applichiamo questa idea al secondo principio della termodinamica, possiamo identificare l’entropia con la probabilità dello stato corrispondente. Se si considera allora un sistema isolato di corpi (il cui stato cioè può cambiare solo per interazioni tra i suoi costituenti), in virtù del secondo principio della termodinamica, l’entropia totale deve aumentare continuamente: il sistema non può che passare da uno stato dato a uno più probabile”.
Si può allora comprendere come Boltzmann risponda all’obiezione di Loschmidt. Tipicamente i processi irreversibili fanno passare un sistema da uno stato di non equilibrio (meno probabile) a uno stato di equilibrio (più probabile). Per invertire questo processo non basta invertire le velocità di un qualunque microstato all’equilibrio, perché questo condurrebbe nella stragrande maggioranza dei casi a un altro stato di equilibrio; è invece necessario scegliere, tra l’enorme numero di microstati che corrispondono allo stato di equilibrio, uno di quei rari microstati che sono il risultato dell’evoluzione da uno stato di non equilibrio e invertire le velocità di questo. Questo implica, come aveva notato Maxwell con il suo diavoletto, che l’entropia può decrescere violando il secondo principio della termodinamica, ma questa violazione è altamente improbabile. In questo senso lo statuto delle leggi che riguardano le proprietà dei sistemi complessi è diverso da quello delle leggi della meccanica, e la meccanica statistica acquista dignità di una nuova branca della fisica.
L’articolo del 1877 pone quindi le basi dell’autonomia della meccanica statistica dai modelli particolari della struttura degli atomi o molecole e delle loro interazioni, e dal tipo di meccanica che esprime le leggi fondamentali del moto. La piena autonomia della nuova teoria avrebbe richiesto ulteriori raffinamenti matematici e concettuali che saranno prima di tutto opera di Gibbs. Dopo Gibbs, già nei primi decenni del XX secolo, la meccanica statistica consoliderà la sua struttura formale dimostrando vaste possibilità applicative. Non a caso Einstein otterrà nel 1905 i suoi fondamentali risultati sul moto browniano e sui quanti di luce proprio sviluppando i metodi della meccanica statistica. Il successivo avvento della meccanica quantistica, pur mutando profondamente il quadro di riferimento della fisica, consoliderà l’approccio statistico. Alla distribuzione di Maxwell-Boltzmann si affiancheranno, tra il 1924 e il 1926, quelle di Bose-Einstein (per i bosoni come il fotone) e di Fermi-Dirac (per i fermioni come l’elettrone) essenzialmente legate al fatto che le regole di distribuzione di N particelle nelle celle dovranno tener conto della singolare proprietà delle particelle quantistiche di essere indistinguibili (quindi diverso è il conteggio dei microstati). Tuttavia l’impianto ottocentesco della teoria rimarrà sostanzialmente intatto, rivelandosi particolarmente fruttuoso nella teoria dei sistemi complessi, sia classici sia quantistici, e nel trasferimento di conoscenze tra fisica, chimica e biologia.