FISICA
(XV, p. 473; App. II, 1, p. 950; III, 1, p. 619).- L'articolo che segue è una sintesi delle idee fondamentali e dei princìpi che hanno segnato, nei primi decenni del secolo, il trapasso dalla f. classica alla f. moderna. È parso essere questo un ripensamento, in una visione unitaria, tanto più necessario e utile alla fine di un periodo che ha segnato in certo modo una stasi dello sviluppo della f. "fondamentale" e all'inizio di una fase che sembra viceversa aprire nuove prospettive, grazie anche agli ausili che offrono certi progressi della tecnica da un lato e della matematica (algebra e topologia in particolare) dall'altro.
Questa situazione della f. fondamentale non ha tuttavia impedito che molti e importanti settori particolari della f. si siano negli ultimi decenni vigorosamente e profondamente sviluppati, talvolta anche sotto la spinta di esigenze tecnologiche di primario rilievo. A ciascuno di questi settori abbiamo ritenuto opportuno dedicare singoli articoli. Così, nell'ambito della f. fondamentale il lettore potrà utilmente riferirsi a voci quali campi, teoria dei; elettrodinamica quantistica; quantistica, meccanica; e, per la f. nucleare, a neutrone; nucleo atomico; particelle elementari e antiparticelle. Nel campo della strutturistica della materia, voci come f. molecolare, f. dello stato liquido e f. dello stato solido, superconduttivitâ e superfluidità, cristalli liquidi e cristalli plastici, fanno il punto sulle ricerche e sulle relative applicazioni che hanno avuto sviluppo in questo campo nell'ultimo quindicennio. Abbiamo poi ritenuto opportuno riservare una serie di articoli anche alle questioni relative agli sviluppi, di così grande importanza nelle applicazioni, dell'ottica (dall'ottica non lineare, all'ottica delle particelle, all'ottica quantistica, all'olografia, al laser, al maser, alla spettroscopia). L'astrofisica, la biofisica, la f. spaziale, che si ricollegano a campi della ricerca non strettamente contenuti entro i confini della f. propriamente detta, sono state anch'esse oggetto di trattazione sotto i relativi esponenti. Abbiamo qui citato soltanto alcune voci, ma numerosi altri articoli in ambiti diversi, dalla biologia alla matematica, alle applicazioni tecnologiche più svariate, riprendono questioni e risultati e prospettive che hanno nella f. le loro radici o che a essa comunque si ricollegano (citiamo, per qualche esempio, le voci Bioingegneria; criogenia; elettronica; plasma; relatività; optoelettronica; semiconduttore; superradianza; ultrasuoni).
Introduzione. - I princìpi che condizionano e guidano i criteri imposti dall'obbiettività nelle osservazioni scientifiche, e quindi nell'interpretazione razionale dei fenomeni, hanno oggi, nella molteplicità delle conoscenze sulle proprietà fisiche e chimiche della materia, origini comuni. Difatti, dall'astrofisica alla biologia, queste conoscenze derivano da quelle acquisite sulla struttura degli atomi e da quelle generali sulla varietà delle interazioni energetiche che si esercitano fra le particelle subatomiche che costituiscono la materia in ogni sua manifestazione. Potrebbe così essere rievocata l'etimologia greca delle parole "fisica" e "fenomeno" intendendo con esse il divenire perenne dell'universo osservabile, indipendentemente da ogni confronto con le dimensioni umane, con la percettibilità individuale dei sensi o con questa potenziata dagli strumenti di misura.
Nelle discipline scientifiche è infatti metodo comune la conversione delle osservazioni in misure, ossia in numeri il cui significato è pertanto inequivocabile. Gli strumenti, quindi, non solo estendono dall'estremamente grande all'estremamente piccolo il mondo esterno, ma con le misure consentono, nella descrizione dei fenomeni, l'obbiettività dei numeri, che è assoluta, perché indipendente da chi osserva e da chi comunica le misure.
In questa universalità dei risultati conseguiti e trasmessi delle esperienze, è implicita conditio sine qua non la riproducibilità nel trascorrere del tempo dei fenomeni, siano essi indipendenti dalla volontà umana come il moto di un astro, o intenzionalmente suscitati come la luminosità di una lampada.
La riproducibilità dei fenomeni è perciò il primo principio della filosofia naturale ed è connesso alla concezione della continuità uniforme del tempo. A questa continuità, che è pensabile illimitata pre- e post- ogni intervallo fra due tempi comunque prossimi, fa riscontro quella equivalente per ogni estensione finita o infinitesima dello spazio, indipendentemente dalla geometria in esso pensabile per misurare lunghezze e distanze e definire le forme e le correlazioni spaziali dei corpi comunque osservabili. Spazio e tempo sono perciò concetti generali connessi alla comune esperienza della vita umana ma che è necessario definire fisicamente, cioè stabilendo come eseguire le misure di intervalli temporali e di dimensioni spaziali: premessa esplicita o sottintesa nella descrizione dei fenomeni.
Fenomeni macro- e microcosmici, il principio di causalità e quello di indeterminazione. - La variazione o transizione di un corpo P o di un sistema Σ di corpi da uno stato A a uno B diverso da A, si chiama un "fenomeno naturale" se gli stati A e B così correlati sono osservabili e, in quanto tali, risultano diversi.
Ogni stato deve perciò essere definito, nei limiti consentiti dalla precisione degli strumenti e dei corrispondenti errori sperimentali, con misure effettuate nel tempo necessario per osservarlo. Se t è il tempo richiesto per pervenire a determinare A e t + Δt quello occorrente per definire B, la transizione da A a B è avvenuta in un tempo minore o al massimo uguale a Δt. È escluso che sia Δt = o, ossia l'istantaneità dei fenomeni. Se t + Δt > t, la relazione fra l'osservazione di A e quella di B, per il verso umanamente attribuito al decorrere del tempo, può essere considerata quella di "causa-effetto" se c'è ragione di pensare che l'osservare A implichi necessariamente, dopo un tempo Δt, l'osservabilità di B. È questo un enunciato del "principio di causalità", equivalente a quello del "determinismo" classico, secondo il quale "stati, identici nei limiti degli errori sperimentali, causano il verificarsi di stati identici". Si può infatti ritenere che l'enunciato del principio di causalità fino da Galileo e Descartes, sia stato: "i sistemi isolati partendo da condizioni iniziali identiche, percorrono la stessa serie di eventi". Laplace, sintetizzando la f. meccanicistica, e perciò essenzialmente deterministica, dei secoli 17° e 18°, estese il principio di causalità al divenire di tutto l'universo, affermando: "noi dobbiamo considerare lo stato presente dell'universo come l'effetto del suo stato anteriore e come causa di quello che esso diverrà nel futuro".
La concezione deterministica è ancora valida per tutti quei fenomeni le cui leggi, come, per es., quelle dell'elettrodinamica di Maxwell, consentono di prevedere lo stato fisico B cui perverrà un sistema inizialmente osservato nello stato A, con l'unica incertezza implicita negli errori sperimentali delle misure.
Questi fenomeni si dicono "macroscopici" o "macrocosmici" per distinguerli da quelli "microcosmici " per i quali le misure delle grandezze che sono necessarie per definire lo stato di un sistema fisico Σ sono a priori subordinate all'"indeterminazione" causata dalle interazioni di Σ con gli strumeriti di misura. I prefissi "macro" e "micro" non ebbero nel passato questo uso specifico e furono usati più genericamente riferendosi all'estensione spaziale di un qualsiasi sistema. Questo avvenne particolamente nel confronto fra le dimensioni atomiche e quelle di corpi costituiti dal grandissimo numero di atomi connessi nelle strutture composte da insiemi di molecole o cristalli.
Oggi la dizione "microfisica" ha un significato meno generico per il "principio d'indeterminazione" di W. Heisenberg, che è una delle basi epistemologiche della f.: per esso è "microfisico" o "microcosmico" un fenomeno nel quale le interazioni con gli strumenti di misura (qualunque essi siano o si pensino, fino al limite di un'ideale perfezione, ossia esenti da errori sperimentali) sono tali da causare inevitabilmente, nelle grandezze che si misurano, variazioni a priori imprevedibili e non misurabili. Per es., non si può nemmeno concepire l'orbita di un elettrone legato in un atomo attorno al nucleo in analogia a come si pensa tracciata nello spazio planetario l'orbita di una cometa, perché ogni metodo escogitato per determinare la posizione dell'elettrone provocherebbe una variazione a priori indeterminabile e imprevedibile della velocità. Nella sua iniziale analisi, Heisenberg mostrò che il ricorrere, per localizzare l'elettrone a un immaginario microscopio avente apertura ottica e ingrandimento tali da compensare la piccolezza dell'estensione spaziale della carica dell'elettrone, avrebbe imposto di farlo investire da un'onda luminosa capace di trasmettere all'elettrone stesso un impulso di direzione e grandezza indeterminate, provocando così un'equivalente incertezza nella conseguente velocità di esso.
Nel caso di una cometa un'equivalente indeterminazione non esiste perché il prodotto della sua massa per la velocità, cioè la sua quantità di moto, è estremamente grande rispetto agl'impulsi dei singoli fotoni che globalmente determinano la "pressione di radiazione" che su di essa, secondo per secondo, esercita il Sole. Questi impulsi, in ogni intervallo di tempo misurabile sono numerosissimi e costituiscono il fascio di luce solare che investe la cometa. Rispetto al valore delle loro medie nel tempo e alle fluttuazioni statistiche di esse, l'impulso ceduto da un singolo fotone alla cometa è inosservabile.
La scala dimensionale delle grandezze, la cui misura è condizionata dalla interazione fra strumenti e sistemi fisici osservati, è quantitativamente definita dalla costante universale di Planck, che come si sa, vale h - 6,624•10-27 erg•sec. Come si vede dalle unità qui indicate, h ha le dimensioni (fisiche) di un'azione, cioè di un'energia moltiplicata per un tempo. Questo si può riconoscere dalla relazione fondamentale Eν = hν, dovuta a Planck, che dà l'energia di un "fotone" di frequenza ν. Le dimensioni fisiche di h sono anche quelle del prodotto di una quantità di moto per una lunghezza.
Nei fenomeni macrocosmici i corpi hanno masse ed estensioni così grandi e corrispondentemente energie globalmente così elevate da dover considerare nelle misure solo la valutabile incertezza dovuta alla statistica degli errori strumentali. Con strumenti idealmente perfetti questa incertezza non sussisterebbe.
Le grandezze, il cui prodotto ha le dimensioni (fisiche) di h, intervengono spesso a coppie nel caratterizzare lo stato di un sistema fisico e nel determinarne la fenomenologia.
Per quanto si è visto, ne sono esempi, sia per una particella come per un corpo di dimensioni macroscopiche, la quantità di moto p (o impulso) e la posizione (dell'uno o dell'altra) definibile entro una regione di spazio di estensione: (Δx, Δy, Δz) = Δr; oppure l'energia E e il tempo Δt durante il quale essa si conserva ed è misurabile; ecc.
Queste coppie di grandezze si dicono "coniugate" perché sono associate nell'evoluzione temporale del sistema. La loro misurabilità è condizionata a priori dal principio d'indeterminazione perché con esso si afferma che non è pensabile la misurazione simultanea senza indeterminazione nei valori di due grandezze coniugate nemmeno immaginando di disporre di strumenti e sensi perfetti, ossia prescindendo da qualsiasi errore sperimentale comunque piccolo. Quantitativamente il principio può essere enunciato come segue: l'incertezza nei valori di due grandezze coniugate p e q è dell'ordine di grandezza di h ed è reciproca in quanto p e q sono simultaneamente misurabili solo con incertezze Δp e Δq tali che il prodotto di esse è uguale o maggiore di h; cioè
Questo principio fu qualche volta frainteso, considerando che la concettuale impossibilità di effettuare contemporaneamente la misurazione esatta di due grandezze coniugate fosse equivalente alla negazione della prevedibilità dei fenomeni che è implicità nel significato di ogni legge fisica. Essa infatti deve sempre consentire di prevedere coi risultati delle misurazioni effettuate su un particolare stato iniziale A di un sistema fisico Σ, la probabilità del verificarsi, per Σ, di un altro stato B, in un certo intervallo di tempo. Sussiste però una differenza sostanziale fra la macro- e la macrofisica: nella prima l'alea d'incertezza nel verificarsi di B è esclusivamente determinata dagli errori sperimentali tanto che è stimabile e definita dalla valutazione statistica di essi. Conseguentemente, come si è detto, immaginando di disporre di strumenti perfetti la probabilità nelle previsioni di una legge fisica diverrebbe certezza nei limiti fissati da quella legge. Nella f. microcosmica, l'incertezza è invece causata dalle operazioni di misurazione perché insita nell'inevitabile interazione degli strumenti con Σ. È infatti immaginabile pensare di misurare con precisione assoluta una grandezza fisica pertinente allo stato iniziale A, ma non contemporaneamente quella coniugata che è necessaria per conoscere l'evoluzione temporale del sistema Σ. Le due possono essere simultaneamente misurate solo nei limiti di precisione consentiti dalla [1] e la probabilità del verificarsi di B è compatibile con questi limiti. La probabilità coincide quindi con l'alea di un'incertezza ineliminabile. Il significato di questa previsione probabilistica diventa particolarmente evidente quando si consideri la connessione fra il principio d'indeterminazione e il propagarsi nello spazio delle onde che L. de Broglie nel 1924 associò agli stati di ogni particella materiale d'impulso p = mv. Schrödinger e poi Heisenberg, dal 1925 al 1928, mostrarono che le onde di de Broglie determinano la probabilità che una particella possa raggiungere le posizioni a essa accessibili nei campi di forze cui è soggetta con l'impulso e con l'energia dovuti all'intensità e distribuzione di questi campi nello spazio. Infatti questa probabilità si calcola conoscendo in ogni punto (xyz) e in ogni istante t, l'ampiezza di una funzione Ψ(xyz, t) che per i valori via via assunti nello spazio al trascorrere del tempo, si può considerare come la propagazione di un'onda. Nell'evoluzione nello spazio-tempo di questa probabilità, cioè di Ψ(xyz, t), matematicamente si può vedere infatti il propagarsi di un'onda e per questo si chiama "ampiezza dell'onda di probabilità".
Le onde di De Broglie-Schrödinger e il principio d'indeterminazione. - Nel caso, che è il più semplice da immaginare e descrivere, di una particella il cui stato iniziale sia definito dall'impulso p -= mv, come può essere quello degli elettroni di un fascio controllato da campi elettrici, l'onda di probabilità ha una lunghezza d'onda
Se il fascio è lanciato perpendicolarmente contro uno schermo D con una fenditura A, gli elettroni che vi passano attraverso vengono sparpagliati, com'è indicato nella fig.1, cioè al di là di D. Se rivelati su un piano SS′, per es., con una emulsione fotografica, non arrivano solo nei punti allineati con A, ma si distribuiscono attorno alla direzione AP della figura.
Si potrebbe interpretare questo sparpagliamento in due modi. Classicamente pensando che alcuni elettroni, passando attraverso A, ne abbiano urtato i bordi e ne siano stati deviati; oppure, che ogni elettrone, comportandosi come un'onda di de Broglie, subisca una diffrazione similmente a un'onda luminosa. L'onda si estende allora attorno ad AP per un angolo α che in media ha un'ampiezza data da sen α ≈ h/(pd), dove d è la larghezza della fenditura A.
Quindi p sen α è l'ordine di grandezza dell'incertezza Δp suscitatasi nell'impulso di un elettrone nell'attraversare A. Nello stesso tempo d ≈ Δx è l'incertezza nella corrispondente posizione dell'elettrone. Il prodotto è p sen α•d ≈ Δp•Δx ≈ h, come nella [1]. Se allora si considera il diagramma SPS′ come quello della probabilità che un elettrone attraversi la fenditura A e arrivi in un punto del piano SS′, dove è rivelato, si comprende la connessione fra le onde di De Broglie come onde di probabilità e d'indeterminazione.
La probabilità nelle leggi fisiche. - La valutazione statistica degli errori e la conseguente stima delle misure determinano i limiti dell'attendibilità dei risultati delle esperienze; e quindi della validità attribuibile alle leggi fisiche e alle previsioni quantitative che esse formulano. Conseguentemente, queste leggi non esprimono una certezza, ma una probabilità che può essere (e per es. è, nella dinamica e nell'elettrodinamica dei corpi macroscopici) così elevata da equivalere alla certezza. La sostituzione di questa pratica certezza all'elevatissima probabilità, era perciò un retaggio secolare nella filosofia delle leggi della f. classica ed era stata l'origine del determinismo insito aprioristicamente in questa filosofia col principio di causalità.
Nella f. attuale, il concetto di probabilità condiziona la prevedibilità di un fenomeno macrocosmico come nella f. classica, ma quando il fenomeno è microcosmico per le dimensioni delle grandezze fisiche coniugate che lo caratterizzano, la probabilità lo condiziona in modo del tutto diverso, per il principio Heinsenberg e la connessione tra esso e le onde di de Broglie. La differenza è nell'indeterminazione insita a priori nelle misure simultanee di due variabili coniugate che condiziona la probabilità che una particella, per es. un elettrone, osservata nei limiti di quelle misure in uno stato iniziale A, sia successivamente rivelabile in uno stato finale B. Per indicare come questa indeterminazione sia connessa alle onde di probabilità, si può ricorrere a uno degli esempi dati da Heisenberg (vedi W. Heisenberg, I principi fisici della teoria dei quanti, trad. it., Torino 1953). L'esempio può servire anche per mettere in evidenza la similarità nel comportamento fisico tra due tipi di particelle elementari: il fotone e l'elettrone.
Per semplicità si consideri, come precedentemente, un fascio, per es., di fotoni o di elettroni, che, con intensità uniforme, investa perpendicolarmente un diaframma D dotato di due sottili fenditure A e B, com'è indicato nelle figg. 2a e 2b. Al di là del diaframma sia posto uno schermo S, così eccellente nella sua struttura fisica da rivelare singolarmente i punti nei quali può essere via via colpito da un fotone o un elettrone incidente. Ai limiti di un'ipotetica perfezione tecnica, si può pensare per questo di utilizzare una lastra fotografica di grana così fina e di tale potere risolutivo da impressionarsi per ogni granulo colpito da un fotone o un elettrone. Si può osservare in tal modo come si distribuiscono i fotoni o gli elettroni in arrivo sulla lastra, quando il fascio incidente, o perché molto intenso, o perché mantenuto a lungo, ne abbia inviati, attraverso le fenditure, un numero estremamente elevato.
S'inizi con una sola delle fenditure aperta. Se la durata dell'esposizione è sufficientemente prolungata fino ad avere un numero di grani impressionati così grande da poter considerare che la distribuzione di essi varii solo per fluttuazioni statistiche, questa distribuzione è quella indicata dai diagrammi delle figure 2a e 2b, i cui massimi sono sulle linee che vanno dalle fenditure allo schermo S. Nei due casi attorno ai massimi d'intensità, i diagrammi mostrano un'estensione simmetrica perché il fascio di particelle, siano essi fotoni o elettroni, è fisicamente equivalente a una serie di onde piane perpendicolari al fascio stesso e progredenti, col flusso delle particelle, fino al diaframma. Le onde sono elettromagnetiche per i fotoni, di De Broglie per gli elettroni. La fenditura provoca così una diffrazione delle onde che dà origine alla diffusione attorno ai massimi.
Se l'esperienza fosse ripetuta a intervalli di tempo Δt minori di quello impiegato da un fotone o da un elettrone per passare dalla sorgente alla lastra, ogni volta s'impressionerebbe un solo granulo, ma attendendo un tempo t sufficientemente grande, i granuli si distribuirebbero statisticamente e la transizione del fenomeno nel tempo coinciderebbe con le previsioni relative alla propagazione delle onde, secondo le equazioni di Maxwell per i fotoni o della meccanica ondulatoria per gli elettroni. In queste condizioni, la probabilità degli eventi prevedibili interviene conformemente al determinismo dei fenomeni macrofisici.
Riesaminiamo ora l'esperimento supponendo contemporaneamente aperte entrambe le fenditure A, B.
Se nel fascio incidente fotoni o elettroni s'inseguissero a intervalli di tempo Δt e perciò si comportassero come delle minuscole biglie indipendenti, dirette normalmente al diaframma, passerebbero alternativamente o per A o per B e collidendo coi bordi delle fenditure, ne sarebbero deviate così da poter giustificare l'andamento delle curve delle figure 2a e 2b. Essendo A e B contemporaneamente aperte, secondo la f. classica ogni biglia avrebbe una probabilità di distribuirsi sulla lastra secondo una di queste curve, e nel tempo sufficientemente lungo t il risultato sarebbe la somma dei due diagrammi. Ma questa previsione non è confermata dall'esperienza. In realtà, sulla lastra si osserverebbe un diagramma dell'intensità come quello della fig. 2c, che è tipico del fenomeno d'interferenza.
Per le onde luminose, questo fenomeno fu osservato proprio con due fenditure parallele da Th. Young nel 1802 e fu premessa alle classiche esperienze iniziate da A. J. Fresnel pochi anni dopo. Ed è in un certo senso naturale che si verifichi con le onde elettroniche; ma la concezione delle prime come delle seconde, è per i fotoni e gli elettroni, come enti fisici in sé stessi osservabili, essenzialmente diversa da quella connessa al determinismo della f. classica e alla condizionata estensione di essa nella macrofisica.
Per rendersene ragione, riesaminiamo l'esperimento con le due fenditure aperte immaginando (il che è anche in realtà possibile) il fascio incidente così attenuato da avere nel tempo Δt una sola particella in transito tra la sorgente e lo schermo S. Si può determinare il punto di S nel quale la particella arriva, ma non è assolutamente possibile prevedere la posizione di questo punto. Solo in un tempo t ≫ Δt, quando un numero notevole n di particelle avrà colpito S, la distribuzione dei punti colpiti sarà come quella della fig. 2c (con le fluttuazioni statistiche consentite dal grande valore di n) ma per ogni singolo fotone o elettrone si può assegnare solo la probabilità che esso colpisca S in un dato punto. Questa probabilità è proporzionale all'intensità espressa dal diagramma della fig. 2c. Quindi per ogni particella transitante dalla sorgente allo schermo S, la probabilità che il suo arrivo venga rivelato in un punto di S, è determinata dal propagarsi dell'onda cui la particella è associata e che interferisce con sé stessa dopo essere emersa dalle due fenditure.
Poiché per fotoni monocromatici o elettroni con impulsi uguali le onde di probabilità di ognuno di essi si propagano in modo identico, con un fascio intenso degli uni o degli altri le interferenze si ripetono in modo identico e le particelle colpiscono statisticamente S in punti che si distribuiscono così da tracciare, su S, le frange d'interferenza tipiche della propagazione per onde della f. macrocosmica così coincidente con la classica.
La complementarietà onda-corpuscolo. - Qualche confusione ulteriore potrebbe sorgere pensando d'identificare la particella con la corrispondente onda di probabilità; ossia se si prescindesse da come la prima può essere fisicamente definita; cioè rivelabile con misurazioni che ne caratterizzano lo stato. Quando si eseguono queste misurazioni, per la stessa origine del principio d'indeterminazione lo stato cambia e si trasforma in uno diverso. Per es. se per individuare la posizione di un elettrone si pensa d'illuminarlo osservando la luce da esso diffusa, l'elettrone per questo interagisce con almeno un fotone, assorbendone parte dell'impulso. L'elettrone passa così in un nuovo stato d'impulso e posizione diversi da quelli inizialmente osservati con l'indeterminazione specificata dalla [1]. È quindi fisicamente un altro elettrone rispetto a quello iniziale e la carica elettrica identica dei due non è discriminante perché essa si conserva rigorosamente in ogni interazione. Lo stato di una particella come onda ne prevede la probabilità di osservarla in una regione di spazio a un certo tempo, indipendentemente dalle condizioni particolari seguibili per rivelarla. Quindi l'onda di probabilità è "complementare" allo stato connesso alla sua posizione, la sua carica, ecc. Per queste grandezze misurabili e localizzabili nell'ambito di regioni di spazio condizionate dal principio d'indeterminazione, le particelle materiali si chiamano per consuetudine "corpuscoli". Così anche la complementarietà dei due aspetti, corpuscolare e ondulatorio, delle particelle che costituiscono la materia è da considerarsi un principio fondamentale della fisica. Esso, che concilia il principio d'indeterminazione con la prevedibilità - requisito necessario di ogni legge fisica -, fu enunciato da N. Bohr nel 1935.
Riproducibilità o invarianza spazio-temporale dei fenomeni. - Il principio d'indeterminazione non pregiudica la prevedibilità obbiettiva dei fenomeni nel tempo, essenziale nella fisica. In quelli macroscopici, l'osservazione di uno stato A implica il necessario verificarsi di uno stato B al tempo t + Δt, indipendentemente dal particolare tempo t al quale è stata compiuta l'osservazione di A. In quelli microcosmici, con la stessa indipendenza dal tempo dell'osservazione iniziale, è definita e prevedibile, la probabilità di osservare B al tempo t + Δt.
Negli uni e negli altri, le correlazioni fra i due "eventi" A e B dipendono solo dall'intervallo di tempo Δt che intercorre fra l'osservazione dei due e non dall'istante nel quale si verifica il primo di essi.
È questa indipendenza dal tempo iniziale t (particolarmente constatabile nei fenomeni macroscopici più semplici, come l'oscillazione di un pendolo o il moto di un pianeta) che esprime la riproducibilità dei fenomeni ed è da intendersi come l'invarianza di essi rispetto alle traslazioni temporali quando si consideri il tempo come una variabile continua unidimensionale.
L'invarianza dei fenomeni, indipendentemente dal loro trascorrere nel tempo, si estende a regioni diverse dello spazio dove essi avvengono o possono verificarsi e siano comunque accessibili con i mezzi impiegati per osservarli e misurarli. Questa invarianza è connessa alla omogeneità e isotropia che sono proprie a priori del concetto di spazio vuoto e infinitamente esteso. Esse non sono contraddette dall'osservazione di alcun fenomeno. Questa stessa invarianza esclude anche che possano essere diversi fenomeni originati da stati iniziali osservabili come identici e svolgentisi in regioni dello spazio che sono diverse per come sono in esse collocati, vicini e lontani, corpi che non partecipano al fenomeno stesso. Che l'invarianza spazio-temporale dei fenomeni naturali sia un pressoché ovvio, ma necessario, presupposto della filosofia scientifica è evidente nelle frasi che seguono di E. P. Wigner e di H. Poincaré.
"Se le correlazioni spazio-temporali fra gli avvenimenti mutassero di momento in momento e fossero diverse in punti diversi dello spazio, sarebbe impossibile scoprirle". (E. P. Wigner, 1963). ".... ce qui est objectif doit être connu à plusieurs esprits, et par conséquant pouvoir être transmis de l'un à l'autre". (H. Poincaré, 1929).
Relazioni fra fisica macrocosmica e microcosmica. - L'invarianza obbiettiva dei fenomeni stabilita dalla riproducibilità di essi, ebbe nell'enunciato classico del principio di causalità il principale motivo di critiche sul principio di Heisenberg e quindi sull'interpretazione dei fondamenti concettuali della meccanica quantistica o microcosmica. In un articolo del 1935 (Phys. Rev. vol. 47, p. 777) anche Einstein, con Rosen e Podolsky, espresse queste critiche formulando un paradosso basato su un esempio concernente l'osservabilità nel tempo di un sistema fisico (inizialmente una molecola costituita da due atomi uguali con spin opposto e quindi in totale nullo) che contraddiceva il principio d'indeterminazione. Questa critica fu superata poco dopo da N. Bohr (Phys. Rev. vol. 48, p. 696; 1935) e da W. H. Furry (Phys. Rev. vol. 49, p. 393; 1936) i quali mostrarono che nella critica si facevano sull'osservabilità degli stati di un sistema ipotesi in antitesi con i principi della meccanica quantistica. Questo perché nel paradosso di Einstein, Rosen e Podolsky si assumeva che lo stato di un sistema può essere correttamente analizzato in elementi corrispondenti a quantità matematicamente definibili con assoluta precisione. Ma questa corrispondenza biunivoca tra formulazioni matematiche ed elementi della realtà fisica è caratteristica dell'ipotetico limite di precisione raggiungibile nella f. macroscopica. Nella meccanica quantistica la descrizione matematica data dalle funzioni d'onda non è in corrispondenza biunivoca col sistema descritto, ma solo in una corrispondenza statistica. La distinzione fra f. macro- e microcosmica si considera spesso coincidente con quella fra classica e quantistica per il valore della costante universale h. Questo è genericamente corretto perché un fenomeno di un sistema fisico macroscopico Σ quasi sempre implica delle variazioni ΔEi nelle energie (cinetiche e potenziali) dei corpi che vi partecipano e che avvengono in intervalli di tempo Δti tali che per ogni corpo Pi di Σ il prodotto ΔEi•Δtt è estremamente grande rispetto ad h. "Estremamente grande" significa che h, rispetto agli errori strumentali nelle misurazioni necessarie per determinare le grandezze che caratterizzano gli stati di Σ, è totalmente trascurabile. Quindi h non deve intervenire esplicitamente nell'espressione di alcuna di quelle grandezze. È perciò assente anche nella formulazione delle leggi di tutti i fenomeni macrocosmici e la determinatezza causale di questi è del tutto indipendente dal valore di h.
È forse sufficiente per convincersene fare con un esempio un confronto numerico. Una pietra di un chilogrammo che cade, nel primo secondo aumenta per gravità la sua energia di circa mezzo miliardo di erg. Un atomo di sodio che emetta un fotone della sua caratteristica luce gialla, in un tempo Δt ≈ 10-8 sec (vita media di un atomo eccitato) perde un'energia ΔE ≈ 3•10-12 erg. Il prodotto ΔE•Δt è qui qualche milione di volte più grande di h, ma è circa 1028 volte minore dell'energia acquistata in un secondo dalla pietra. Un simile confronto potrebbe farsi considerando accanto alle due variabili energia-tempo le altre coppie di variabili "coniugate", nella dinamica classica, attraverso le equazioni di Hamilton; in particolare con le coordinate spaziali e i corrispondenti momenti o impulsi. Com'è stato detto precedentemente, sono queste le variabili che descrivono l'evoluzione nel tempo di un sistema fisico da uno stato A a un altro B. Esse si possono chiamare "variabili causali" sia nella macro- come nella microfisica qualora nella prima la previsione di B si consideri determinata dalle misurazioni eseguite su A; mentre nella seconda la previsione consiste nella conoscenza della probabilità che B si verifichi avendo osservato A e quindi è statistica. Però il valore di h è così piccolo, da escludere che l'indeterminazione fra le coppie di variabili coniugate abbia alcuna connessione con le leggi della f. classica, pur avendo queste una coerente estensione in quelle della f. microcosmica; per es. nelle operazioni di misurazione con gli strumenti e nell'interpretazione dei risultati così ottenuti e nei concetti che derivano da quello di campo di forza.
Invarianze e simmetrie nei principi e nelle leggi fisiche. - L'invarianza spazio-temporale dei fenomeni naturali, cioè il loro ripetersi col trascorrere del tempo e in luoghi diversi, è ritenuta la prima e necessaria condizione per considerarli realtà obbiettiva. Per questa invarianza è da attribuire al tempo una continuità uniforme, ossia ammettere l'identità di due intervalli temporali uguali qualsiasi indipendentemente dal tempo decorso fra i due; e allo spazio un'omogeneità e isotropia in tutta l'estensione di esso. Inoltre nello spazio al ripetersi ordinato secondo direzioni o distanze diverse, di figure o forme identiche e non intercalate fra esse in modo casuale e accidentale, si associa, nell'ambito della geometria usata per definire angoli e distanze, il concetto di "simmetria". Quanto esso sia congeniale alla natura umana lo mostrano, per es., gli archi e i settori radiali dei rosoni che s'inquadrano nelle facciate dei templi, delle chiese e dei palazzi o i merli sovrastanti le mura di castelli e di torri. Ma questa esigenza spirituale è ancora più evidente nella ricerca dell'essenziale semplicità perseguita da sempre nel descrivere i fenomeni naturali. In questi ogni pensabile simmetria significa che quando nel corso di un fenomeno lo stato di un sistema cambia in un determinato e riproducibile modo, nello stesso sistema c'è una parte o un aspetto che rimane invariato. È perciò immediato collegare il concetto di "simmetria" a quello di "invarianza", svincolandosi da ogni particolare geometria o più in generale dallo spazio-tempo. Nella simmetria del cerchio c'era per i Greci l'eterna perfezione dei moti nel cielo, ma oggî nelle leggi e nei principi della f. spesso l'invarianza è indipendente dallo spazio. Ne sono un esempiò alcuni dei princìpi conservativi. Tuttavia a "invarianza" e "conservazione" in questi princìpi si dà un'interpretazione diversa. Invarianza è, in modo più specifico, quella delle leggi che non cambiano variando le condizioni spazio-temporali, o più in generale fisiche, iniziali. Ne è uno splendido esempio l'uso dell'invarianza delle equazioni di Maxwell rispetto alle trasformazioni spazio-temporali di Lorentz, fatto da Einstein per estendere, con la relatività ristretta, a tutti i fenomeni, l'invarianza galileiana spazio-temporale. Un principio conservativo afferma invece che una certa grandezza fisica non cambia in qualsiasi possibile fenomeno fisico, com'è, per es., per la carica elettrica. Naturalmente ogni principio conservativo è fondato su una legge d'invarianza che può anche essere connessa all'intrinseca simmetria attribuita a priori allo spazio-tempo. Ne è un classico esempio quello della conservazione della quantità di moto. Essa deriva dall'omogeneità dello spazio-tempo e quindi dall'invarianza, rispetto ai riferimenti spaziali usati, nel localizzare le posizioni dei corpi in movimento. Analogamente, la conservazione del momento angolare di un sistema isolato è necessaria conseguenza dell'isotropia dello spazio, cioè della totale equivalenza in questo di una direzione rispetto a un'altra. Nella f., per l'estensione che è avvenuta nell'evoluzione del concetto di simmetria è opportuno distinguere con E.P. Wigner (Simmetries and reflections, 1970) fra "invarianze geometriche" e "invarianze dinamiche". Le prime sono essenzialmente formulabili in termini di eventi spazio-temporali; le seconde introducendovi insieme delle specifiche grandezze fisiche che possono anche non avere un'esplicita connessione con lo spazio-tempo. Di queste è un classico esempio l'invarianza delle interazioni elettromagnetiche rispetto alle trasformazioni dette "di gauge", che non discendono direttamente dalla continuità della corrente elettrica.
Le invarianze geometriche sono oggi conglobate nell'invarianza dei fenomeni fisici rispetto alle trasformazioni raccolte nel cosiddetto "gruppo di Poincaré". È questo un gruppo a dieci parametri e quindi a esso corrispondono dieci invarianze delle quali le più comunemente note sono quelle della conservazione dell'energia e dell'impulso rispetto alle traslazioni spazio-temporali. Nelle simmetrie dinamiche invece non c'è, o non'è stata ancora raggiunta, la semplicità essenziale cui pervenne, per es., Einstein estendendo l'invarianza galileiana a quella condensata nel gruppo di Poincaré.
Forse ciò è dovuto all'attuale mancanza di una sintesi che colleghi le interazioni fondamentali. Esse sono attualmente quattro e si diversificano nelle invarianze e nei princìpi conservativi. Scalate secondo le intensità relative, sono, nella macro- e microfisica, le gravitazionali e le elettromagnetiche, e poi, tipiche della f. delle particelle cosiddette elementari, le forti e le deboli. Alle prime è, in particolare, dovuta la stabilità dei sistemi astrofisici e a quelle elettromagnetiche la composizione degli atomi, dei cristalli e delle molecole. Inoltre, mentre le interazioni forti sono l'origine della struttura stabile dei nuclei atomici, le deboli sembrano non intervenire in modo determinante a costruire e mantenere insiemi di particelle elementari. Alle deboli sono infatti essenzialmente da ascrivere i decadimenti leptonici, come, per es., quelli β del neutrone e dei nuclei, e l'emissione dei neutrini dalle stelle poi diffusi nell'universo.
Per ragioni, almeno fino a oggi incomprensibili, le quattro interazioni fondamentali presentano proprietà di simmetrie dinamiche diverse. Per es., mentre le leggi delle interazioni forti sono invarianti rispetto al gruppo di Poincaré quando sia esteso con la riflessione spaziale, e la coniugazione di carica (cioè con la transizione dalla particella all'antiparticella) le interazioni deboli violano questa es tensione.
Similmente non è affatto comprensibile la diversità nelle simmetrie che operano su quelle grandezze come lo spin isotopico e l'ipercarica definibili indipendentemente dallo spazio-tempo e che caratterizzano molte particelle elementari a eccezione dei fotoni, degli elettroni e dei neutrini.
Così negli ultimi anni, alla ricerca delle proprietà di simmetria delle interazioni fondamentali e ai tentativi per comprenderle e sintetizzarle, estendendone la validità a leggi per ora essenzialmente diverse, si è orientata la fisica. E questo anche per poter riconoscere nel mondo della Natura l'armonia che è intrinseca alla mente umana.
Bibl.: W. Heisenberg, Die Physikalischen Prinzipien der Quantentheorie, Lipsia 1930; id., Mutamenti nelle basi della scienza, Torino 1944; W. Pauli, L. Rosenfeld, V. Weisskopf, Niels Bohr and the development of physics, Londra 1955; W. Pauli, Fisica e conoscenza, Torino 1964; V. Acosta, C. L. Cowan, B. J. Graham, Essential of modern physics, Londra e New York 1973; G. Gamow, Biografia della fisica (trad. it.), Milano 19745; P. Caldirola, Dalla microfisica alla macrofisica, ivi 1974; B. Ferretti, Fisica, in Enciclopedia del Novecento, Roma 1976; E. Segrè, Personaggi e scoperte sulla fisica contemporanea. Contributo del Centro Linceo interdisciplinare di scienze matematiche e loro applicazioni, n. 27, ivi 1976 (con ricca bibliografia).