La seconda rivoluzione scientifica: fisica e chimica. I quanti e il mondo dell'infinitamente piccolo
I quanti e il mondo dell'infinitamente piccolo
Secondo P.A.M. Dirac (1902-1984) l'affermarsi della meccanica quantistica negli anni Venti determinò una vera epoca d'oro per la fisica teorica e condusse a una comprensione dei fondamenti di gran parte della fisica e della chimica nel suo complesso. Gli anni Trenta videro un'espansione sistematica e una progressiva utilizzazione di questa teoria, che fu applicata agli atomi con molti elettroni, alle molecole, alla materia condensata e al nucleo dell'atomo. Un altro ambito in cui si realizzò un considerevole sviluppo negli anni Trenta fu la teoria della diffusione e lo studio dell'interazione di radiazione e particelle cariche veloci con la materia, vale a dire l'elettrodinamica quantistica. Sempre in fisica si registrarono progressi, a livello fenomenologico, nello studio degli effetti macroscopici della meccanica quantistica, ossia nei settori della superfluidità e della superconduttività.
Nel 1930 l'ontologia del mondo dell'infinitamente piccolo era dominata dallo sforzo di imporre un semplice modello base, nel quale la materia era costituita da due sole particelle materiali ‒ l'elettrone (con carica elettrica negativa) e il protone (con carica elettrica positiva) ‒ che interagivano per mezzo di forze elettriche e magnetiche. Si ipotizzava, per un nucleo con numero di massa A, una composizione di A protoni e (A−Z) elettroni, in modo da ottenere un nucleo con numero di carica Z. In un atomo neutro, Z elettroni orbitali avrebbero poi neutralizzato la carica elettrica nucleare. Tuttavia questo schema, applicato ai nuclei atomici, presentava diversi aspetti contraddittori. Molti fisici erano convinti che la soluzione di questi problemi avrebbe richiesto una nuova teoria dinamica o, almeno, una generalizzazione della meccanica quantistica.
Invece, negli anni Trenta, la scoperta di nuove particelle iniziò a fornire un aiuto per superare alcune delle difficoltà più importanti. Nel 1932 furono scoperti il neutrone, il positrone e il deutone (il nucleo dell'idrogeno pesante). Nello stesso anno i fisici sperimentali produssero reazioni nucleari utilizzando protoni e deutoni accelerati artificialmente e Wolfgang Pauli (1900-1958) ipotizzò l'esistenza di un'altra particella molto leggera, il neutrino, per giustificare l'energia che sembrava mancare nel processo di decadimento beta dei nuclei.
Carl D. Anderson (1905-1991) riuscì a rilevare un elettrone con carica elettrica positiva, o positrone, mediante una camera a nebbia, funzionante in un campo magnetico ed esposta ai raggi cosmici. Nel 1931 Dirac aveva predetto, sulla base della sua equazione d'onda relativistica per l'elettrone, proposta nel 1928, che una coppia elettrone-positrone poteva essere prodotta dalla materializzazione di un fotone con energia sufficiente in presenza di un nucleo atomico. In ragione delle somiglianze fra l'elettrone e il protone, si ipotizzò che esistessero anche protoni di carica negativa, gli antiprotoni; di conseguenza diveniva possibile l'esistenza di una nuova forma di materia, chiamata antimateria (che avrebbe richiesto più di cinquant'anni per essere prodotta sperimentalmente).
Negli anni Trenta stavano emergendo due delle idee più importanti che avrebbero dominato l'epoca del secondo dopoguerra: il concetto di simmetria e l'unificazione delle forze. Dopo il 1932 il semplice schema unificato di elettroni, protoni e forze elettromagnetiche fu abbandonato a favore di uno scenario completamente nuovo. Il concetto di simmetria era già apparso nell'ambito delle teorie di gruppo applicate alla struttura degli atomi, delle molecole e dei cristalli. Ora, in aggiunta, i fisici dovevano considerare la nuova simmetria relativistica dell'elettrone e del positrone, e la simmetria parziale del neutrone e del protone, che in seguito fu possibile interpretare in modo più generale con l'introduzione della simmetria di isospin.
I problemi legati alla simmetria giocano un ruolo importante specialmente nella meccanica statistica quantistica, che tratta le proprietà di sistemi di particelle identiche come, per esempio, gli elettroni in un metallo. Ciascuna particella possiede un momento angolare intrinseco, o spin (così chiamato perché può essere considerato analogo al movimento rotatorio di una trottola), di valore s(h/2π), dove h=6,626×10−34 Js è la costante di Planck. La quantità s, chiamata numero quantico di spin, può assumere i valori interi 0,1,2,…, o semiinteri 1/2, 3/2, 5/2, … Le particelle con spin semiintero, come gli elettroni, i protoni e i neutroni, sono soggette alla statistica di Fermi-Dirac e sono chiamate fermioni. Le particelle con spin intero (per es., il fotone, che ha spin 1) sono soggette alla statistica di Bose-Einstein e sono chiamate bosoni. Un insieme di fermioni identici deve soddisfare il principio di esclusione di Pauli e i fermioni tendono quindi a ripartirsi in diversi livelli energetici, come avviene negli atomi e nei nuclei. Al contrario, nel caso di un insieme di bosoni identici, le particelle hanno la tendenza a occupare tutte lo stesso stato collettivo, come accade per esempio nei laser e nell'elio liquido superfluido.
Benché non fosse necessaria nessuna nuova teoria rivoluzionaria come la meccanica quantistica per la spiegazione dei nuovi fenomeni osservati negli anni Trenta, i fisici teorici si impegnarono molto nello sviluppo delle teorie di campo quantistiche, come la teoria di Fermi del decadimento beta, l'elettrodinamica quantistica (QED, quantum electrodynamics) e una possibile teoria di campo fondamentale delle forze nucleari. La QED si rivelò molto appropriata per trattare i processi che avvengono a energie relativamente basse, ma il tentativo di estrapolare questa teoria alle alte energie risultò impossibile, poiché si ottennero predizioni assurde di valori infiniti per la massa e la carica.
Al di là dei problemi di definizione della teoria dal punto di vista matematico, era assolutamente indispensabile una risoluzione dei problemi di alta energia, in modo che la QED potesse essere utilizzata nell'interpretazione delle interazioni dei raggi cosmici con l'atmosfera. Un fisico teorico giapponese, Hideki Yukawa (1907-1981), mentre lavorava a una teoria di campo quantistica delle forze nucleari, comprese che la distanza sulla quale una forza di scambio è attiva (ossia il suo raggio di azione) dipende dalla massa della particella che viene scambiata. Su queste basi, Yukawa nel 1934 ipotizzò che le interazioni forti nucleari fossero mediate da particelle cariche di massa ca. 200 volte maggiore di quella dell'elettrone (quanti pesanti).
Quando nel 1936 due fisici del Caltech, Anderson e Seth Neddermeyer, individuarono nei raggi cosmici particelle positive e negative compatibili con questa descrizione, la teoria di Yukawa acquisì una notevole popolarità all'interno della comunità scientifica. Le nuove particelle instabili osservate nei raggi cosmici, che decadevano con tempi di vita media dell'ordine del microsecondo, furono chiamate elettroni pesanti, sebbene fossero indicate anche con altri nomi: mesoni, mesotroni e, infine, muoni. Furono necessari circa dieci anni per determinare il loro spin e le loro proprietà e, soprattutto, per chiarire se queste particelle fossero realmente i quanti pesanti postulati da Yukawa.
Gli anni dal 1935 al 1960 videro la nascita della moderna fisica delle particelle elementari. Durante gran parte di questo periodo ciò che oggi si chiama fisica delle particelle elementari era conosciuta con il nome di fisica nucleare delle alte energie. Fino al 1953 ca. la maggior parte delle scoperte di nuove particelle avvenne per mezzo degli esperimenti con i raggi cosmici, utilizzando come rilevatori camere a nebbia, griglie di contatori ed emulsioni nucleari, e anche combinazioni di questi strumenti. Acceleratori di particelle in grado di produrre mesoni entrarono in funzione alla fine degli anni Quaranta ed entro la metà degli anni Cinquanta acquisirono un ruolo dominante nel campo della fisica nucleare di alta energia, poiché tali acceleratori erano in grado di produrre fasci di particelle esterni di alta intensità e di energia controllabile.
L'indagine della quasi totalità dei fenomeni fisici coinvolge direttamente o indirettamente la radiazione elettromagnetica e la relativa teoria risultava indispensabile per la fisica atomica. Nonostante l'introduzione, nel 1905, da parte di Albert Einstein del quanto di luce, la radiazione elettromagnetica continuò a essere trattata il più classicamente possibile sino alla fine degli anni Venti a causa delle riserve che circondavano il concetto di fotone. In termini pratici, questo significava affidarsi al metodo semiclassico basato sul principio di corrispondenza di Bohr. Nel 1927 Dirac introdusse l'elettrodinamica quantistica, vale a dire una teoria in cui quanti di luce interagivano con elettroni descritti dall'equazione relativistica di Dirac. Dopo aver suddiviso il campo elettromagnetico in interazione coulombiana statica e radiazione polarizzata trasversalmente, Dirac procedette alla quantizzazione della sola parte radiativa del campo.
Nel 1929 Werner Heisenberg (1901-1976) e Pauli svilupparono un'elettrodinamica quantistica in forma relativisticamente covariante, nella quale sia gli elettroni sia i fotoni erano derivati a partire da campi quantistici e le componenti longitudinale e temporale del campo elettromagnetico, dopo essere state quantizzate, venivano combinate assieme per riprodurre l'interazione coulombiana.
Nel loro lavoro i due scienziati incontrarono per la prima volta il problema dei valori infiniti di massa e carica (le divergenze) che avrebbe rappresentato per i vent'anni successivi la 'spina nel fianco' della QED, mostrando che la teoria presentava un comportamento non accettabile nel regime delle alte energie. Soluzioni pratiche ad alcuni problemi fisici venivano ottenute per mezzo di uno sviluppo perturbativo in potenze della carica elettrica e o, più precisamente, della costante di struttura fine α=eh/2πmc≈1/137. Benché il valore ridotto di α fosse ritenuto una giustificazione per lo sviluppo perturbativo, i termini correttivi risultavano in realtà infiniti, rendendo l'intera procedura mal strutturata dal punto di vista matematico. Lo stesso difetto si riscontrava nella teoria di Fermi del decadimento beta: la sua costante di accoppiamento era molto più debole, ma le divergenze erano anche peggiori. Di conseguenza in entrambe le teorie i calcoli venivano eseguiti soltanto all'ordine più basso dello sviluppo perturbativo, ignorando del tutto i termini correttivi.
Nonostante le sue limitazioni, la QED fu applicata a una grande quantità di fenomeni atomici e largamente utilizzata per interpretare persino processi nel regime delle alte energie, come quelli che avvenivano nei raggi cosmici. Sono da ricordare la diffusione Compton e i fenomeni di sciame, vale a dire la Bremsstrahlung (radiazione di frenamento), la produzione e l'annichilazione di coppie, che contribuivano alla formazione dei grandi sciami a cascata dei raggi cosmici. Sebbene le divergenze continuassero a creare difficoltà nelle teorie quantistiche di campo, i fisici teorici progredirono evitando le divergenze peggiori (le divergenze in energia erano classificate come logaritmiche, lineari, quadratiche ecc., e gli infiniti logaritmici risultavano relativamente trattabili).
Le divergenze nascono quando termini di più alto ordine in α vengono inclusi nello sviluppo perturbativo della probabilità di un determinato processo fisico. Per esempio, l'emissione e il riassorbimento di un fotone determinano una correzione di valore infinito alla massa elettronica. Un tale fotone viene chiamato virtuale; il suo processo di emissione non conserva l'energia ma, quando il fotone viene riassorbito, la conservazione dell'energia viene ripristinata. Il risultato della somma (dell'integrazione) su tutti i fotoni possibili è una divergenza logaritmica. Un altro importante processo chiamato polarizzazione del vuoto riguarda la materializzazione virtuale di una coppia elettrone-positrone, che è in grado di modificare il campo coulombiano di un nucleo e alterare gli spettri atomici.
Willis E. Lamb jr, studente di J. Robert Oppenheimer (1904-1967) negli anni Trenta, si occupò di problemi nell'ambito della QED, specialmente quelli riguardanti i suoi effetti sullo spettro dell'atomo di idrogeno. Lavorando al radar presso la Columbia University durante la Seconda guerra mondiale, egli acquisì familiarità con le tecniche elettroniche e con i fasci atomici, che erano una specialità di questa università, e decise di tentare di realizzare una misurazione della struttura fine dell'atomo di idrogeno con le microonde. La teoria di Dirac per l'elettrone prevedeva che i primi stati eccitati dell'idrogeno, indicati con le sigle 2s e 2p, avessero esattamente la stessa energia. Con l'aiuto di Robert Retherford, uno studente che si era occupato di elettronica durante la guerra, Lamb realizzò un esperimento molto intelligente che si basava sul bombardamento dello stato 2s, che è caratterizzato da un tempo di decadimento relativamente lungo, con un fascio di atomi di idrogeno eccitati. Utilizzando un segnale di microonde alla frequenza opportuna, i due fisici riuscirono a indurre transizioni allo stato 2p, che tende invece a decadere molto rapidamente e, in tal modo, nell'aprile del 1947 riuscirono a misurare una piccola differenza energetica tra i due stati, in accordo con i risultati di precisione notevolmente minore di un esperimento di spettroscopia che William Houston aveva reso noto nel 1937.
Poco dopo, nel giugno del 1947, Lamb comunicò questo risultato (che divenne noto come Lamb shift) in una piccola conferenza privata, tenuta a Shelter Island (New York). La conferenza era stata organizzata con lo scopo di riunire un gruppo di venticinque fisici, molti dei quali erano giovani teorici che avevano lavorato ai progetti del radar e della bomba atomica. Furono invitati anche famosi fisici teorici più anziani, quali Oppenheimer, Hans Bethe, Victor Weisskopf, Enrico Fermi, Edward Teller e John Wheeler, e pochi fisici sperimentali. Bruno Rossi parlò degli esperimenti sui raggi cosmici, Lamb del suo esperimento con Retherford e Isidor Isaac Rabi delle misurazioni che aveva eseguito con John Nafe ed Edward Nelson della struttura iperfine negli stati fondamentali dell'idrogeno e del deuterio, vale a dire di una piccola differenza energetica che dipendeva dall'allineamento del momento magnetico elettronico con quello del nucleo. In un altro esperimento con fasci atomici alla Columbia University, Polykarp Kusch e Henry Foley avevano misurato la struttura iperfine del gallio. I risultati sulle strutture iperfini implicavano l'esistenza di una piccola correzione (0,1% ca.) per il momento magnetico dell'elettrone, che secondo la teoria di Dirac avrebbe dovuto avere il valore di un magnetone di Bohr. Rossi riferì su alcuni recenti esperimenti eseguiti in Italia, che mostravano come l'elettrone pesante individuato nei raggi cosmici da Anderson e Neddermeyer non fosse in realtà il mesone proposto da Yukawa.
I resoconti dei nuovi esperimenti stupirono letteralmente il pubblico. Alcuni tra i più anziani dei fisici presenti, in particolare Hendrik A. Kramers (1894-1952), Weisskopf e Bethe, erano in attesa del riscontro di effetti connessi ai termini di ordine più alto della QED. Kramers aveva proposto uno schema di sottrazione in base al quale le correzioni infinite della massa di un elettrone libero e di un elettrone atomico si compensavano parzialmente le une con le altre, in modo tale da mantenere finita la correzione alla loro differenza di energia. Mentre la correzione alla massa non era calcolabile, poteva esserlo invece lo spostamento energetico che era stato osservato. Weisskopf aveva avuto grosso modo la stessa idea e i due discussero su come eseguire il calcolo. In pochi giorni Bethe riuscì tuttavia a derivare la maggior parte degli spostamenti energetici osservati da Lamb nell'ambito della meccanica quantistica non relativistica, trascurando arbitrariamente la divergenza logaritmica generata dal fotone virtuale. Uno dei fisici più giovani presenti alla conferenza, Julian Schwinger (1918-1994), mostrò che il momento magnetico anomalo dell'elettrone poteva essere interpretato come l'effetto di una delle correzioni della QED; entro la fine di quell'anno egli riuscì a provare che il fattore di correzione sarebbe stato (1+α/2π).
La conferenza a Shelter Island fu la prima di una serie di tre incontri analoghi che si tennero negli anni successivi. Alcuni dei partecipanti svolsero un ruolo predominante nel rinnovamento della QED; oltre a quelli già menzionati, coloro che contribuirono maggiormente furono Richard P. Feynman (1918-1988) e un giovane inglese, Freeman Dyson, il quale lavorava alla Cornell University con Bethe. Nel 1965 il premio Nobel per la fisica per la QED rinormalizzata fu assegnato a Feynman e Schwinger e a un fisico giapponese, Sin-Itiro Tomonaga (1906-1979), che si era occupato delle divergenze della teoria di campo quantistica fin da prima della Seconda guerra mondiale. Un altro contributo importante alla rinormalizzazione della QED venne dalla scuola di Pauli in Svizzera. Lamb e Norman Kroll, Weisskopf e Bruce French e, infine, Yoichiro Nambu, che lavorava con Tomonaga, pubblicarono indipendentemente il primo calcolo relativistico del Lamb shift.
Con il termine rinormalizzazione si indica un procedimento di sottrazione nel quale i termini divergenti, non calcolabili, vengono trattati provvisoriamente, come se fossero finiti. In questo modo è possibile riesprimere le quantità osservabili in termini dei valori effettivi della massa e della carica. Per ottenere un risultato univoco nel procedimento di sottrazione degli infiniti della QED è necessario che quest'ultima sia relativisticamente covariante; in caso contrario i risultati della rinormalizzazione dipenderebbero dal sistema di riferimento scelto. Schwinger e Tomonaga svilupparono questo tipo di approccio. Feynman per primo introdusse un cut-off relativistico (un estremo superiore negli integrali in energia e impulso), rendendo effettivamente finite (benché dipendenti dal valore del cut-off) tutte le espressioni prima di eseguire la sottrazione, secondo una procedura che divenne nota come regolarizzazione.
La dipendenza dal cut-off poteva essere eliminata, dopo aver eseguito il calcolo delle grandezze fisiche osservabili. Pauli e i suoi collaboratori adottarono ed estesero questo tipo di procedura di regolarizzazione.
L'approccio del giapponese era simile a quello di Schwinger. Tomonaga era stato un compagno di classe di Yukawa ed entrambi erano figli di professori all'Università Imperiale di Kyoto. Alla fine del 1937 Tomonaga, che durante gli anni Trenta si era occupato anche di applicazioni della QED, si trasferì a Lipsia per lavorare con Heisenberg, dove si fermò fino allo scoppio della guerra nel 1939. La teoria di Yukawa prevedeva una vita media del mesone circa 100 volte più breve di quella osservata per l'elettrone pesante dei raggi cosmici. Tomonaga tentò di migliorare il calcolo assumendo che il processo avvenisse in due fasi distinte: il mesone prima decadeva in una coppia virtuale nucleone-antinucleone, che poi si annichilava dando origine a un elettrone e a un neutrino; si trattava di una versione della teoria di Fermi del decadimento beta. L'integrazione su tutte le possibili coppie forniva un risultato infinito; Tomonaga individuò in questo problema una caratteristica generale delle teorie quantistiche di campo, e dunque della QED.
Dopo l'attacco a Pearl Harbor, Tomonaga lavorò al radar (come del resto Schwinger e Lamb) e contemporaneamente effettò ricerche sulla teoria del mesone e sulla QED, sviluppando idee che derivavano dall'esperienza acquisita a Lipsia. Nel 1943 egli pubblicò un articolo di grande rilievo dal titolo On a relativistically invariant formulation of the quantum theory of wave fields che apparve, in traduzione inglese nel 1946, nel primo numero di "Progress of theoretical physics", una rivista internazionale fondata da Yukawa. Nell'articolo veniva illustrata un'estensione della teoria a molti tempi proposta da Dirac nel 1932, che trattava diverse particelle relativistiche assegnando loro non soltanto la propria variabile spaziale bensì anche la propria coordinata temporale. Tomonaga estese questa teoria al caso di un'infinità non numerabile (con la potenza del continuo) di gradi di libertà, vale a dire al caso di un campo quantistico. La sua superteoria a molti tempi descriveva il campo su un'arbitraria superficie di tipo spazio, piuttosto che su tutto lo spazio a un tempo fissato come avviene nella teoria hamiltoniana standard. Come Schwinger ebbe a dire nel 1980: "Questa era la natura dell'equazione di Schrödinger generalizzata che Tomonaga aveva costruito nel 1943 e alla quale io stesso arrivai verso la fine del 1947".
Nell'aprile del 1946 Tomonaga tenne un seminario presso l'Università di Tokyo (distrutta dalla guerra) e chiese ai suoi studenti di aiutarlo a sviluppare una QED in forma completamente covariante e una teoria dei mesoni basata sulla sua superteoria a molti tempi. A novembre, alla riunione della società giapponese di fisica presso l'Università Imperiale di Kyoto, Shoichi Sakata, della scuola di Yukawa, illustrò un'idea che aveva sviluppato con Osamu Hara: se l'elettrone avesse interagito con un nuovo campo di spin 0 (chiamato campo di coesione) con una costante di accoppiamento appropriata, la sua interazione virtuale avrebbe cancellato la divergenza della massa elettronica nella QED, al più basso ordine dello sviluppo perturbativo in cui era presente.
Nel 1947 il gruppo di Tomonaga decise di applicare l'idea del campo di coesione alle correzioni radiative della diffusione elastica di un elettrone da parte di un campo coulombiano. Sydney M. Dancoff, uno studente di Oppenheimer, aveva affrontato tale problema nel 1939, introducendo in questo contesto il termine rinormalizzazione e utilizzando la procedura di sottrazione; egli non era riuscito a eliminare le divergenze, ma il gruppo di Tomonaga, riconsiderando il problema, scoprì che Dancoff aveva commesso un errore nei suoi calcoli e ottenne infine risultati finiti.
In America anche altri avevano individuato l'errore di Dancoff, ma l'occupazione postbellica del Giappone continuava a ostacolare la comunicazione scientifica. Le notizie sulla conferenza di Shelter Island e sui calcoli di Bethe del Lamb shift apparvero sulle riviste che i fisici di Tokyo leggevano in una piccola biblioteca allestita dalle forze di occupazione. Tomonaga inviò il proprio lavoro all'Institute for Advanced Study di Princeton (New Jersey) ‒ dove Yukawa insegnò nell'anno accademico 1948-1949 ‒ a Oppenheimer, il quale lo portò a conoscenza di Schwinger e di Dyson; essi rimasero veramente molto colpiti dalla constatazione di quanto le ricerche che Tomonaga stava sviluppando dal 1943 fossero somiglianti a quelle di Schwinger.
Questi, diplomatosi alle scuole superiori all'età di quattordici anni, frequentò il City College di New York, dove scrisse articoli originali sulla meccanica quantistica. Il ragazzo prodigio attrasse l'attenzione di Rabi, che gli assicurò una borsa di studio alla Columbia University, presso la quale conseguì il dottorato nel 1939. Tra il 1935 e il 1942, Schwinger pubblicò 32 articoli riguardanti la fisica nucleare, le proprietà elettromagnetiche dei mesoni e la teoria mesonica delle forze nucleari. Durante la guerra lavorò al progetto del radar al Massachusetts Institute of Technology (MIT) e, successivamente, alla Harvard University, dove rimase a lavorare dopo la fine del conflitto.
Schwinger e Weisskopf erano già a conoscenza del risultato ottenuto da Lamb e Retherford quando si recarono insieme alla conferenza di Shelter Island nel 1947. Essi erano convinti che lo spostamento energetico osservato fosse spiegabile come una correzione QED della massa e Weisskopf riteneva che lo spostamento energetico calcolato sarebbe risultato finito, dal momento che egli aveva mostrato precedentemente che la correzione della massa presentava una divergenza logaritmica e, dunque, non troppo severa. Per la conferenza successiva del ciclo di riunioni iniziato a Shelter Island, che fu tenuta nel 1948 a Pocono Manor in Pennsylvania, Schwinger aveva sviluppato la sua QED in forma covariante, simile a quella di Tomonaga, ed ebbe l'opportunità di esporre in dettaglio i suoi risultati. Anche Feynman parlò ma ebbe pochissimo tempo per spiegare il suo approccio, al quale non fu riservata un'accoglienza molto calda. Le idee di Feynman erano molto meno convenzionali di quelle di Schwinger e perciò risultavano difficili da afferrare immediatamente, sebbene in seguito sia stato proprio il metodo di Feynman a essere scelto per risolvere problemi complessi della QED.
Come Schwinger, Feynman era nato a New York, dove aveva completato il suo percorso scolastico. Benché non prodigioso quanto Schwinger, egli dominava la matematica avanzata già alle scuole superiori e si appassionò alla fisica teorica mentre frequentava i corsi universitari al MIT, dove si laureò nel 1939; successivamente frequentò una scuola di specializzazione alla Princeton University dove, sotto la supervisione di Wheeler, scrisse una tesi sul principio di minima azione in meccanica quantistica, nella quale sviluppò una formulazione originale che consisteva nell'eseguire una somma su tutte le ampiezze di probabilità dei processi fisici, il cosiddetto metodo dell'integrazione sui cammini. Tale metodo costituiva un'alternativa all'impostazione storica della meccanica quantistica di Heisenberg, Schrödinger e Dirac e il suo impiego si era dimostrato vantaggioso in molti problemi. Con questa procedura è possibile per esempio eliminare, mediante integrazione, le variabili associate al campo elettromagnetico, ottenendo un'interazione effettiva a distanza tra le particelle cariche.
Un'altra caratteristica preziosa del metodo dell'integrazione sui cammini è che esso è basato sulla formulazione lagrangiana della meccanica quantistica piuttosto che su quella hamiltoniana. L'azione, ossia l'integrale sulle coordinate spaziotemporali della densità lagrangiana, è un invariante relativistico, e Feynman utilizzò questa proprietà quando decise di costruire una QED in forma covariante. Fin da prima di conseguire la laurea egli si era occupato dell'autoenergia infinita dell'elettrone, che si incontrava nell'elettrodinamica sia classica sia quantistica. Feynman pensò che il problema avrebbe potuto essere risolto impedendo al campo di ogni elettrone di agire sull'elettrone stesso ma solo sulle altre cariche. Ciò non era realmente possibile, come del resto Wheeler fece notare quando Feynman si recò a Princeton, poiché era necessario tener conto del rinculo dell'elettrone quando il suo campo interagiva con altre cariche, altrimenti il momento non si sarebbe conservato. Tuttavia, i due fisici formularono un'interessante elettrodinamica classica con azione a distanza basata su un universo in grado di assorbire il momento e campi per metà avanzati e per metà ritardati.
Dopo aver conseguito il dottorato nel 1941, Feynman si trasferì a Los Alamos per lavorare sul progetto della bomba atomica, riuscendo a diventare il più giovane tra i capigruppo lì presenti. Nel 1946 Bethe lo convinse a entrare nel corpo docente della Cornell University. Quando Feynman a Shelter Island venne a sapere dei nuovi risultati della QED e vide la soluzione parziale di Bethe per il Lamb shift, iniziò a chiedersi come sarebbe stato possibile utilizzare il metodo dell'integrale sui cammini per eliminare i campi e concentrare l'attenzione sui cammini elettronici. Disegnando raffigurazioni spaziotemporali per i cammini elettronici e utilizzando un'idea proposta dal fisico svizzero Ernst C.G. Stueckelberg (1905-1984), egli rappresentò i positroni come elettroni che si muovevano indietro nel tempo in un diagramma spaziotemporale: in questo modo, riportando il tempo sull'asse delle ordinate, un'annichilazione di una coppia elettrone-positrone apparirebbe come una V rovesciata. Erano dunque nati i famosi diagrammi di Feynman, dei quali ora viene fatto largo uso in tutte le teorie di campo e nella fisica della materia condensata.
Feynman, come Schwinger e gli altri scienziati menzionati in precedenza, eseguì il calcolo relativistico del Lamb shift. Nel frattempo, Dyson era arrivato a Cornell e aveva scritto un articolo in cui evidenziava la relazione esistente tra i lavori di Schwinger, Tomonaga e Feynman; egli lo pubblicò prima che Feynman desse alle stampe i propri e presentò i metodi non convenzionali di Feynman in modo così convincente che, per qualche tempo, per indicare l'uso di questi diagrammi i fisici si riferirono al metodo di Feynman-Dyson.
Le prime misure del Lamb shift, una differenza energetica che è una piccolissima frazione dell'energia dello stato fondamentale dell'atomo di idrogeno (l'energia di Rydberg), fornirono valori di 1000 Mhz ca., con l'energia espressa in termini della frequenza nel regime delle microonde.
Il primo calcolo di Bethe prevedeva un valore di 1040 Mhz (attualmente la precisione dell'accordo tra teoria ed esperimenti è superiore a poche parti per milione). Per un certo tempo vi fu il problema di capire se un piccolo effetto (di 20 Mhz ca.), conosciuto con il nome di polarizzazione del vuoto, contribuisse al Lamb shift. A differenza delle correzioni di autoenergia, che determinano la maggior parte dell'effetto, la polarizzazione del vuoto, che modifica il campo coulombiano del protone in conseguenza di coppie virtuali elettrone-positrone (cammini fermionici chiusi), non poteva essere trattata con l'approccio dell'azione a distanza di Feynman. Quando divenne chiaro che questo effetto era reale, anche Feynman dovette riconoscere che il campo era un'entità fisica fondamentale e non, come aveva pensato in precedenza, una rappresentazione puramente di comodo per una teoria fondamentale di azione a distanza e, di conseguenza, modificò la propria teoria.
Dopo il successo della rinormalizzazione della QED, l'attenzione si focalizzò sulla teoria quantistica di campo (QFT, quantum field theory), vale a dire la teoria mesonica delle forze nucleari e quella delle interazioni deboli. Questi problemi sono collegati, perché i nucleoni non sono particelle puntiformi bensì hanno una struttura complessa che influisce sia sulle loro interazioni deboli sia su quelle forti. Un'evidenza a favore di tale struttura dei nucleoni è che il neutrone ha un momento magnetico di −1,91 magnetoni nucleari e il protone di +2,79 magnetoni nucleari piuttosto che, rispettivamente, di 0 e 1, come ci si sarebbe potuto aspettare per particelle puntiformi. Fu coniato il temine leptoni per descrivere le particelle che non sono soggette alle interazioni forti, come l'elettrone, il neutrino e il muone, mentre quelle che risentono delle interazioni forti vengono chiamate adroni. Il fotone non appartiene a nessuno di questi due gruppi.
Nei primi anni Trenta le misure di assorbimento dei raggi cosmici permisero di distinguere due componenti: una penetrante (dura) e una meno penetrante (soffice): sciami che consistevano di un insieme di elettroni, positroni e fotoni nell'atmosfera costituivano la componente soffice dei raggi cosmici. L'evoluzione di uno sciame era ben descritta dalla QED, benché mancasse una spiegazione del meccanismo che determinava la nascita dello sciame stesso. Come già detto, la natura della componente dura rimase un mistero fino al 1936, anno in cui Anderson e Neddermayer scoprirono il mesotrone. Come accennato in precedenza, questa particella venne identificata con la particella ipotizzata nel 1934 da Yukawa, vale a dire il quanto pesante del campo di forze nucleari. Un confronto delle loro lunghezze di assorbimento in mezzi più o meno densi (per es., l'acqua o l'aria) dimostrò che i mesotroni decadevano, in accordo con la teoria di Yukawa dell'elettrone pesante.
Nel 1941 Franco Rasetti, precedentemente membro del gruppo di Roma di Fermi e rifugiato politico in Canada, misurò il tempo di decadimento del mesotrone per mezzo di un ingegnoso metodo elettronico. Rossi, un altro esule italiano che lavorava negli Stati Uniti, proseguì e perfezionò queste misure nel 1943, fino a ottenere risultati di precisione notevolmente superiori. La vita media del mesotrone misurata dal suo gruppo risultava più lunga di due ordini di grandezza di quanto predetto dalla teoria mesonica. Altri esperimenti italiani e francesi eseguiti durante la guerra confermarono questi risultati. Ancor più sconcertante della discrepanza tra teoria ed esperimenti per la vita media era l'evidenza crescente che i mesotroni non interagivano fortemente con i nuclei, né per diffusione né per assorbimento. Nelle fotografie delle camere a nebbia non vi era traccia della diffusione a grandi angoli dei mesotroni prevista dalla teoria. A partire dal 1942 all'Università di Roma un gruppo di fisici, formato da Marcello Conversi e Oreste Piccioni, cui si unì in seguito Ettore Pancini, eseguì test più specifici sulle interazioni dei mesotroni. A causa del bombardamento della città da parte degli americani, nel luglio del 1943 essi spostarono il loro apparato di misura nello scantinato del liceo Virgilio, nei pressi della Città del Vaticano, per continuare il lavoro. Utilizzando tubi contatori elettronici e una disposizione di assorbitori, stabilirono innanzitutto che metà dei mesotroni che si fermavano nel ferro decadeva, mentre l'altra metà veniva assorbita; ipotizzarono allora che i mesotroni negativi lenti fossero rapidamente catturati, mentre i mesotroni positivi respinti dal campo coulombiano del nucleo sopravvivessero abbastanza a lungo da poter decadere. Per verificare questa ipotesi montarono verticalmente un paio di barre magnetiche con polarità opposte: passando attraverso un magnete, il mesotrone avrebbe deviato dalla verticale con una direzione che dipendeva dal segno della sua carica. La coppia di magneti era in grado perciò di selezionare sia il fascio carico positivamente sia quello carico negativamente e il terzetto di fisici dimostrò che effettivamente erano i mesotroni positivi lenti a decadere, mentre quelli negativi venivano catturati. Per un assorbitore di ferro il risultato si accordava con la teoria pubblicata nel 1940 da Tomonaga e Gentaro Araki, che tuttavia prevedeva lo stesso risultato nel caso di assorbitori leggeri, mentre il gruppo di Roma trovò che nel carbonio decadevano sia i mesotroni positivi sia quelli negativi. Ciò dimostrava evidentemente che i mesotroni non interagivano fortemente con i nucleoni e, quindi, che non erano i mesoni di Yukawa. Quando nel 1947 i risultati ottenuti da Conversi, Pancini e Piccioni divennero noti in America, Fermi, Teller e Weisskopf dimostrarono che le discrepanze con le predizioni teoriche per la cattura del mesone erano dell'ordine di un fattore 1012.
Gran parte della ricerca nella fisica fondamentale venne interrotta durante la Seconda guerra mondiale; qualche lavoro fu tuttavia portato avanti nelle università, specialmente nei settori della fisica teorica e dei raggi cosmici. Dal 1941 al 1944 un gruppo di fisici giapponesi organizzò riunioni due volte l'anno per discutere delle difficoltà di collegare la teoria di Yukawa alle osservazioni. Nel corso della riunione del giugno 1942 fu avanzata l'ipotesi che il mesotrone dei raggi cosmici fosse una particella diversa dal mediatore delle forze nucleari, vale a dire dal mesone. Sakata e Takesi Inoue proposero il seguente scenario: la collisione di una particella dei raggi cosmici con un nucleo nell'alta atmosfera produce un mesone carico di spin 0 o 1 che decade (in 10−8 s) in un mesotrone più leggero di spin 1/2 e in una particella neutra di spin 1/2 (probabilmente un neutrino). Esperimenti successivi dimostrarono che la proposta di Sakata-Inoue, pubblicata in inglese nel 1946, era corretta. Robert Marshak (1916-1992), indipendentemente, propose durante la conferenza di Shelter Island nel 1947 una teoria a due mesoni simile, nella quale però un mesone di spin 1/2 decadeva in un mesotrone di spin 0 o 1 e in un neutrino.
A Bristol, Cecil F. Powell, raggiunto nel 1945 da Giuseppe Occhialini, che aveva trascorso gli anni della guerra in Brasile, iniziò lo studio dei raggi cosmici con emulsioni nucleari; in seguito si aggiunsero Cesare M.G. Lattes e Ugo Camerini, che venivano anch'essi dal Brasile. I fisici del gruppo di Bristol spinsero i produttori ad aumentare la sensibilità dell'emulsione e a ridurre la dimensione dei grani, così entro il 1948 le emulsioni furono in grado di mostrare i percorsi degli elettroni e di permettere la determinazione delle masse delle particelle. Occhialini espose una grande quantità di lastre sul Pic du Midi, una cima di 3000 m dei Pirenei francesi. Dopo lo sviluppo, sulle lastre apparvero diversi percorsi di particelle di massa intermedia che avevano rallentato, si erano fermate e avevano creato figure a forma di stella negli elementi leggeri dell'emulsione. Donald Perkins, un giovane ricercatore all'Imperial College di Londra, ottenne risultati simili in emulsioni esposte ai raggi cosmici su un volo aereo a 30.000 m; egli identificò le particelle che si fermavano come mesoni carichi negativamente. Dopo un ulteriore esame delle loro lastre, i fisici del gruppo di Bristol scoprirono due eventi in cui un mesone si fermava, dando origine a una nuova particella più leggera, che in un caso terminava il suo percorso nell'emulsione. Dopo un'altra esposizione sui Pirenei, questa volta con lastre sensibili agli elettroni, essi riuscirono a registrare nove catene di decadimento complete, che interpretarono nel modo seguente: un mesone positivo (il pione) rallenta e viene fermato nell'emulsione per poi decadere in una particella più leggera (il muone). Il secondo tracciato presenta sempre la stessa lunghezza, poiché la particella viene prodotta insieme a una singola particella neutra, presumibilmente un neutrino. La particella figlia carica positivamente si ferma e decade in un positrone e due o più neutrini, dal momento che il tracciato del positrone ha una lunghezza variabile. Questo schema era in perfetto accordo con l'ipotesi dei due mesoni dei fisici giapponesi, benché i fisici del gruppo inglese non ne fossero a conoscenza.
A Manchester, Clifford Butler e George Rochester ripresero il lavoro che avevano iniziato durante la guerra sugli sciami penetranti dei raggi cosmici, utilizzando un grande apparato sperimentale, costruito originariamente da Patrick M.S. Blackett, che includeva una camera a nebbia equipaggiata di un magnete e attraversata da una lastra di piombo di 3 cm. Dopo avere scattato migliaia di fotografie che mostravano mesoni lenti, il 15 ottobre del 1946 e il 23 maggio del 1947 su due di esse osservarono i tracciati della particella V. La prima particella V trovata, una particella neutra prodotta sulla lastra di piombo, era decaduta poco al di sotto della lastra in due mesoni carichi, formando una caratteristica V e venne chiamata V0. La seconda era una particella carica positivamente che era decaduta in una particella carica più leggera e in una particella neutra invisibile; anche questa volta le due particelle cariche formavano una V e la particella fu chiamata V+. Nessun altro esempio di particella V fu osservato nei due anni seguenti, ma nel novembre del 1949 Anderson dalla California scrisse a Blackett che una trentina di eventi di questo tipo erano stati visti in una camera a nebbia fatta funzionare in montagna dal gruppo del Caltech.
Poco dopo il gruppo di Manchester iniziò le osservazioni sul Pic du Midi e quello di Robert W. Thompson, della Indiana University, cominciò a lavorare con la camera a nebbia a livello del mare. Nel 1953 misure accurate mostrarono l'esistenza di differenti specie di particelle V che erano più leggere e più pesanti del protone. Un esempio del primo tipo era la particella lambda, che decadeva in un pione e in un protone con un rilascio di energia pari a 38 MeV; un esempio di una particella V più leggera del protone era il mesone K, che decadeva in due o in tre pioni e che aveva diversi altri canali di decadimento possibili.
Dopo la scoperta delle due particelle V nel 1947, il gruppo di Manchester e gli altri iniziarono a osservarle in grandi numeri nei raggi cosmici e presto le identificarono come adroni prodotti in collisioni che coinvolgevano le interazioni forti. Eppure, benché fossero sufficientemente massive da decadere in adroni più leggeri, la vita media era dell'ordine di circa 10−10 s, e non dei 10−21 s previsti dalla teoria per un decadimento forte. Per esempio, la particella lambda (Λ0) poteva essere prodotta in gran quantità dal pione negativo (π−) quando colpisce un protone (p), mentre risultava fortemente ostacolato il suo decadimento in π−+p.
Alla riunione che si tenne a Tokyo il 7 luglio del 1951, per affrontare questo problema furono presentati tre modelli nei quali alle particelle V veniva assegnato un nuovo numero quantico moltiplicativo (±1) che doveva essere conservato nelle interazioni forti. Di conseguenza le nuove particelle potevano essere prodotte dalle interazioni forti in coppie, ma i canali di decadimento forte che cambiavano questo numero erano proibiti. Poco dopo, indipendentemente, Abraham Pais (1918-2000) avanzò la stessa idea, introducendo quella che egli chiamava 'regola del pari e dispari' e postulando che le particelle V fossero prodotte in coppie, vale a dire con un processo che fu denominato 'produzione associata'.
La verifica dell'ipotesi di produzione associata nei raggi cosmici si rivelò difficile. Tuttavia nel 1953 e nel 1954 il gruppo di Ralph P. Shutt a Brookhaven indirizzò un fascio di pioni negativi a 1,5 GeV contro la propria camera a diffusione a idrogeno per ottenere immagini di eventi relativi alle particelle V; nove di questi eventi riguardavano la produzione di due particelle V originata da una singola collisione primaria. Queste furono classificate come Λ0+ϑ0, ∑0+ϑ0 e ∑−+ϑ+ , dove Λ0, ∑0 e ∑− erano particelle V di massa maggiore del protone. Λ0 e ∑− decadevano in un nucleone e un pione, mentre ∑0, decadendo, originava una Λ0 insieme con la radiazione γ. Le particelle chiamate ϑ erano mesoni K, di massa pari a circa una volta e mezzo quella del protone: esse decadevano in due pioni con carica opportuna. Questi risultati erano perfettamente coerenti con lo schema della produzione associata.
Nel 1954 il gruppo di Thompson della Indiana University confermò l'ipotesi di produzione associata nei raggi cosmici. In aggiunta al tipo di eventi osservati a Brookhaven, Thompson riuscì a rilevare anche il decadimento dei mesoni K in tre particelle, tra le quali una era il mesone tau (τ), che era stato già osservato nel 1949 a Bristol nelle emulsioni nucleari. Un'altra particella V pesante (ossia un iperone) fu identificata come la particella Xi negativa (Ξ−) che decadeva in Λ0+π− in circa 10−10 s. Dal momento che la regola del pari e dispari non poteva impedire il canale di decadimento forte di queste particelle, diveniva necessaria l'elaborazione di uno schema più generale, ossia lo schema di stranezza, introdotto da Murray Gell-Mann e Kazuhiko Nishijima rispettivamente nel 1953 e nel 1954.
Tale schema estende la relazione tra la carica e l'isospin per gli adroni che era stata stabilita nella fisica nucleare e anche nei sistemi nucleone-pione. L'isospin I è caratterizzato dalla stessa struttura di gruppo del momento angolare, vale a dire SU(2), e la struttura dei multipletti è tale che il numero degli stati di carica è 2I3+1 (il nucleone, con I=1/2, possiede i due stati p e n, mentre il pione, con I=1, ne presenta tre, ossia π−, π+ e π0). La carica Q è legata al valore della carica elettronica e, all'isospin I e al numero quantico barionico B dalla relazione Q=e(I3+B/2), dove B vale 1 per i nucleoni e gli iperoni e 0 per i mesoni (per i nuclei il numero barionico è pari al numero di massa atomica).
Nello schema di stranezza le particelle V sono caratterizzate da un nuovo numero quantico S, che è un intero positivo o negativo per le particelle strane e vale 0 per gli adroni ordinari, per i nucleoni e i pioni. La nuova relazione per la carica è Q=e (I3+B/2+S/2). Per esempio, la particella lambda ha I=0, B=1, S=−1 e perciò presenta lo stato di singoletto di carica Λ0. D'altro canto, il mesone K ha I=1/2, B=0, S=−1, presentando così due componenti: una con carica zero per I3=1/2 e una con carica −e per I3=−1/2. Esiste anche un mesone K con S=+1, vale a dire un doppietto con carica +e e 0. Le particelle della coppia K+ e K− sono antiparticelle, come i due K neutri.
Nel 1961 lo schema di stranezza fu esteso alla struttura di gruppo SU(3) indipendentemente da Gell-Mann e Yuval Ne'eman e divenne noto come simmetria unitaria o come l'ottuplice sentiero, successivamente reinterpretato in termini di costituenti elementari nel modello dei quark.
La teoria di Fermi del 1934 per il decadimento beta assumeva che l'emissione simultanea di un elettrone e di un neutrino fosse un processo analogo all'emissione di un fotone da parte di una carica elettrica accelerata. L'elettrone e il neutrino sono accoppiati in una sorta di campo vettoriale a quattro componenti come il campo elettromagnetico. Più in generale, la teoria descrive l'interazione di contatto di quattro fermioni, opportunamente combinati nel termine di energia di interazione della lagrangiana relativistica di interazione. Per questa ragione è necessario distinguere il neutrino dall'antineutrino (sebbene esista una versione speciale della teoria, sviluppata da Ettore Majorana e non incompatibile con l'evidenza sperimentale, nella quale le due particelle sono identiche). Un esempio di questo tipo di processo di Fermi generalizzato è la cattura di un elettrone orbitale di un atomo da parte di un protone del nucleo: il protone diviene un neutrone e viene emesso un neutrino. Fermi considerava il nucleone una particella priva di struttura interna, come l'elettrone e il neutrino. Nel decadimento nucleare beta le condizioni del nucleo influenzano la vita media e lo spettro del decadimento e si osservano alcune regole di selezione. Quando un neutrone decade in uno stato protonico non occupato con lo stesso momento angolare si parla di transizione permessa; in caso contrario la transizione è proibita. Nel tentativo di riprodurre teoricamente i risultati sperimentali, i fisici teorici rilevarono che una coppia di operatori di campo di spin 1/2 (elettrone e neutrino o protone e neutrone) poteva essere riarrangiata in modo da costruire cinque quantità relativisticamente covarianti. Una di queste è il campo vettoriale di spin 1 (V), scelto in origine da Fermi; le altre sono uno scalare (S), uno pseudoscalare (P), un vettore assiale (A) e un tensore (T). I campi S e P hanno entrambi spin 0; eseguendo una trasformazione di riflessione spaziale (come in uno specchio), S rimane inalterato mentre P cambia segno. Il campo A ha spin 1 e rimane inalterato sotto riflessione spaziale, al contrario di V. Il campo T ha spin 2 ed è anch'esso invariante per riflessione. Le forme degli spettri elettronici del decadimento beta dei nuclei vennero analizzati in termini di una combinazione di queste interazioni più generali.
Non sono solo le condizioni del nucleo atomico a rendere complessa la forma dello spettro elettronico del decadimento beta, ma anche la struttura interna dei nucleoni stessi. Gli spettri del decadimento beta furono misurati dopo la Seconda guerra mondiale e confermarono l'esistenza dei momenti magnetici anomali dei nucleoni e, quindi, che i nucleoni erano oggetti complessi. I processi di decadimento dei nuovi adroni (tra i quali erano le particelle strane) sollevarono il problema della possibile esistenza di un nuovo tipo di interazione.
La catena di decadimento pione-muone-elettrone costituiva un esempio istruttivo. Nelle emulsioni nucleari si poteva vedere il tracciato di un pione carico positivamente che decadeva in un altro tracciato di lunghezza fissata, il muone, evidenziando che una particella neutra, presumibilmente un neutrino, accompagnava il muone. Questo poi decadeva in un positrone caratterizzato da un tracciato di lunghezza variabile, mostrando di essere accompagnato da più di una particella neutra, verosimilmente da due neutrini. La vita media del pione è di 2,6×10−8 s ca. e quella del muone di 2,2×10−6 s ca. Questi tempi di decadimento tipici sono molto più lunghi di quelli associati alle transizioni elettromagnetiche (10−16 s) o a quelle nucleari (10−22 s). Altri esempi di questo tipo sono il tempo di decadimento del kaone carico (1,2×10−8 s) e quello del lambda, una particella strana di massa maggiore (6×10−10 s). Ciò suggeriva che le interazioni deboli potessero essere in realtà tutte manifestazioni di un'unica interazione e, per questa ragione, spesso i fisici parlavano di un'interazione debole universale.
Il problema di stabilire l'esatta natura dell'accoppiamento a quattro fermioni e di capire se esso dominasse tutte le interazioni deboli, direttamente o attraverso coppie virtuali di nucleoni, rimaneva tuttavia completamente aperto. Si osservarono inoltre alcune caratteristiche piuttosto sorprendenti relativamente al decadimento dei kaoni. Queste particelle hanno masse che sono circa un migliaio di volte quella dell'elettrone e approssimativamente la metà di quella del protone. Dal 1954 si stabilì che il kaone decadeva alternativamente in due pioni, in tre pioni o in leptoni (con o senza la produzione di un pione); furono osservati anche kaoni neutri decadere in due o tre pioni. Nel 1955 Gell-Mann e Pais si posero il problema di capire se il kaone neutro avesse o meno un'antiparticella distinta da sé stesso (l'antiparticella di una particella elettricamente carica ha sempre carica opposta ed è pertanto sempre distinta dalla particella stessa, ma non è necessariamente lo stesso per una particella neutra). La funzione d'onda di una particella è trasformata in quella della sua corrispondente antiparticella per mezzo di un'operazione matematica di simmetria nota come coniugazione di carica, identificata dal numero quantico C (il campo elettromagnetico ha C=−1). La visione convenzionale era che C fosse una quantità conservata (+1 o −1) in tutte le interazioni. Per esempio, il pione neutro, che ha una propria antiparticella distinta, ha C=+1; conseguentemente può decadere in due fotoni (C=1) ma non in tre (C=−1).
In base allo schema di stranezza, vi sono due kaoni neutri che hanno valori di stranezza opposti e non possiedono un valore definito di C. Tuttavia essi potrebbero essere rappresentati matematicamente come differenti combinazioni di ipotetici kaoni neutri aventi rispettivamente C=+1 e C=−1 ma non un valore definito di stranezza. Secondo lo schema di Gell-Mann e Pais, erano proprio questi ipotetici kaoni che decadevano in due o tre pioni, rispettivamente, conservando C e variando il valore della stranezza (che non doveva essere necessariamente conservato nelle interazioni deboli). La particella con C=+1 che decadeva in due pioni, con una vita media di circa 10−10 s, fu chiamata K-short, mentre quella che decadeva in tre pioni, con una vita media di circa 5×10−8 s, fu detta K-long.
Oltre alla coniugazione di carica, si pensava che un'altra simmetria fosse verificata in tutte le interazioni, vale a dire la parità (P), cioè la simmetria sotto riflessione spaziale, ossia una trasformazione che è analoga alla riflessione di uno specchio. Se uno stato atomico o nucleare possiede questa simmetria, allora la sua funzione di stato sotto l'operazione di riflessione rimane inalterata o cambia segno (quindi gli si associano, rispettivamente i valori di P=+1 o P=−1). Se tale stato effettua una transizione, lo stato finale dovrà possedere la stessa simmetria. Tuttavia questo principio venne messo in discussione per effetto dei decadimenti dei kaoni carichi in differenti stati finali. Alla Sixth Annual Rochester Conference nell'aprile del 1956, Oppenheimer aprì la sessione di dibattito sulle nuove particelle con tale commento: "Ci sono cinque oggetti [i kaoni carichi]. Questi hanno masse uguali, o quasi uguali, e vite medie identiche o apparentemente identiche. Si cerca di capire se in effetti si tratti di cinque, quattro, tre, due o una sola particella. Ci si scontra con grandi difficoltà qualunque siano le assunzioni fatte". Il problema nasceva, come nel caso dei kaoni neutri, dal confronto tra i canali di decadimento a due o tre pioni. Nel caso dei kaoni carichi non c'era nessun problema evidente con la coniugazione di carica, tuttavia Richard H. Dalitz dimostrò, con un'intelligente analisi, che gli stati a due o tre pioni avevano parità opposta. Ciò suggeriva che tali stati dovessero essere il prodotto di decadimento di particelle diverse, anche se ogni altra evidenza indicava una loro comune origine dalla stessa particella. Nel discutere di questo rompicapo alla conferenza, Feynman pose una domanda che gli era stata rivolta da Martin Block: "È possibile che la parità non sia conservata?".
Ricercando nella letteratura esperimenti rilevanti per diversi mesi successivi, Tsung-Dao Lee e Chen Ning Yang trovarono prove convincenti che la parità fosse conservata nelle interazioni forti e in quelle elettromagnetiche ma conclusero che nessun test valido era stato eseguito per le interazioni deboli. Essi proposero diversi nuovi esperimenti, dallo studio dell'ordinario decadimento beta a quello dei decadimenti delle nuove particelle, che furono progettati e realizzati nell'arco di un anno, stabilendo al di là di ogni dubbio la violazione della parità in tutte le interazioni deboli (confermando anche il concetto di universalità delle interazioni stesse). Ulteriori considerazioni da parte di Lee, Yang e Reinhard Oehme, che avanzò per primo l'ipotesi, mostrarono che una conseguenza necessaria della violazione di P era la contemporanea violazione di C; ciò richiedeva una ridefinizione dei kaoni neutri K-long e K-short in termini degli autostati dell'operatore CP, ossia in termini di stati con un valore definito del prodotto CP, piuttosto che di C e P separatamente.
Il primo esperimento per mostrare la non conservazione della parità fu portato a termine dai fisici della Columbia University e dell'U. S. Bureau of Standards (Chien-Shiung Wu, Ernest Amber, Raymond W. Hayward, Dale D. Hoppes e Ralph P. Hudson). L'esperimento aveva per oggetto lo studio del decadimento beta dei nuclei polarizzati di 60Co, che era reso difficile dalla necessità di utilizzare tecniche criogeniche per polarizzare il nucleo. La conservazione della parità richiedeva che l'emissione degli elettroni risultasse simmetrica, vale a dire indipendente dalla direzione degli spin nucleari. I fisici che eseguirono l'esperimento riscontrarono, con loro grande sorpresa, non soltanto che esisteva un'asimmetria ma anche che la sua entità implicava che la violazione della parità fosse massima.
Risultati simili furono osservati in esperimenti riguardanti la catena di decadimento del mesone (pione→muone→elettrone). Alla University of Chicago, Jerome I. Friedman e Valentine L. Telegdi studiarono il decadimento nelle emulsioni nucleari dei pioni prodotti nel ciclotrone di Chicago. Veniva emesso un numero maggiore di elettroni nella direzione di moto del muone che si era fermato rispetto a quelli emessi nella direzione opposta, mostrando che i muoni erano polarizzati e, conseguentemente, che le simmetrie P e C erano violate. Richard L. Garwin, Leon M. Lederman e Marcel Weinrich riuscirono a ritrovare questo risultato mediante l'elettronica, utilizzando un fascio di muoni originati dai pioni prodotti alla Columbia University. Dal momento che il pione è una particella di spin 0, vale a dire un oggetto sfericamente simmetrico, il neutrino che accompagnava nel decadimento il muone polarizzato doveva risultare anch'esso polarizzato. Un neutrino privo di massa viaggia alla velocità della luce nel vuoto e il suo spin deve risultare necessariamente allineato o in direzione parallela (neutrino destrorso) o antiparallela (neutrino sinistrorso) alla sua velocità. Un ingegnoso esperimento di fisica nucleare, realizzato nel 1958 da Maurice Goldhaber, Lee Grodzins e Andrew Sunyar presso il Brookhaven National Laboratory a Long Island (New York), mostrò che il neutrino del decadimento beta è sinistrorso.
Rimaneva aperto il problema di stabilire se esistesse un'unica interazione debole a quattro fermioni e, in caso affermativo, di individuarne la forma. Nello stesso articolo in cui Yang e Lee suggerirono la possibilità di una violazione della parità, proposero anche tre esperimenti per verificare tale ipotesi: la ricerca dell'asimmetria nell'emissione degli elettroni durante il decadimento beta di nuclei polarizzati (essi menzionarono proprio il 60Co); lo studio dell'asimmetria nell'emissione di pioni da parte di un iperone lambda polarizzato; infine, l'analisi della catena di decadimento π→μ→e, ossia fenomeni in cui il muone poteva risultare polarizzato e quindi presentare un'asimmetria nel decadimento. Tutti questi esperimenti vennero eseguiti molto rapidamente e non soltanto evidenziarono una non conservazione della parità ma mostrarono anche che la violazione assumeva il massimo valore permesso dalla teoria.
L'esempio più chiaro dal punto di vista teorico era la catena di decadimento del pione, che fornisce un indizio per individuare la forma generale delle interazioni deboli, senza introdurre complicazioni legate alle interazioni adroniche, dal momento che tutte le particelle coinvolte nel decadimento del muone sono leptoni. L'analisi dello spettro del decadimento del muone risultava in accordo con la forma dell'interazione a quattro campi V−A, dove il segno meno tra il termine vettoriale (V) e quello assiale (A) rappresenta il segno dei termini che violano la parità nella distribuzione angolare.
Come osservarono nel 1957 Lee, Yang e Oehme, poteva essere dimostrato un teorema in base al quale la simmetria CPT, nell'ambito delle teorie locali per i campi quantistici relativistici, doveva risultare necessariamente conservata (il simbolo T indica l'operatore di inversione temporale). Perciò se T è una simmetria conservata (come generalmente si riteneva che fosse, fino a quando nel 1964 fu evidenziata una sua violazione in un processo di decadimento raro), allora anche il prodotto CP deve essere conservato. Ciò implica che ogni violazione di P è accompagnata necessariamente da una violazione di C. Diversi autori (Abdus Salam, Lev Davidovič Landau, Lee e Yang) proposero una teoria per il neutrino nella quale si ha la conservazione del prodotto CP ma non di P e C separatamente.
Per riuscire a comprendere la struttura dell'interazione universale di Fermi era necessario ancora determinare la forma dell'interazione nel decadimento beta dei nuclei, degli iperoni, del mesone e di altre interazioni che coinvolgevano particelle adroniche. Nel 1958 i tre gruppi di Ennakkal Chandy George Sudarshan e Marshak, Feynman e Gell-Mann, e Jun John Sakurai proposero la struttura V−A come forma dell'interazione universale di Fermi (la struttura V−A implica per il neutrino una rotazione sinistrorsa, ossia in senso antiorario per un osservatore posto alle spalle). Feynman e Gell-Mann derivarono la loro versione della V−A, postulando l'assenza di derivate nei termini di accoppiamento in una teoria di Dirac (massiva) a due componenti.
Altri punti importanti sui quali si basava la loro derivazione erano anche l'interpretazione dell'interazione a quattro fermioni come un'interazione corrente-corrente e l'idea, da loro proposta, di una corrente vettoriale conservata (CVC, proposta nel 1955 anche da S.S. Gerstein e Jakov Borisovič Zeldovič). La CVC consentiva di utilizzare le ampiezze delle interazioni forti ricavate dai dati dei nuclei per il calcolo delle ampiezze di decadimento beta. Allo stesso modo, l'interazione vettoriale assiale (A), che non era conservata, venne collegata negli anni Sessanta alle ampiezze di diffusione pione-nucleone.
Con la fine degli anni Cinquanta in seguito alla rivoluzione della parità si registrò un gran numero di altri importanti passi in avanti nella comprensione delle interazioni deboli. Nel 1956 Frederick Reines e Clyde L. Cowan jr annunciarono che erano finalmente riusciti, dopo anni di tentativi, a rilevare il neutrino. Nel 1962 a Brookhaven un gruppo della Columbia University, formato da Lederman, Melvin Schwartz e Jack Steinberg, mostrò che il neutrino associato al muone era differente da quello associato all'elettrone. Quando fu applicata alle particelle strane, l'universalità produsse predizioni sbagliate di un ordine di grandezza; i decadimenti delle particelle strane furono parametrizzati sistematicamente da Gell-Mann e Maurice Levy nel 1960 e su di essi lavorò in seguito Nicola Cabibbo.
La teoria mesonica
Nel 1938, nel tentativo di spiegare l'indipendenza delle forze nucleari dalla carica (le forze sono identiche tra ciascuna coppia di nucleoni), i fisici teorici introdussero un mesone neutro nella teoria di Yukawa. Si riteneva che i mesoni carichi giocassero un ruolo nel decadimento beta e che, di conseguenza, presentassero un decadimento di tipo debole. A causa della loro vita media estremamente breve, i mesoni non si possono trovare nella materia ordinaria e, dal momento che le loro masse corrispondono (secondo la relazione E=mc2) a 140 MeV ca., essi vengono prodotti soltanto nelle collisioni di alta energia. Fino alla fine degli anni Quaranta, vale a dire fino al momento in cui divennero disponibili acceleratori di particelle adatti, si potevano studiare i mesoni soltanto nelle interazioni dei raggi cosmici nell'atmosfera o in altri mezzi assorbitori. I fisici teorici concentrarono la loro attenzione su un certo numero di problemi collegati ai mesoni: ci si chiedeva se le nuove particelle rilevate nei raggi cosmici fossero veramente i mesoni postulati da Yukawa; se interagissero con i nuclei per mezzo delle interazioni forti; se le vite medie osservate fossero in accordo con quelle necessarie per spiegare il decadimento beta dei nuclei; se gli effetti delle interazioni nucleari potessero essere spiegati meglio da un mesone di spin 0 o di spin 1 e quali fossero gli effetti delle interazioni elettromagnetiche delle particelle dei raggi cosmici.
Le prime risposte appropriate a tali interrogativi cominciarono a giungere nel 1947, quando i fisici si trovarono d'accordo nel ritenere che nella fenomenologia dei raggi cosmici fossero coinvolte due particelle diverse: una particella più pesante soggetta alle interazioni forti (adrone), prodotta a elevate altitudini, decadeva in una particella più leggera (leptone) osservata in grande quantità a quote inferiori. Indipendentemente dai dati dei raggi cosmici, alcune conclusioni furono tratte dallo studio dettagliato delle forze in nuclei leggeri, specialmente nel nucleo di deuterio. Questo studio sembrava dapprima indicare l'esistenza di un mesone di spin 1 (mesone vettoriale); tuttavia, in seguito, si cominciò a ritenere più probabile la presenza di un mesone di spin 0 caratterizzato da una parità intrinseca negativa, vale a dire una particella pseudoscalare. Divenne anche evidente che la forma prevalente del decadimento beta non coinvolgeva il mesone, come Yukawa aveva originariamente proposto, bensì si realizzava attraverso qualche forma di interazione di Fermi a quattro campi.
Tuttavia anche nella fisica nucleare attuale basata sui quark ‒ e specialmente nel regime che oggi viene definito di energie intermedie, vale a dire nella regione di diverse centinaia di MeV ‒ la teoria mesonica continua a svolgere un ruolo importante. Gli esperimenti che utilizzavano fasci di mesoni, prodotti dagli acceleratori di particelle ad alta energia, furono importanti nell'originare quella vera e propria esplosione di scoperte di nuove particelle che si registrò a partire dagli anni Cinquanta e divenne incontenibile nel corso degli anni Sessanta. La prima di queste nuove particelle fu individuata intorno al 1950 come una 'risonanza' ossia, più precisamente, come un picco nella probabilità di diffusione dei pioni sui nucleoni in funzione dell'energia del pione incidente. Confrontando la diffusione di pioni positivi e negativi su protoni e neutroni e analizzando la distribuzione angolare dei pioni diffusi, si riuscì a stabilire che la risonanza avveniva nello stato con spin 3/2 e con isospin 3/2. Utilizzando la relazione Q=e(I3+B/2), un numero barionico B=1 per il nucleone e I3=3/2, 1/2, −1/2, −3/2, si può verificare che la risonanza avviene nei quattro stati di carica 2,1,0, −1 (in unità di e) per il sistema pione-nucleone. Per esempio, Q=2 e Q=−1 corrispondono rispettivamente a π++p e π−+n.
Questi risultati furono confermati ed estesi ad altri stati per mezzo di esperimenti svolti con acceleratori di elettroni, che venivano affrontati per studiare la produzione di mesoni per effetto dello scambio di un fotone virtuale tra un elettrone di alta energia e un nucleone, un processo chiamato fotoproduzione. I fisici si resero presto conto che non riuscivano a distinguere una risonanza da una particella instabile con breve vita media.
Quando si diffuse l'uso di grandi camere a bolle vennero scoperte molte nuove risonanze della diffusione pione-nucleone e di particelle strane: tutte erano ben riproducibili nell'ambito dello schema SU(3) proposto da Gell-Mann e da Ne'eman.
La matrice S e la teoria della dispersione
L'approccio della matrice S alla teoria delle interazioni forti era inizialmente una risposta all'incapacità della teoria mesonica di produrre predizioni corrette per i processi di alta energia. A causa dell'elevato valore della costante di accoppiamento adimensionale g, uno sviluppo perturbativo analogo a quello utilizzato nella QED risultava impossibile, anche nell'ipotesi di non considerare le divergenze. Nel 1940 Gregor Wentzel propose una teoria di accoppiamento forte, basata su uno sviluppo perturbativo in g−1, estesa nel 1941 da Tomonaga al caso di accoppiamento intermedio.
Queste teorie non trovavano un grande riscontro negli esperimenti, benché esse riuscissero a prevedere (come venne poi mostrato da Pauli) alcuni stati eccitati dei nucleoni quali le risonanze pione-nucleone, osservate alla fine degli anni Quaranta.
Per evitare questi problemi relativi alla QFT, nel 1943 Heisenberg sviluppò una teoria basata su quella che egli definiva 'matrice caratteristica' del problema di diffusione. Sembra che egli non sapesse che nel 1937 Wheeler aveva introdotto una matrice simile (anche se non relativistica) per affrontare il problema della diffusione dei nuclei leggeri, chiamandola 'matrice S'. La differenza consisteva nel fatto che Heisenberg aveva reso la matrice S autonoma, piuttosto che derivarla da una QFT, e l'aveva fatta dipendere soltanto da quantità osservabili, specificatamente dallo spin, dal quadrimpulso, e così via, delle particelle realmente presenti negli stati iniziali e finali. Egli sperava in questo modo di evitare le difficoltà associate alle particelle virtuali e agli stati intermedi. Nel corso di un viaggio nei Paesi Bassi durante la guerra, egli discusse la sua nuova teoria, specialmente con Kramers, e ne accettò il suggerimento di imporre che la matrice S fosse una funzione analitica delle sue variabili, ipotesi che poneva forti restrizioni alla sua forma.
Heisenberg sviluppò la propria teoria in una serie di articoli durante tre anni successivi ma poi decise che era più opportuno derivare la matrice S da una QFT. Dal 1949 egli si dedicò allo sviluppo di una QFT unificata non lineare, alla quale lavorò con molti collaboratori per il resto della sua vita. Benché la nuova teoria avesse introdotto alcune idee importanti nella fisica (come lo stato di vuoto degenere, che egli chiamò 'stato del mondo'), essa ebbe pochi sostenitori al di fuori della sua cerchia. Molti fisici teorici si concentrarono invece sui grandi progressi realizzati nella QED rinormalizzata, sugli eccitanti risultati sperimentali riguardanti i raggi cosmici e sugli acceleratori di particelle ad alta energia che potevano produrre mesoni liberi. Seguì un periodo, fino ai primi anni Cinquanta, durante il quale i fisici sperarono di riuscire ad applicare i metodi di rinormalizzazione alla teoria mesonica delle forze nucleari, ma questa speranza fu ancora una volta vanificata dal valore elevato dell'intensità dell'accoppiamento mesone-nucleone, che era dell'ordine dell'unità.
La matrice S non fu comunque completamente ignorata ma venne considerata come un utile strumento di calcolo da derivare a partire dalla QFT; inoltre, dal 1954, un articolo di Walter Thirring rinnovò l'interesse per la matrice S nella forma delle relazioni di dispersione. L'origine di queste relazioni, per contro, affondava le radici negli anni Venti, quando Kramers e Ralph de Laer Kronig avevano descritto le relazioni tra le parti reali e immaginarie delle ampiezze di diffusione della luce. Un lavoro di grande rilevanza venne sviluppato, nel 1955, da Marvin Goldberger per la diffusione 'in avanti' (vale a dire nella direzione di propagazione) del mesone, successivamente esteso dallo stesso Goldberger con l'aiuto dei suoi collaboratori alla diffusione 'non in avanti' del pione sul nucleone.
Alla fine degli anni Cinquanta e durante gli anni Sessanta, per merito di Geoffry Chew, Stanley Mandelstam, Tullio Regge e di un gran numero di altri fisici teorici in America e nel resto del mondo, le relazioni di dispersione, la teoria analitica della matrice S e il cosiddetto approccio bootstrap (un'espressione idiomatica che indica l'azione di sollevarsi tirandosi dai lacci delle scarpe) divennero le più popolari teorie dinamiche della fisica di alta energia. La matrice S rivestiva un ruolo prevalente nella dinamica, in concomitanza con l'uso crescente dei metodi delle teorie di gruppo. Nell'ambito dell'attuale Modello standard, tuttavia, la matrice S ha perso la sua autonomia, tornando a essere riguardata come un potente strumento di calcolo.
Le teorie di gauge di Yang e Mills, i quark e il Modello standard
Nel 1954 Yang e Robert L. Mills (e nel 1955 Ronald Shaw in una tesi di dottorato) introdussero una teoria di gauge non abeliana. Un gruppo non abeliano è caratterizzato dal fatto che i suoi elementi non commutano, come nel caso del gruppo delle rotazioni nello spazio tridimensionale. Un esempio di una teoria di gauge classica è l'elettrodinamica, dove il campo di gauge è rappresentato dal potenziale quadrivettore. Le grandezze fisicamente misurabili sono il campo elettrico e quello magnetico, che possono essere derivati dalle componenti del potenziale quadrivettore, vale a dire dai potenziali V e A: nel caso statico si utilizzano le relazioni E=−gradV e B=rotA. è possibile aggiungere una costante arbitraria a V e il gradiente di una funzione scalare arbitraria ad A senza che vengano modificati i valori delle grandezze fisiche, poiché le derivate di questi termini aggiuntivi sono nulle. In meccanica quantistica o in una qualsiasi QFT l'invarianza di gauge elettromagnetica, insieme con l'invarianza sotto trasformazioni locali (vale a dire dipendenti dallo spazio) della fase dei campi di materia, fissa in modo univoco la forma delle interazioni elettromagnetiche.
Il gruppo di simmetria considerato da Yang e Mills era il gruppo di isospin della fisica nucleare, caratterizzato da tre generatori che agiscono su una funzione d'onda spinoriale a due componenti, le quali rappresentano il protone e il neutrone (il nome isospin deriva dal fatto che il gruppo è di struttura SU(2), la stessa del gruppo fondamentale delle rotazioni nello spazio tridimensionale). L'invarianza della teoria sotto l'azione del gruppo di isospin locale richiede l'introduzione di un campo di gauge di spin 1 che abbia anche isospin 1, e quindi in questa QFT compaiono 'fotoni', ossia particelle che corrispondono alla rappresentazione in termini di fotoni del campo elettromagnetico. Tuttavia, poiché i nuovi 'fotoni' sono anch'essi privi di massa e danno origine a forze a raggio d'azione infinito, essi non costituiscono buoni candidati per la descrizione delle forze nucleari, che sono a corto raggio di azione. La soluzione del problema della massa fu raggiunta negli anni Sessanta (in due modi differenti) e grazie a essa furono derivati i campi di gauge rinormalizzabili che caratterizzano il Modello standard attuale.
Le particelle che compaiono nel Modello standard sono tre famiglie di leptoni e di quark, ciascuna delle quali è costituita da una coppia di leptoni e da una coppia di quark che possono essere caratterizzati da tre 'colori'; in totale si hanno pertanto 8 fermioni di spin 1/2 per famiglia oppure 16, contando le rispettive antiparticelle. Il numero degli elementi del Modello standard è 48, quindi comparabile con il numero degli elementi chimici. I membri della prima famiglia, quella caratterizzata dai valori inferiori per la massa, sono l'elettrone, il suo neutrino, i quark u e d (dall'inglese up e down). I due quark di questa famiglia sono i costituenti del protone e del neutrone. La seconda famiglia include il muone, il suo neutrino, il quark s (strange) e il quark c (charm). La terza famiglia comprende la particella tau, il suo neutrino, il quark t (top) e il quark b (bottom). Gell-Mann e George Zweig introdussero, indipendentemente, i quark nel 1964; Nambu propose la simmetria di gauge di colore nel 1966 e Gell-Mann introdusse i termini quark e colore, da cui derivò in seguito il nome la teoria di cromodinamica quantistica (QCD, quantum chromodynamics) per uno dei due settori del Modello standard.
Tutte le particelle fondamentali sono coinvolte nelle interazioni deboli e in quelle elettromagnetiche, che vengono mediate attraverso lo scambio dei quanti del campo di gauge elettrodebole. Nel settore elettrodebole di tale modello i quanti sono il fotone elettromagnetico e i bosoni vettoriali massivi chiamati W+, W− e Z″. I grandi valori della massa di queste particelle, necessari per dar conto del corto raggio di azione osservato per le interazioni deboli, sono ottenuti mediante una procedura conosciuta come rottura spontanea della simmetria (SBS), che preserva la simmetria di gauge e la rinormalizzabilità della teoria. Alcuni dei fisici i cui nomi sono associati a questa procedura sono Nambu, Giovanni Iona-Lasinio, Philip Anderson, Jeffrey Goldstone e Peter W. Higgs.
Gli adroni, che comprendono i nucleoni e i mesoni, sono composti di quark e antiquark. Un mesone è formato da un quark e da un antiquark, un barione da tre quark (ciascuno con numero barionico 1/3) e un antibarione da tre antiquark (ciascuno con numero barionico −1/3). Le cariche elettriche dei quark sono o +(2/3)e (quark u) o −(1/3)e (quark d); per esempio, il protone è formato da due quark u e da uno d. Le particelle con carica elettrica non intera, tuttavia, non erano mai state osservate. Nella QCD, il gruppo di gauge delle interazioni forti tra i quark, vale a dire i fotoni del campo di gauge, è costituito da otto gluoni di massa nulla e dotati di colore. È possibile, infine, spiegare il corto raggio delle interazioni nucleari forti e l'assenza di osservazioni di valori non interi della carica con il confinamento permanente di quark e gluoni. All'interno dei suoi limiti di applicabilità non si è mai riscontrato nessun errore nelle predizioni del Modello standard.
Nuclei transuranici e modelli nucleari a strati
Gli elementi transuranici possono essere ottenuti con il bombardamento dell'uranio con nuclei di deuterio. Il primo di questi elementi a essere rilevato senza ambiguità, il nettunio (239Np), fu realizzato nel 1940 nel ciclotrone di Berkeley da Edwin M. McMillan e Philip Abelson. Si osservò che uno dei prodotti di reazione, 239U, presentava un decadimento beta in 239Np con una vita media di 23 minuti. In seguito si aveva un decadimento beta in plutonio (239Pu, con Z=94) di questo isotopo, in 2-3 giorni circa. Quando durante la guerra McMillan passò a occuparsi del progetto radar, Glenn T. Seaborg continuò il lavoro che avevano cominciato insieme e nel gennaio del 1941 riuscì a produrre 238Pu, bombardando l'uranio con i deutoni a 16 MeV del ciclotrone a 60 pollici (1,52 m ca.) di Berkeley. Durante la guerra i reattori nucleari che utilizzavano l'uranio ordinario a Hanford (Washington) produssero grandi quantità di plutonio, che fu il materiale fissile impiegato nella bomba sganciata nel 1945 su Nagasaki. Gli elementi da Z=95 (americio) a Z=103 (laurenzio) furono prodotti tra il 1944 e il 1961, usando radiazione proveniente da ciclotroni, reattori nucleari, acceleratori lineari e infine, come sottoprodotto, dalle esplosioni termonucleari.
Trentacinque ciclotroni circa furono adoperati per la ricerca nel campo nucleare e medico a partire dal 1952, sia in Europa sia negli Stati Uniti (i fisici giapponesi, sotto la guida di Yoshio Nishina, avevano costruito quattro ciclotroni, che furono distrutti dalle forze di occupazione statunitensi dopo la Seconda guerra mondiale). Il ciclotrone a orbite separate (un acceleratore lineare avvolto a spirale), introdotto nel 1959, era in grado di raggiungere energie più elevate del ciclotrone classico e di produrre fasci molto più intensi. A differenza del sincrotrone a frequenza modulata, nel quale la frequenza di accelerazione viene di volta in volta modificata per compensare l'incremento relativistico della massa delle particelle all'aumentare della loro velocità, il ciclotrone a orbite separate raggiunge lo stesso scopo mediante un magnete progettato in modo tale da confinare le particelle accelerate. Durante gli anni Cinquanta F. Bennet sviluppò un acceleratore elettrostatico che raddoppiava l'energia della macchina di Van de Graaff. Nel suo acceleratore tandem vengono inseriti alcuni ioni, originati da una sorgete ionica, che poi sono accelerati verso un terminale carico positivamente. Quando giungono sul terminale gli ioni perdono alcuni elettroni esterni e gli ioni positivi risultanti, per effetto della repulsione, si allontanano attraverso un altro tubo, raddoppiando la loro energia, che in questo modo può essere controllata con precisione.
A partire dai primi anni Trenta, quando divenne chiaro che i nuclei erano composti da N neutroni e Z protoni, si osservò che se N o Z (o entrambi) erano pari a uno dei 'numeri magici' 2, 8, 20, 28, 50, 82 o 126 i nuclei risultavano particolarmente stabili. Tali nuclei infatti sono associati a un picco nell'energia di legame in funzione di N o Z e risultano relativamente abbondanti. I primi numeri magici potevano essere derivati da un modello del nucleo a particelle indipendenti, nel quale i protoni occupano stati di un'unica buca di potenziale (analogamente a quanto avviene nel modello di Hartree per gli atomi) e la stessa assunzione viene fatta per i neutroni. Come fu teorizzato nel 1934 da Walter M. Elsasser (1904-1991), che pose l'accento sull'importanza del principio di esclusione di Pauli, lo stato quantistico a energia minore avrebbe 2 neutroni e 2 protoni, il secondo livello energetico 6 di ciascuno dei due tipi di nucleone e quello successivo 12 (sono tutti stati di momento angolare 0 o 2 con energie molto prossime tra loro). Tuttavia questo modello non era in grado di dar conto del valore dei numeri magici più elevati. Dopo il successo della teoria del nucleo composto formulata nel 1936 da Niels Bohr, fu prestata poca attenzione al modello a particelle indipendenti o ai livelli energetici nucleari fino a quando essi non vennero riconsiderati nel 1949 da Maria Goeppert-Mayer negli Stati Uniti e da Otto Haxel, Johannes Hans Daniel Jensen e Hans Eduard Suess in Germania. Commentando l'assegnazione del premio Nobel per la fisica del 1963 a Goeppert-Mayer e Jensen (fu premiato quell'anno anche Eugene Wigner), Bethe affermò che Goeppert-Mayer e Jensen "avevano suggerito che nei nuclei esiste un accoppiamento molto forte tra lo spin e il momento [angolare] orbitale di ogni nucleone, cosicché questi due vettori tendono a risultare paralleli". Con questo assunto essi avevano mostrato che deve esistere una particolare stabilità per i ben noti numeri magici. Il modello nucleare a strati era stato pienamente verificato e da allora costituisce la base per tutte le teorie della struttura nucleare.
Il modello del nucleo composto di Bohr schematizzava il nucleo come una goccia di liquido con una certa tensione superficiale. Era naturale aspettarsi che una tale struttura avrebbe presentato diversi modi di vibrazione. Nel 1948 George C. Baldwin e G. Stanley Klaiber scoprirono un nuovo tipo di risonanza nucleare che veniva eccitata dai raggi gamma prodotti da un betatrone. I raggi gamma determinano una vibrazione collettiva dei protoni rispetto al centro di massa del nucleo: essa viene chiamata perciò risonanza gigante di dipolo. L'interpretazione di questo effetto come modo collettivo fu data da Goldhaber e Teller nel 1948 e fu derivata a partire dal modello a strati da Dennis H. Wilkinson nel 1959.
Nei modelli a strati si ipotizzava che il potenziale nucleare, e di conseguenza il nucleo stesso, avesse una forma sferica, nonostante i fisici sapessero che il nucleo di deuterio presentava in realtà un momento di quadrupolo elettrico (vale a dire la sua distribuzione di carica interna risultava allungata ‒ a forma di sigaro ‒ nella direzione dell'asse dello spin). Tuttavia uno studio dei momenti di quadrupolo dei nuclei con Z variante tra i livelli energetici completi con numeri magici 50 e 82, che consisteva nella misura della struttura iperfine degli spettri atomici di tali nuclei, dimostrò che i loro valori erano fino a trenta volte maggiori di quanto era previsto dal modello a strati, anche se tale modello riusciva a prevedere correttamente un momento di quadrupolo nullo per il caso dei nuclei magici. Nel 1950 James Rainwater della Columbia University propose una modifica da apportare al potenziale nucleare in modo da conferire ai nuclei in questione una forma sferoidale.
Anche Aage Bohr si trovava alla Columbia University e stava studiando l'effetto dei nucleoni di valenza che orbitano all'interno di un livello energetico completo. Egli comprese che, per effetto dell'accoppiamento di tali nucleoni con le vibrazioni di superficie, "poteva prevedere differenti tipi di eccitazioni collettive: vibrazioni, che consistevano in un cambiamento periodico della forma del nucleo rispetto a una certa forma media, e rotazione dell'intero nucleo attorno a un asse perpendicolare al suo asse di simmetria. In quest'ultimo caso, il nucleo non ruota come un corpo rigido, ma il moto consiste in un'onda di superficie che si propaga attorno al nucleo". Queste parole sono tratte dalle motivazioni per l'assegnazione del premio Nobel per la fisica che Bohr ricevette nel 1975 con Rainwater e Ben R. Mottelson.
Negli anni 1952-1953 Bohr e Mottelson scrissero una serie di articoli nei quali estendevano questa teoria, dimostrando che in certi nuclei i livelli energetici formano uno spettro rotazionale.
Atomi esotici e ipernuclei
Un atomo esotico è un sistema atomico che differisce dal solito schema di un insieme di elettroni e di un nucleo. Una classe di atomi esotici è caratterizzata dalla sostituzione di un elettrone orbitale con un'altra particella carica negativamente, come un muone, un mesone K o un antiprotone. Queste particelle hanno tutte una massa maggiore di quella elettronica e dal momento che il raggio di Bohr è inversamente proporzionale alla massa (e che il principio di Pauli non deve essere applicato) si osserva una transizione della particella esotica in uno stato fondamentale che giace ben al di sotto dello stato elettronico più profondo, a patto che essa presenti una vita media sufficientemente lunga prima del decadimento o della sua cattura da parte del nucleo atomico.
Generalmente solo il muone, con un tempo di decadimento di 2,2 ms ca. e una debole interazione con il nucleo, riesce a raggiungere il suo stato atomico fondamentale ed è in grado persino di sopravvivere per un tempo apprezzabile nelle vicinanze del nucleo negli atomi più pesanti. Gli atomi mesonici sono stati studiati fin dai primi anni Cinquanta fornendo preziose informazioni sulla natura delle interazioni deboli.
Un'altra classe di atomi esotici include il positronio e atomi simili, specificatamente il muonio e il quarkonio. Il positronio è un atomo formato da un elettrone e dalla sua antiparticella, il positrone. La sua struttura atomica è essenzialmente quella dell'atomo di idrogeno, a esclusione degli effetti legati alla posizione del centro di massa. Più precisamente, il positronio è centrato in un punto che si trova esattamente a metà strada tra le posizioni dell'elettrone e del positrone, mentre l'atomo di idrogeno è centrato quasi esattamente sul protone. Il risultato è che il positronio risulta due volte più grande dell'idrogeno e le energie dei suoi livelli sono la metà di quelle dell'idrogeno. Wheeler pubblicò i primi studi teorici sul positronio nel 1946 e Martin Deutsch riuscì a produrlo sperimentalmente nel 1951. Poiché in questi sistemi atomici le interazioni avvengono soltanto tra leptoni carichi, le proprietà del positronio, del muonio, ecc. possono essere utilizzate come test molto accurati per la QED.
Esistono anche nuclei esotici che contengono iperoni (barioni strani) chiamati ipernuclei. Tali particelle sono state osservate a partire dagli anni Cinquanta e vengono prodotte generalmente dalla cattura di un mesone K carico negativamente in un nucleo ordinario. Gli iperoni non sono soggetti al principio di esclusione di Pauli nel nucleo atomico e di solito tendono a eseguire una transizione nello stato fondamentale del nucleo. Lo studio del loro decadimento nelle emulsioni nucleari e nelle camere a bolle ha dato origine al nuovo campo della fisica ipernucleare, utile specialmente per le informazioni che fornisce sulle interazioni degli iperoni con i nuclei, che risulterebbero altrimenti inaccessibili.
Teoria molecolare
A partire dal 1950 furono conseguiti grandi progressi anche nello studio delle molecole, dei cristalli, dei semiconduttori e di altri sistemi complessi, soprattutto grazie all'impiego dei calcolatori elettronici. Le teorie utilizzate affondano le loro radici nei primi giorni della meccanica quantistica e, più precisamente, nell'equazione di Schrödinger del 1926 e sono basate su metodi originariamente sviluppati per la fisica atomica. Tuttavia mentre l'atomo è caratterizzato da un singolo nucleo pesante e quasi puntiforme, i sistemi complessi presentano due o più nuclei. Uno dei problemi della chimica quantistica è quello di stabilire la struttura delle molecole determinando la disposizione dei nuclei, vale a dire le loro distanze e gli angoli dei loro legami.
Tra i primi scienziati che si cimentarono in questo campo vi furono Friedrich Hund e Robert S. Mulliken. Dal momento che una soluzione esatta dell'equazione di Schrödinger non esiste per sistemi con più di un elettrone, è necessario adottare vari generi di approssimazione.
Max Born e Oppenheimer svilupparono una teoria approssimata delle molecole basata sul valore ridotto del rapporto tra la massa elettronica e quella di un nucleo. Il caso più semplice è quello di due nuclei (per es., H2 o CO) separati da una distanza R e ipotizzati inizialmente a riposo. L'energia dello stato fondamentale (o degli stati eccitati legati) può essere calcolata in funzione di R e presenta un minimo per un certo valore di R, indicato con R0, che rappresenterà la distanza di equilibrio dei nuclei per questo stato. L'energia E(R) può essere utilizzata come potenziale per il movimento vibrazionale dei nuclei, che è molto simile a quello di un oscillatore armonico i cui i livelli energetici siano assai inferiori ai valori delle energie elettroniche. Le vibrazioni determinano l'origine di strutture aggiuntive nello spettro energetico, insieme con le energie rotazionali del manubrio costituito dai due nuclei, che sono ancora più piccoli.
Questo metodo per i calcoli relativi ai sistemi molecolari biatomici, generalizzato al caso di più nuclei, costituisce la procedura base per lo studio di chimica quantistica delle molecole piccole, anche grazie al teorema di Hellmann-Feynman. Sulla base di questo teorema di meccanica quantistica si può affermare che sono le forze classiche di natura elettrica originate dalla distribuzione di carica elettronica a determinare la configurazione dei nuclei.
Il problema di risolvere l'equazione d'onda per gli elettroni che si muovono nel campo originato da diversi nuclei è analogo a quello di un atomo complesso. In quest'ultimo caso il metodo utilizzato è l'approssimazione di Hartree-Fock, nel quale la funzione d'onda viene costruita a partire dalle funzioni d'onda di particella singola, chiamate spin-orbitali, che contengono informazioni sia sulle coordinate spaziali sia sullo spin della particella. La parte spaziale si ottiene risolvendo un'equazione d'onda di Schrödinger per un elettrone che si muova in un potenziale medio originato dagli altri elettroni e dal nucleo. La funzione d'onda di Hartree-Fock è data dalla somma dei prodotti degli spin-orbitali di tutti gli elettroni, costruita (con i segni appropriati) in modo tale che la funzione d'onda globale del sistema soddisfi il principio di esclusione di Pauli. Questo tipo di funzione d'onda viene chiamata determinante di Slater, dal nome del fisico John C. Slater (1900-1976), cui va il merito di averla introdotta.
I calcoli ell'energia con il metodo di Hartree-Fock (piuttosto laboriosi, prima che divenissero disponibili calcolatori sufficientemente rapidi) sono ottenuti con una procedura autoconsistente. Il metodo consiste nel calcolare un insieme di orbitali a partire da un potenziale iniziale di prova, per esempio è possibile scegliere il potenziale del sistema senza i termini di interazione elettrone-elettrone. La densità di carica, ossia il modulo quadrato della funzione d'onda, è utilizzata per ricavare un nuovo potenziale di prova, con il quale poi si ricalcolano nuove espressioni per gli orbitali atomici. Il procedimento viene ripetuto finché non si riscontrano variazioni trascurabili tra l'ultimo risultato e quello precedente. Grazie a questo metodo sono state ottenute stime molto precise per le energie dei livelli atomici ed espressioni per le loro funzioni d'onda rivelatesi estremamente utili per il calcolo di quantità come i momenti magnetici e le probabilità di transizione.
L'uso del metodo di Hartree-Fock può essere esteso al caso di piccole molecole, ma la procedura utilizzata più comunemente è il metodo variazionale, basato sul fatto che, secondo l'enunciato di un altro teorema, il valore medio dell'energia raggiunge il suo minimo quando viene calcolato sulla funzione d'onda esatta. Di conseguenza nei calcoli viene utilizzata una forma flessibile per la funzione d'onda di prova, che contiene perciò un certo numero di parametri variabili, i cui valori vengono modificati fino a trovare il valore minimo per l'energia media. Questo metodo fornisce un limite superiore per l'energia e la migliore approssimazione per la funzione d'onda del livello energetico tra quelle della forma scelta all'inizio. Inoltre con tale procedura è possibile calcolare un limite superiore per l'energia del livello energetico più basso di uno stato caratterizzato da una certa simmetria, quale potrebbe essere quella dello stato fondamentale del sistema o di un suo livello eccitato.
Nel giugno del 1959, durante una conferenza internazionale di chimica quantistica, Charles A. Coulson (1910-1974), uno dei principali scienziati attivi in questo campo, riassunse nel modo seguente i progressi che erano stati ottenuti:
[La] natura essenziale del legame chimico è stata compresa, come pure le ragioni dei valori approssimativamente costanti delle lunghezze dei legami chimici e degli angoli di valenza […] Noi abbiamo compreso perché le molecole risonanti risultavano particolarmente stabili e quali erano gli effetti di questa risonanza sulle lunghezze di legame. Abbiamo capito il modo di utilizzare i numeri quantici (e le loro limitazioni) nel descrivere le orbite elettroniche in una molecola, sia nello stato fondamentale sia in quelli eccitati, e […] siamo in grado almeno di caratterizzare gran parte delle transizioni elettroniche rilevate negli spettri di assorbimento ultravioletti.
Nello stesso discorso, inoltre, Coulson osservò che si stava verificando nel campo della chimica quantistica una grande divisione, che peraltro egli stesso giudicava inevitabile, tra i teorici che utilizzavano potenti tecniche di calcolo numerico per studiare le molecole piccole (quelle con meno di sei elettroni) a partire da principî primi e coloro che stavano affrontando l'analisi delle molecole più complesse mediante l'inclusione di informazioni empiriche nonché di ragionamenti più intuitivi vicini alla chimica tradizionale. Con questi metodi prima del 1960 furono studiate molecole contenenti fino a dieci elettroni, mentre l'analisi di molecole più grandi veniva considerata una sfida.
Un esempio del metodo ab initio, cui si è accennato in precedenza, venne illustrato durante una riunione, tenuta nel 1959 da Bernard J. Ransil, del programma delle molecole biatomiche del gruppo di Mulliken alla University of Chicago: "Andate avanti con il calcolo fino a quando è ragionevolmente possibile, guidati dall'intuizione chimica e fisica e dalle risorse di calcolo disponibili, senza introdurre dati o schemi empirici". Come esempio degli approcci più tradizionali, lo svedese Per-Olov Löwdin discusse gli schemi di Hartree-Fock estesi e Clemens C. J. Roothaan della University of Chicago parlò di 'una teoria di campo autoconsistente per i livelli energetici incompleti dei sistemi elettronici'.
Come nel caso atomico, l'interesse maggiore spesso è legato al caso degli elettroni che si trovano al di fuori dei livelli elettronici completi (e dunque più interni, detti perciò livelli di core), il cui contributo al problema spesso può essere schematizzato per mezzo di uno pseudopotenziale. L'interazione di livelli energetici incompleti con quelli più interni può essere quindi considerata alla stregua di un piccolo effetto aggiuntivo. Un approccio analogo può essere utilizzato nei calcoli di fisica dello stato solido.
Ottica quantistica
Con il nome di ottica quantistica s'intende l'applicazione della QED nel regime delle frequenze ottiche (≈1015 Hz). In molti casi i risultati ottenuti coincidono con quelli della teoria dell'ottica classica, ma essa racchiude alcuni fenomeni completamente nuovi, come la correlazione EPR dei fotoni ottici e il laser. Le origini dell'ottica quantistica coincidono con quelle della QED: il suo inizio può essere identificato con la teoria di Planck della radiazione del 1900. Altri pilastri fondamentali sono senz'altro il concetto e la derivazione dell'emissione spontanea e stimolata della luce, che Einstein sviluppò negli anni 1916-1917, e la statistica di Bose-Einstein che risale al 1924. A partire da questo periodo erano stati stabiliti tutti i principî necessari per comprendere il funzionamento del laser. Tuttavia, Theodore H. Maiman costruì il primo laser solo nel 1960, utilizzando un cristallo di rubino artificiale in grado di produrre un'emissione pulsata di luce rossa.
È possibile comprendere il principio di funzionamento del laser considerando che, in un insieme di molecole identiche all'equilibrio termico a una data temperatura T, l'occupazione degli stati di energia interna E risulta proporzionale a exp(−E/kT), dove k è la costante di Boltzmann. Gli stati a energie inferiori tendono perciò a essere maggiormente occupati. Uno stato di energia più alta può decadere spontaneamente in uno di energia inferiore, emettendo un fotone di frequenza ν=ΔE/h, dove ΔE rappresenta la differenza energetica e h è la costante di Planck.
L'assorbimento di un fotone di frequenza ν determina la transizione inversa; lo stesso fotone tuttavia può anche stimolare un'ulteriore transizione dallo stato a energia maggiore a quello a energia minore. L'emissione stimolata è proporzionale al numero di fotoni di frequenza ν presenti cosicché, se è possibile ottenere selettivamente una sovrappopolazione del livello a energia maggiore, si registra un'amplificazione (con un effetto a cascata) del numero di fotoni con frequenza ν presenti nel sistema. Per ottenere l'effetto laser è necessario trovare un modo per produrre questa enorme sovrappopolazione del livello energetico superiore e uno spazio (una cavità o un riflettore) per trattenere una parte dell'emissione stimolata in modo da far proseguire il processo.
L'effetto laser fu ottenuto per la prima volta con il maser, strumento realizzato da Charles H. Townes nel 1954 presso la Columbia University, utilizzando un fascio di molecole di ammoniaca. Avendo lavorato al progetto radar nel corso della Seconda guerra mondiale, egli era interessato all'interazione delle microonde (onde radio di lunghezza minore di 1 mm) con le molecole. Egli fece passare il fascio molecolare attraverso una serie di campi elettrici per separare le molecole a energia maggiore da quelle a energia minore, così da produrre l'inversione di popolazione necessaria e osservare l'amplificazione di un opportuno impulso di microonde. Nel 1956 Nicolaas Bloembergen, uno studente di Edward M. Purcell, che aveva scoperto la risonanza magnetica nucleare, suggerì l'utilizzo di una configurazione a tre livelli mediante l'impiego di materiali solidi come un cristallo per realizzare un maser.
Con tre o quattro livelli diviene possibile utilizzare un meccanismo stazionario (invece di un fascio di particelle) per produrre un maser, come fu mostrato in Unione Sovietica da Nikolaj Gennadijevič Basov e Aleksandr Michajlovič Prochorov, insieme ai quali Townes ricevette il premio Nobel per la fisica nel 1964. Il maser, grazie alla sua eccezionale stabilità, viene utilizzato per realizzare orologi atomici estremamente precisi. Una delle sue applicazioni ha contribuito alla verifica del comportamento relativistico degli orologi in sistemi di riferimento in moto, previsto da Einstein.
Nel 1958 Townes e suo cognato Arthur Schalow scrissero un articolo per spiegare in quale modo il principio di funzionamento del maser poteva essere applicato nel regime delle frequenze ottiche; due anni dopo Maiman lo provò con il suo laser a cristallo di rubino. Un elemento necessario in questo strumento è costituito da una pompa ottica in grado di creare l'inversione di popolazione; nel laser di Maiman la pompa era un tubo a scarica allo xeno avvolto attorno alla sbarretta di rubino. Arthur Kastler si occupò dello studio del pompaggio ottico in una serie di articoli a partire dal 1950.
Molti tipi di laser attualmente sono realizzati con solidi, come cristalli e semiconduttori, gas e liquidi coloranti. Alcuni possono essere utilizzati in un intervallo di frequenze, mediante l'applicazione di un campo magnetico opportuno. Il laser viene largamente impiegato nell'ambito delle comunicazioni e nei settori della medicina, della metallurgia, e per la costruzione di strumenti e di congegni di uso militare, così come per la musica digitale e per le applicazioni video.
Tavola I - LA FISICA DEI RAGGI COSMICI: LE ORIGINI
Nel XX sec., lo studio dei raggi cosmici ha svolto un ruolo centrale nelle scienze fisiche, interagendo con diversi settori disciplinari: dalla geofisica alla fisica nucleare, dalla cosmologia all’astrofisica, dalla fisica delle particelle elementari all’astronomia X e gamma. Varie sono state le tecniche sperimentali impiegate, con rivelatori più o meno sofisticati utilizzati in laboratorio o trasportati in alta quota, immersi in acqua, inviati nello spazio, sepolti sotto la superficie terrestre o distribuiti nel deserto.
L’interazione con l’atmosfera e le componenti secondarie
All’origine della scoperta dei raggi cosmici c’è stato il riconoscimento, all’inizio del Novecento, che la conducibilità dell’aria era dovuta all’azione di radiazioni ionizzanti di origine naturale. Parte di tali radiazioni proveniva da sostanze radioattive disperse nel terreno e nell’atmosfera e poteva essere opportunamente schermata. Restava tuttavia una componente molto penetrante di origine sconosciuta, responsabile della cosiddetta ionizzazione residua. Nel 1909 il fisico tedesco Karl Bergwitz e lo svizzero Albert Gockel effettuarono misurazioni in alta quota, a bordo di palloni aerostatici, ottenendo risultati contraddittori. Il primo, infatti, misurò l’intensità della radiazione fino a 1300 m, trovando che essa diminuiva con l’altezza secondo quanto ci si doveva aspettare in base all’ipotesi che si trattasse di raggi gamma prodotti da radioisotopi presenti nel terreno e assorbiti dall’atmosfera. Il secondo salì fino a 4500 m e i suoi dati mostravano invece che la diminuzione dell’intensità era inferiore rispetto a quanto previsto in base a quella stessa ipotesi. Gockel effettuò altri due voli nell’autunno del 1910 e nella primavera del 1911, confermando i risultati già ottenuti,ma riconobbe che essi non potevano essere considerati del tutto affidabili a causa dell’impossibilità di valutare con precisione l’effetto della variazione di pressione all’interno degli strumenti di misurazione.
Si deve al fisico austriaco Victor Hess (1883-1964) la scoperta dell’origine extraterrestre della radiazione responsabile della ionizzazione residua dell’aria. Tra il 1911 e il 1912 Hess compì una serie di ascensioni in pallone con uno strumento perfezionato in modo tale da compensare gli effetti delle variazioni di pressione e di temperatura e con un sistema ottico capace di fornire misurazioni più accurate. Egli trovò che, dopo un’iniziale diminuzione, la ionizzazione aumentava regolarmente con l’altezza raggiungendo a 5000 m un valore maggiore di quello misurato al suolo. Questi risultati, concluse, dimostravano la presenza nell’atmosfera di una radiazione proveniente dall’alto (Höhenstrahlung) di elevatissimo potere penetrante, la cui origine andava ricercata nello spazio extraterrestre.
Tale conclusione fu confermata dal fisico tedesco Werner Kolhörster (1887-1946), il quale compì cinque ascensioni in pallone tra il 1913 e il 1914, raggiungendo l’altezza record di 9300 metri. Dopo la guerra, lo stesso Kolhörster misurò il coefficiente di assorbimento della radiazione nei ghiacciai alpini dello Jungfraujoch e in due laghi nei dintorni di Berlino. Sulla base di tali risultati egli confermò l’esistenza di una radiazione di origine cosmica più penetrante dei raggi gamma più energetici.
Nel corso degli anni Venti del Novecento il fisico americano Robert A. Millikan (1868-1953) s’impose per le sue ricerche sui raggi cosmici. A lui si devono in particolare le misurazioni che nel 1925 confermarono definitivamente l’origine non atmosferica della radiazione penetrante. Nei cinque anni successivi, Millikan e il suo collaboratore George Harvey Cameron svilupparono un ampio programma di ricerca che li portò a compiere misurazioni dalla Bolivia alla California, dal Colorado al Canada, attirando l’interesse di molti studiosi su questo campo di ricerca.
Una camera di ionizzazione con un elettroscopio era lo strumento usuale per queste ricerche, volte a misurare la ionizzazione prodotta dai raggi cosmici in funzione di parametri geofisici o astronomici quali l’altezza sulla superficie terrestre, la latitudine geomagnetica, le condizioni meteorologiche, l’attività solare, la direzione galattica, il tempo siderale, e così via. Riportando in un grafico i risultati delle misurazioni a diverse quote nell’atmosfera e a differenti profondità sott’acqua si otteneva una curva che permetteva di ricavare il potere penetrante della radiazione, il quale risultava molto più elevato che per ogni altra radiazione conosciuta, da cui la conclusione che la radiazione cosmica fosse costituita di fotoni di altissima energia.
Due tipi di problemi si ponevano in tale contesto. Il primo riguardava l’origine di questa misteriosa radiazione apparentemente presente in ogni regione dello spazio extraterrestre e il suo rapporto con la struttura e l’evoluzione dell’Universo. Il secondo problema concerneva la natura delle interazioni tra questa radiazione e la materia e il possibile collegamento tra i risultati ricavati dallo studio dei raggi cosmici e quelli ottenuti con i raggi gamma prodotti da sostanze radioattive.
La questione dell’origine dei raggi cosmici era oggetto di speculazioni che investivano da un lato tematiche legate all’astrofisica e alla cosmologia e, dall’altro, concezioni di carattere filosofico e religioso. Esemplare da questo punto di vista la teoria elaborata da Millikan, secondo cui i fotoni cosmici sarebbero stati prodotti nello spazio interstellare in processi di sintesi degli atomi a partire da protoni ed elettroni. I raggi cosmici, secondo la suggestiva immagine dello scienziato americano, erano i vagiti degli atomi neonati (birth cries) la cui eco arrivava fino alla Terra. In tale teoria, suffragata da precisi dati sperimentali, Millikan vedeva la chiave per sfuggire alla prospettiva, per lui inaccettabile, della ‘morte termica’ dell’Universo, conseguenza inevitabile del secondo principio della termodinamica. In alternativa alla teoria di Millikan, il fisico inglese James Jeans (1877-1946) avanzava l’ipotesi che i raggi cosmici fossero attraverso processi di annichilazione di atomi di idrogeno ed elio. Il tedesco Erich Regener (1881-1955), da parte sua, suggeriva che la radiazione cosmica non fosse altro che la radiazione emessa dalle stelle in una fase molto antica della loro evoluzione, che raggiungeva la Terra dopo una rivoluzione completa nell’Universo relativistico di Einstein. Non mancava inoltre chi riteneva ancora non definitivamente provata l’origine extraterrestre della radiazione penetrante e non escludeva quindi che essa fosse prodotta negli strati più alti dell’atmosfera.
Il problema dell’interazione della radiazione cosmica con la materia riportava la speculazione sul terreno della fisica. Assumendo la validità dell’ipotesi dei fotoni, si poneva il problema di estrapolare le conoscenze acquisite dagli esperimenti con i raggi gamma a energie più elevate di almeno due ordini di grandezza. La fisica teorica aveva prodotto a questo riguardo la formula di Klein-Nishina (1929) per l’effetto Compton, derivante dall’interazione dei fotoni con gli elettroni periferici dell’atomo. Si era osservato, però, che l’assorbimento dei raggi gamma in elementi ad alto numero atomico non era dovuto soltanto all’interazione Compton, ma anche a una qualche interazione con i nuclei atomici le cui caratteristiche restavano ancora sconosciute.
Per tutti gli anni Venti il terreno d’incontro tra la fisica nucleare e la fisica dei raggi cosmici fu di tipo puramente speculativo. Le camere di ionizzazione usate per lo studio dei raggi cosmici fornivano solo misurazioni integrate e non davano alcuna informazione sui singoli processi prodotti dalla radiazione. Nei laboratori di fisica nucleare, d’altra parte, le energie in gioco e i processi osservati fornivano informazioni difficilmente riconducibili ai dati sui raggi cosmici, ottenuti in condizioni così lontane dagli standard di controllabilità e riproducibilità propri dell’attività sperimentale. Meccanica ed elettrodinamica quantistica, infine, sembravano impotenti di fronte alla complessa architettura del nucleo e prive di affidabilità alle energie caratteristiche dei raggi cosmici.
Due articoli pubblicati nel 1929 aprirono nuove prospettive. Entrambi riportavano risultati ottenuti in laboratorio grazie all’uso di nuove tecniche sperimentali che costringevano a rivedere l’insieme delle conoscenze acquisite. L’autore del primo articolo era un fisico del Politecnico di Leningrado, Dmitrij Skobeltsyn. Operando con una camera a nebbia immersa in un campo magnetico, egli aveva osservato tracce di elettroni di altissima energia, presumibilmente prodotti dai raggi cosmici. Per la prima volta le particelle ionizzanti della radiazione cosmica erano state osservate direttamente in laboratorio con una strumentazione tipica della fisica nucleare.
Il secondo articolo fu pubblicato da Kolhörster in collaborazione con Walther Bothe (1891-1957). I due ricercatori, che lavoravano al Physikalisch-Technische Reichsanstalt di Berlino, avevano utilizzato due nuovi contatori del tipo Geiger-Müller con un sistema di rivelazione fotografica capace di registrare segnali emessi simultaneamente da entrambi. Una tale ‘coincidenza’ era interpretata come il passaggio di una singola particella carica attraverso i due contatori. Ponendo materiale assorbente tra di essi si otteneva quindi una misurazione diretta del potere penetrante della radiazione ionizzante, ossia, secondo l’interpretazione corrente, elettroni secondari prodotti dai fotoni cosmici nel loro passaggio attraverso l’atmosfera. I risultati furono sorprendenti: non soltanto il potere penetrante delle particelle ionizzanti era maggiore di quello che ci si sarebbe aspettato da tali elettroni, ma esso risultava paragonabile al potere penetrante della stessa radiazione cosmica misurato attraverso le curve di ionizzazione. Da questi risultati, i due fisici berlinesi trassero la conclusione che la radiazione cosmica primaria fosse costituita non già di fotoni ma di particelle cariche, presumibilmente elettroni di altissima energia.
I risultati di Bothe e Kolhörster furono confermati dal fisico italiano Bruno Rossi (1905-1993), il quale migliorò significativamente la tecnica dei contatori in coincidenza inventando un circuito elettronico capace di registrare il segnale simultaneo di due o più contatori con una risoluzione temporale migliore di quella ottenibile con la registrazione fotografica. Rossi mostrò anche che una frazione significativa della radiazione corpuscolare osservata in laboratorio era capace di penetrare più di un metro di piombo, un risultato stupefacente se si considera che le particelle cariche più penetranti note a quel tempo, i raggi beta prodotti da alcune sostanze radioattive, non riuscivano ad attraversare un millimetro di piombo. Altrettanto sorprendente fu la scoperta che l’interazione della radiazione cosmica con la materia produceva una grande quantità di particelle secondarie cariche. Un’analisi dettagliata di quest’ultimo fenomeno portò Rossi alla conclusione che nella radiazione osservata in laboratorio erano presenti due componenti: una ‘molle’, poco penetrante e molto prolifica nella produzione di particelle secondarie, l’altra ‘dura’, molto penetrante e che solo saltuariamente dava origine a particelle secondarie.
Per comprendere pienamente il significato di questi risultati è opportuno sottolineare il ruolo delle nuove tecniche sperimentali adoperate nello studio dei raggi cosmici. Fino ad allora due erano le proprietà consolidate della radiazione extraterrestre scoperta da Hess: il grande potere penetrante e la capacità di produrre ionizzazione. L’uso della camera di ionizzazione permetteva di analizzare quantitativamente la seconda di tali proprietà, ma nulla diceva circa la natura degli agenti ionizzanti e il loro rapporto con la radiazione primaria in arrivo sull’atmosfera. Per quanto riguarda la prima proprietà, partendo dalle curve sperimentali della ionizzazione in funzione della materia attraversata era possibile calcolare il potere penetrante della radiazione primaria soltanto fissando ipotesi preliminari circa la sua natura (fotoni di altissima energia) e i processi di assorbimento (effetto Compton). L’uso di contatori Geiger e di camere a nebbia, capaci di rivelare gli agenti ionizzanti e le loro interazioni, portò a un radicale mutamento di prospettiva. Oggetto d’indagine e di speculazione non erano più le proprietà globali della radiazione (ionizzazione, potere penetrante, origine cosmica, ecc.) ma piuttosto i processi fisici prodotti dalle sue componenti, in particolare dalle particelle cariche che lasciano una traccia nella camera a nebbia o producono la scarica di un contatore. La radiazione cosmica cessava così di essere un misterioso fenomeno extraterrestre e diventava oggetto di indagine in laboratorio come le radiazioni terrestri prodotte dalle sostanze radioattive.
Rossi fu certamente lo scienziato che per primo comprese il significato di questa svolta. Al Congresso internazionale di fisica nucleare, organizzato a Roma nel 1931, egli sottolineò come, alla luce di nuovi risultati sulla componente penetrante al livello del mare, il problema della natura e dell’origine della radiazione cosmica primaria dovesse ritenersi ancora irrisolto. Entrambe le ipotesi, quella fotonica e quella corpuscolare, si dimostravano incapaci di rendere conto di tali risultati. Per il fisico italiano occorreva dunque ribaltare l’approccio tradizionale: l’oggetto da investigare non era più l’origine della radiazione cosmica incidente sull’atmosfera, ma piuttosto le proprietà e le interazioni della radiazione osservata in laboratorio grazie ai nuovi sistemi di rivelazione. Gli strumenti dei fisici non dovevano più essere puntati verso il cielo alla ricerca di messaggi dall’Universo (come si ostinava a fare Millikan), ma disposti sapientemente sul banco di laboratorio alla ricerca di nuove particelle e nuovi tipi di interazione. Ogni speculazione teorica doveva ancorarsi non alla cosmologia ma alla fisica.
La natura della radiazione cosmica
Il 1932 fu un anno di svolta per la fisica dei raggi cosmici per tre importanti eventi. Il primo fu il prolungamento delle misurazioni dell’intensità dei raggi cosmici fino ad altezze stratosferiche, ottenute dal fisico e ingegnere svizzero Auguste Piccard (1884-1962) e dal fisico Regener. Piccard, insieme al fisico belga Max Cosyns, raggiunse l’altezza record di 16.200 m a bordo di una navicella pressurizzata trasportata da un aerostato da lui stesso progettato. Regener utilizzò invece palloni sonda che estesero le misurazioni fino alla quota di 26.000 metri. I risultati da essi ottenuti confermarono quelli ottenuti vent’anni prima da Hess e Kolhörster.
Il secondo evento significativo fu la scoperta che l’intensità dei raggi cosmici è maggiore alle alte latitudini rispetto alle regioni equatoriali. Tale ‘effetto di latitudine’ dimostrava che i raggi cosmici in arrivo dallo spazio subiscono l’influenza del campo magnetico terrestre e sono quindi costituiti di particelle cariche e non di fotoni elettricamente neutri e pertanto non soggetti a forze magnetiche. L’ipotesi di Bothe e Kolhörster risultava dunque confermata. Già tra il 1927 e il 1929 il fisico olandese Jacob Clay (1882-1955) aveva misurato un’intensità più bassa nelle regioni equatoriali nel corso di due viaggi tra i Paesi Bassi e Giava. Di contro a tali risultati, Millikan non aveva registrato alcuna differenza significativa tra la Bolivia e il Canada, e ciò era uno dei punti di forza della sua difesa ostinata dell’ipotesi fotonica e della sua teoria cosmologica. Fu il fisico americano Arthur H. Compton (1892-1963), premio Nobel per la fisica nel 1927, a confermare definitivamente l’esistenza dell’effetto di latitudine. Nel corso del 1932 egli organizzò otto diverse spedizioni scientifiche in varie parti del mondo, la prima delle quali diretta da lui stesso nelle Hawaii, in Nuova Zelanda, in Australia, in Perù e in Canada. Le altre spedizioni, tutte munite di un identico strumento di misurazione opportunamente progettato e calibrato, si estesero dalla Patagonia all’Alaska, dalle montagne del Sud Africa a quelle del Kashmir, dal Colorado a Singapore e Giava: circa 60 fisici effettuarono misurazioni in 69 diverse postazioni distribuite su un ampio intervallo di latitudini.
L’anno successivo fu scoperto un secondo effetto geomagnetico, previsto teoricamente da Rossi, il cosiddetto ‘effetto est ovest’. Si tratta di una distribuzione asimmetrica dell’intensità della radiazione rispetto al meridiano magnetico, dipendente dal segno della carica delle particelle primarie. L’effetto fu scoperto simultaneamente e indipendentemente da Luis W. Alvarez, un allievo di Compton a Chicago, e da Thomas H. Johnson, della Bartol Research Foundation. Entrambi realizzarono le loro misurazioni a Città del Messico, dove ci si aspettava un effetto più marcato a causa della bassa latitudine e dell’alta quota. I risultati ottenuti mostrarono che la radiazione cosmica era composta essenzialmente di particelle cariche positivamente, come confermato pochi mesi dopo da Rossi stesso in Eritrea. Ulteriori misurazioni compiute nel decennio successivo portarono alla conclusione che i raggi cosmici primari sono costituiti prevalentemente di protoni di alta energia, con una piccola percentuale di particelle alfa e di nuclei più pesanti.
Il terzo importante evento del 1932 fu la scoperta del positrone, di cui fu autore Carl D. Anderson (1905-1991), collaboratore di Millikan in un programma di ricerca volto a misurare l’energia degli elettroni secondari prodotti dai raggi cosmici. La tecnica utilizzata era quella già sperimentata da Skobeltsyn, ossia la misurazione della curvatura delle tracce di tali elettroni in una camera a nebbia immersa in un campo magnetico. Anderson osservò per la prima volta e inaspettatamente tracce di particelle positive nell’autunno del 1931; il fenomeno fu interpretato in base all’ipotesi che i raggi cosmici producessero disintegrazioni nucleari con conseguente emissione di protoni. Un anno più tardi l’evidenza sperimentale non lasciava alcun dubbio: si trattava di particelle positive di massa pari a quella dell’elettrone. Lo stesso Anderson propose il termine ‘positron’ per denotare tali particelle, sulla cui origine, peraltro, non avanzò alcuna ipotesi.
Soltanto nel febbraio del 1933 la scoperta di Anderson fu riconosciuta in tutta la sua importanza, quando Patrick M.S. Blackett (1897-1974) e Giuseppe Occhialini (1907-1993) presentarono alla Royal Society le fotografie ottenute con una nuova tecnica messa a punto al Cavendish Laboratory: una camera a nebbia controllata da contatori in coincidenza. L’accoppiamento dei due tipi di rivelatori e l’uso del circuito di coincidenza di Rossi faceva sì che la camera venisse azionata nel momento in cui i contatori registravano il passaggio di una particella attraverso di essa (negli esperimenti di Anderson essa veniva azionata a caso). Oltre a confermare l’esistenza degli elettroni positivi, le fotografie mostravano un nuovo straordinario fenomeno: sciami di elettroni positivi e negativi presumibilmente prodotti in un unico evento riguardante il nucleo atomico. I due ricercatori del Cavendish identificarono nel positrone il fantomatico antielettrone previsto dalla teoria relativistica dell’elettrone di Dirac, mostrando come fosse possibile su questa base rendere conto della complessa fenomenologia dell’interazione dei raggi gamma con la materia, da tempo oggetto di indagine in vari laboratori di fisica nucleare. Nel quadro proposto da Blackett e Occhialini trovavano coerentemente posto l’assorbimento e la diffusione anomala dei raggi gamma, attribuiti il primo alla produzione di coppie elettrone-positrone e la seconda alla radiazione emessa nell’annichilazione dei positroni. Allo stesso tempo trovava una spiegazione l’osservazione di Frédéric Joliot-Curie (1900-1958) e Irène Joliot-Curie (1897-1956) di elettroni ‘in moto verso la sorgente’ prodotti quando un fascio di neutroni e fotoni creati in laboratorio attraversava una camera a nebbia.
Nel giro di poche settimane Anderson, i coniugi Joliot-Curie, e gli stessi Blackett eOcchialini in collaborazione con James Chadwick (1891-1974) confermarono che anche la radiazione gamma emessa dalle sostanze radioattive naturali era in grado di produrre positroni. Toccò invece ai due fisici francesi la scoperta più importante (gennaio 1934), cioè la produzione di sostanze radioattive artificiali che emettono positroni (raggi beta positivi). La scoperta del positrone rappresentò dunque il punto di incontro tra la fisica dei raggi cosmici, la fisica nucleare e l’elettrodinamica quantistica, che in questo tipo di fenomeni trovava significativi momenti di verifica sperimentale della sua potenzialità interpretativa alle alte energie. Intorno alla metà degli anni Trenta, il meccanismo di produzione degli sciami fu spiegato teoricamente in termini di effetto in cascata di Bremmsstrahlung e di produzione/annichilazione di coppie elettrone-positrone. Fu chiarito inoltre il rapporto tra gli sciami e la componente molle della radiazione ionizzante nell’atmosfera, costituita di elettroni. Restava il problema della componente dura, il cui grande potere penetrante sembrava sfuggire a ogni spiegazione nell’ambito dell’elettrodinamica quantistica. Due ipotesi furono avanzate a questo riguardo: o si trattava di elettroni, e allora la teoria non era più valida a energie superiori a circa unmiliardo di elettron-volt; oppure si trattava di un nuovo tipo di particelle. Nel 1937, due coppie di fisici americani – Anderson e Seth Neddermeyer, Jabez C. Street ed Edward C. Stevenson – risolsero indipendentemente e contemporaneamente la questione, dimostrando che la componente più penetrante era costituita di particelle cariche di massa intermedia tra quella dell’elettrone e quella del protone.
La nuova particella fu denominata ‘mesotrone’ (oggi è nota come ‘muone’) e fu inizialmente identificata con la particella prevista teoricamente del fisico giapponese Hideki Yukawa (1907- 1981) quale mediatrice del campo di forze nucleari. Successivamente si dimostrò che tale identificazione non era giustificata e la particella di Yukawa fu scoperta nel 1947, ancora nei raggi cosmici, ricevendo il nome di ‘pione’ (omesone p). In questo arco di tempo la fisica dei raggi cosmici si identifica con la fisica delle particelle elementari, costituendo l’unica base fenomenologica per lo studio delle interazioni ad alta energia in cui si manifestano le proprietà relative alla costituzione subnucleare della materia. Durante gli anni Cinquanta, con lo sviluppo dei grandi acceleratori di particelle da un lato, e l’introduzione delle tecnologie spaziali dall’altro, essa ritroverà un proprio spazio autonomo di ricerca, in collegamento con i temi propri dell’astrofisica alle alte energie e della cosmologia. (A. Russo)