Particelle elementari
La materia presenta una gerarchia di strutture: i corpi sono composti da molecole, le molecole da atomi, gli atomi da elettroni che orbitano intorno a un nucleo, il nucleo da protoni e neutroni, che, a loro volta, sono composti da quark. Per quanto ne sappiamo oggi, elettroni e quark sono privi di una struttura interna e sono quindi considerati elementari.Lo studio delle particelle muove dal grande verso il piccolo, ma ogni acquisizione in questo campo si riflette all'indietro fornendo una solida base alla comprensione delle strutture più grandi e più complesse: le proprietà degli atomi sono basate su quelle degli elettroni e dei nuclei, e le proprietà dei nuclei derivano in ultima analisi dal comportamento dei quark che li compongono e dalle loro interazioni. Detto questo, è bene ricordare che la trattazione matematica di sistemi complessi ‒ che potremmo definire come i sistemi composti da molte parti in interazione tra loro ‒ diviene rapidamente assai difficile al crescere del numero dei componenti. Dato che non siamo in grado di derivare esattamente le proprietà degli atomi o dei nuclei a partire dai principî primi, cioè dal comportamento dei loro componenti elementari, dobbiamo ricorrere a semplificazioni concettuali che, pur basate su leggi generali, come quelle della meccanica quantistica, sono specifiche dei rispettivi campi di studio, la fisica atomica e la fisica nucleare.
Non è possibile comprendere, nel dettaglio, il comportamento di un sistema veramente complesso, come per esempio un organismo vivente, nei termini delle particelle che lo compongono. Questo non significa affatto che la conoscenza delle particelle e delle loro interazioni non contribuisca in modo significativo alla comprensione dei sistemi a scala superiore. Per fare un esempio, la fisica delle particelle fornisce fondamentali contributi a campi apparentemente distanti quali l'astrofisica e la cosmologia, tanto da determinare la nascita della nuovissima disciplina delle astroparticelle, che utilizza la fisica delle particelle per la comprensione di fenomeni astrofisici quali la radiazione cosmica o i meccanismi legati all'origine dell'Universo, il big bang. Esempio nell'esempio: l'energia del Sole deriva da reazioni nucleari che si svolgono nella sua zona centrale, e queste reazioni sono accompagnate dall'emissione di neutrini; i recenti risultati ottenuti dallo studio dei neutrini solari hanno permesso una brillante verifica di tali teorie.
La natura ondulatoria della luce implica un limite, poco inferiore a 1 μm (=10−6 m), ai dettagli che possono essere risolti con luce visibile, sia pure con l'ausilio di un microscopio: la lunghezza d'onda della radiazione con cui si illumina un oggetto ‒ circa 0,5 μm per la luce visibile ‒ essenzialmente coincide con la dimensione dei minimi dettagli che una tale radiazione può mettere in evidenza. Per raggiungere dimensioni più piccole occorrono radiazioni di lunghezza d'onda minore; passando dalla luce visibile ai raggi X si ottengono lunghezze d'onda paragonabili alle dimensioni di un atomo, circa 10−10 m, e si può esplorare per esempio la struttura delle molecole. La luce è composta da quanti, i fotoni, la cui energia è inversamente proporzionale alla lunghezza d'onda: E=hc/λ, dove λ è la lunghezza d'onda, c la velocità della luce e h la costante di Planck. Nella luce visibile i fotoni hanno un'energia di circa 1 eV (elettronvolt, l'energia che un elettrone guadagna traversando una differenza di potenziale di un volt), mentre l'energia tipica dei raggi X si misura in migliaia di eV.
Il progresso nello studio di strutture sempre più piccole è indissolubilmente legato alla disponibilità di radiazioni di altissima energia, quindi di piccolissima lunghezza d'onda, in grado di rivelare i dettagli più minuti della struttura del nucleo atomico e dei suoi componenti. I grandi acceleratori di particelle hanno quindi un ruolo centrale negli studi sulle particelle elementari. Le energie sviluppate da queste macchine si misurano in MeV (milioni di eV), GeV (miliardi di eV) e TeV (migliaia di GeV). Mentre la radiazione elettromagnetica, sotto forma di fotoni di altissima energia, ha mantenuto un certo ruolo, si preferiscono attualmente fasci di particelle cariche, come protoni ed elettroni. Secondo la meccanica quantistica anche questi, come i fotoni e del resto tutte le particelle, presentano un aspetto ondulatorio e resta valida la relazione tra energia e potere risolutivo cui abbiamo accennato nel caso dei fotoni. Il grande vantaggio delle particelle cariche è che queste possono essere accelerate mediante campi elettrici e guidate da campi magnetici. Gli acceleratori di particelle si basano sugli stessi meccanismi che permettono il funzionamento dei tubi a raggi catodici nei televisori.
L'osservazione di un oggetto macroscopico è, con buona approssimazione, un atto neutrale e asimmetrico: la radiazione che illumina e l'oggetto illuminato sono entità ben distinte; inoltre l'illuminazione non modifica l'oggetto osservato. Nello studio delle particelle la situazione è totalmente diversa. Un fascio di particelle (che possono essere fotoni, elettroni, protoni) viene scagliato contro un bersaglio che contiene le particelle che si vogliono studiare. Quello che si osserva è l'effetto degli urti tra singole particelle appartenenti al fascio prodotto da un acceleratore e singole particelle del bersaglio; una situazione totalmente simmetrica tra agente illuminante e oggetto osservato. Inoltre l'urto tra particelle non è affatto un evento neutrale: si tratta di un evento violento che modifica le particelle che vi partecipano. Per effetto dell'urto possono essere create nuove particelle inizialmente non presenti, un fenomeno strettamente connesso all'equivalenza tra energia e massa espressa dalla celebre equazione E=mc2 della relatività di Einstein: parte dell'energia E delle particelle che si scontrano si trasforma nella massa m di nuove particelle.
Sia per ottenere il massimo potere risolutivo, sia per produrre nuove particelle, il parametro che conta è l'energia disponibile nel baricentro delle particelle che si urtano. L'effetto dell'urto è quindi esaltato se, anziché scagliare particelle ad alta energia contro particelle-bersaglio a riposo, si fanno scontrare fasci di particelle che si muovono in direzione opposta, provocando veri e propri scontri frontali. È questo lo schema adottato in molti esperimenti recenti, che fanno uso dei cosiddetti anelli di collisione: si tratta di macchine circolari, nelle quali si realizzano urti tra due fasci di particelle accelerati ad alta energia che si muovono in senso opposto. I due fasci vengono conservati per tempi relativamente lunghi (anche qualche ora) in modo da moltiplicare le occasioni di urto tra le particelle. Un importante progresso per gli anelli di collisione è stato lo sviluppo di macchine in cui si fanno collidere fasci di particelle con fasci delle corrispondenti antiparticelle: elettroni contro positroni, oppure protoni contro antiprotoni. La prima macchina di questo tipo, ADA (Anello di accumulazione), è stata realizzata all'inizio degli anni Sessanta del Novecento nei laboratori dell'Istituto Nazionale di Fisica Nucleare di Frascati, sotto la guida di Bruno Touschek. Da ADA discendono le macchine che hanno fornito i più importanti contributi sperimentali alla fisica delle particelle negli ultimi decenni. La più grande, il LEP (Large electron and positron collider) del CERN di Ginevra, si sviluppava lungo una galleria circolare di 27 km e raggiungeva un'energia di oltre 100 GeV. Recentemente il LEP è stato smontato per far posto a un nuovo anello di collisione, l'LHC (Large hadron collider), che raggiungerà un'energia di 14 TeV nell'urto tra due protoni, un notevole passo avanti nella capacità di scoprire nuove particelle ed esplorare possibili nuove strutture delle particelle che oggi consideriamo elementari.
La storia, qui necessariamente condensata, delle particelle elementari inizia con la scoperta dell'elettrone: tra il 1897 e il 1899 Joseph J. Thomson dimostrò che i raggi catodici sono costituiti da particelle di carica negativa e di massa pari a circa 1/2000 la massa dell'atomo di idrogeno. Dal punto di vista teorico, l'elettrone è al centro dello sviluppo della nuova meccanica quantistica di Werner Heisenberg e di Erwin Schrödinger e le sue caratteristiche di onda-corpuscolo sono dimostrate sperimentalmente nel 1927 da Clinton J. Davisson e Lester H. Germer. Nel 1928 viene formulata l'equazione di Dirac, che coniuga il comportamento quantistico dell'elettrone con i precetti della teoria della relatività di Einstein. Il fatto che l'elettrone abbia uno spin, cioè un momento angolare intrinseco, che in unità h/2π è pari a 1/2, è una naturale conseguenza dell'equazione di Dirac, dalla cui analisi segue che oltre all'elettrone debba esistere la sua , poi indicata con il nome di positrone, avente la stessa massa (fatto pienamente compreso solamente nel 1930) ma con carica positiva. Nel 1932 il positrone è scoperto da Carl D. Anderson nella radiazione cosmica. Si tratta della prima manifestazione della simmetria tra materia e , che troverà importanti conferme negli anni Cinquanta con la scoperta dell'antiprotone e dell'antineutrone.
La scoperta del fotone, il quanto di luce, è legata al nome di Max Planck e alla sua teoria sulla radiazione emessa da un corpo ad alta temperatura; si deve comunque ad Albert Einstein l'idea secondo cui una radiazione elettromagnetica di frequenza ν è composta da particelle, i fotoni, di energia E=hν. Questa ipotesi trovò una serie di brillanti conferme nello studio dell' e della radiazione X emessa da elettroni di alta energia assorbiti dalla materia e ha fornito la motivazione per il premio Nobel attribuito a Einstein nel 1922. L'esperienza di Arthur H. Compton, nel 1923, sugli urti tra raggi X ed elettroni dimostrò conclusivamente che i fotoni si comportano effettivamente come particelle, dotate non soltanto di energia ma anche di quantità di moto. Nel 1911 Ernest Rutherford, a coronamento di una serie di esperimenti condotti da Hans Geiger e Ernest Marsden sulla deflessione delle particelle α da parte di sottili lamine metalliche, annunciò la scoperta del nucleo atomico. Due anni dopo apparve il lavoro di Niels Bohr sulla teoria quantistica dell'atomo, il primo passo verso la moderna meccanica quantistica.
Due fattori hanno avuto un ruolo centrale nel primo sviluppo delle conoscenze sulla fisica dell'atomo e del nucleo, e nei primi passi della fisica delle particelle elementari: lo sviluppo delle tecnologie del vuoto e la scoperta della naturale. Le prime hanno permesso la scoperta dei raggi catodici e conseguentemente quella dei raggi X, ma anche lo sviluppo delle valvole elettroniche, che tanta parte hanno avuto nella sperimentazione fisica sino alla realizzazione dei transistor e dei moderni circuiti integrati. Abbiamo accennato al ruolo dei raggi catodici nella scoperta dell'elettrone e dei raggi X nelle prime esperienze che hanno permesso di stabilire l'esistenza del fotone. La radioattività ha fornito i primi indizi sulla natura dinamica dell'atomo, non immutabile, ma capace di trasmutazioni spontanee. Ben presto furono identificati tre tipi di particelle, α, β e γ. Negli anni immediatamente seguenti agli esperimenti di Thomson fu accertato che le particelle β sono elettroni, mentre di poco successiva è l'identificazione dei raggi γ con i fotoni ad alta energia. Nel 1908 Rutherford fu infine in grado di dichiarare che le particelle α "una volta persa la carica positiva sono atomi di elio"; oggi diciamo che sono nuclei di elio.
La radioattività non ha solamente fornito i primi importanti indizi sulla struttura dell'atomo e del suo nucleo ma, sino all'avvento dei primi acceleratori elettrostatici e, successivamente, del ciclotrone, è stata un'importante sorgente di particelle di alta energia. Abbiamo visto l'importanza delle particelle α nella scoperta del nucleo atomico e delle sorgenti radioattive usate nella scoperta del neutrone da parte di James Chadwick e nei lavori del gruppo di Enrico Fermi a Roma sulla radioattività prodotta da neutroni. Con la scoperta del neutrone si approda al modello, essenzialmente ancora valido, del nucleo atomico composto da protoni e neutroni. Per il loro particolare ruolo nella composizione dei nuclei, protoni e neutroni sono detti nucleoni. Quasi contemporaneamente al neutrone entra in scena una nuova particella, il , proposto da Wolfgang Pauli nel 1930. Si è detto che la radiazione beta consiste di elettroni, ma sorgeva una difficoltà: la conservazione dell'energia avrebbe fatto prevedere, in ogni evento di disintegrazione beta, un'energia ben definita per l'elettrone emesso, pari alla differenza tra l'energia del nucleo iniziale e quella del nucleo finale. Gli esperimenti presentano invece una situazione differente: i raggi β sono infatti emessi con un'energia variabile. Pauli propose di risolvere questa incongruenza assumendo che insieme all'elettrone sia emessa una seconda particella, priva di carica elettrica e di massa molto piccola, e che l'energia a disposizione sia suddivisa tra le due particelle in modo variabile. Il nome neutrino, suggerito da Edoardo Amaldi in una discussione con Fermi, fu prontamente adottato da Pauli.
Nel 1933 Fermi pubblicò la sua teoria della radioattività beta. Negli anni 1930-1931 Pauli e lo stesso Fermi pensavano che elettrone e neutrino preesistessero nel nucleo, ma secondo la nuova teoria essi sono creati nell'istante della sua disintegrazione, esattamente come avviene nell'emissione dei fotoni. Nella teoria di Fermi viene per la prima volta identificato un nuovo tipo d'interazione tra le particelle elementari, che oggi chiamiamo interazione debole. Una dimostrazione diretta dell'esistenza del neutrino dovette attendere gli anni Cinquanta, con Frederick Reines e Clyde Cowan, e la disponibilità di una sorgente intensa di queste particelle, il reattore nucleare. La debolezza di queste interazioni è messa bene in evidenza dal fatto che in un rivelatore di circa una tonnellata un flusso di 1013/(cm2 s) neutrini produceva qualche interazione l'ora. Malgrado la scarsità delle interazioni del neutrino con la materia, la fisica del neutrino è in rigoglioso sviluppo e ha ottenuto negli ultimi anni alcuni risultati di grande importanza.
Il moderno quadro teorico che permette la descrizione del mondo delle particelle elementari, e in ultima analisi di tutta la materia, è la teoria quantistica dei campi. Si tratta di una teoria che tiene perfettamente conto degli aspetti quantistici del comportamento delle particelle, e allo stesso tempo rispetta i principî della teoria della relatività di Einstein. Nella meccanica classica un sistema fisico è caratterizzato da alcune grandezze osservabili, che ne identificano lo stato, e da leggi che determinano l'evoluzione nel tempo di queste grandezze. Per esempio, una particella che si muova lungo una linea è caratterizzata da due grandezze osservabili, la posizione x e la velocità v (o in alternativa la quantità di moto p=mv, dove m è la massa della particella); queste grandezze hanno un valore numerico associato allo stato del sistema: x=3 m, v=−5 m/s descrive per esempio lo stato in cui la particella è a 3 m dall'origine e si muove all'indietro con velocità di 5 m/s. Nella meccanica quantistica il concetto di stato del sistema si arricchisce, e acquista particolare significato il concetto di transizione tra uno stato e l'altro. Il concetto di transizione, naturalmente, esiste anche in meccanica classica, ma concerne transizioni dolci: si passa da uno stato all'altro attraversando tutti gli stati intermedi. Nella fisica dei fotoni non è così: quando un atomo emette un fotone, si passa da uno stato in cui il fotone non esiste a uno in cui esso esiste: non sono possibili situazioni intermedie, natura facit saltus. Il problema grave e insolubile nella meccanica classica è: cosa succede alle grandezze fisiche di una particella che appare o scompare? Appaiono o scompaiono con essa? È il concetto stesso di grandezza fisica che sembra in crisi.
La soluzione a queste domande, dovuta a Heisenberg, è concettualmente semplice. Secondo Heisenberg le grandezze fisiche che caratterizzano lo stato di un sistema non sono associate agli stati del sistema, ma alle transizioni tra stati del sistema; quindi non sono semplicemente numeri, come le grandezze classiche (un numero per ogni stato), ma matrici di numeri Xik in corrispondenza della transizione dallo stato k allo stato i. Ciò non significa che le grandezze fisiche siano definite soltanto nel corso delle transizioni, dato che gli elementi diagonali della matrice (cioè quelli con i=k) Xii corrispondono, in un modo che può essere esattamente determinato, al cosiddetto valore della grandezza X nello stato i. Partendo da questa intuizione, Heisenberg costruì una nuova meccanica, in cui la costante h di Planck gioca un ruolo centrale, messo in evidenza tra l'altro dal celebre principio di indeterminazione, dal quale segue che in ogni sistema fisico esistono coppie di variabili, per esempio x e p nel caso di una particella, che non possono essere misurate contemporaneamente con precisione: il prodotto Δx Δp delle indeterminazioni di x e p è necessariamente maggiore di h/2π. La meccanica classica altro non è che un particolare limite della meccanica quantistica, che si realizza quando il valore della costante di Planck è del tutto trascurabile e può essere quindi tralasciata l'incertezza che deriva dal principio di indeterminazione. Non sono classici i fenomeni che avvengono su scala atomica o su scale inferiori, e in particolare non sono classici tutti i fenomeni che coinvolgono la creazione o la distruzione di particelle, dove la costante di Planck appare per tramite della relazione di Planck-Einstein, E=hν. La relazione tra energia disponibile in un urto tra particelle e la minima distanza esplorabile è una diretta conseguenza del principio di indeterminazione.
Le prime applicazioni della meccanica quantistica si rivolsero a sistemi particolarmente semplici, come l'atomo di idrogeno, per il quale furono ritrovati i risultati della teoria di Bohr del 1913, ma ben presto la ricerca tentò di risolvere il problema, sollevato da Einstein nel 1905, della descrizione quantistica del campo elettromagnetico e dei suoi quanti; la soluzione si rivelò più semplice di quanto si potesse credere, dimostrando così la potenza della nuova meccanica. A livello classico il campo elettromagnetico è descritto dai valori che i campi elettrico e magnetico assumono in ciascun punto dello spazio al variare del tempo. Questi due stessi campi sono le grandezze fisiche che definiscono anche la teoria quantistica, ma i loro valori non sono numeri, bensì matrici di numeri in corrispondenza delle possibili transizioni tra stati del campo elettromagnetico; tali stati possono essere caratterizzati come insiemi di fotoni: posizione e quantità di moto dei singoli fotoni non sono le grandezze fisiche primarie in questa descrizione quantistica. In tal modo viene data una risposta molto netta agli interrogativi che ci eravamo posti sulla sorte delle grandezze fisiche di particelle che possono essere create o distrutte: tale teoria non si occupa del singolo fotone, ma del campo elettromagnetico nel suo complesso.
L'indistinguibilità è forse la caratteristica principale delle particelle elementari. Nell'uso comune la parola indistinguibile ha un significato molto approssimativo: si dice uguali come due gocce d'acqua, ma due gocce sarebbero identiche dal punto di vista della meccanica quantistica soltanto se entrambe contenessero lo stesso numero di atomi di ciascuna specie, una condizione praticamente impossibile da soddisfare. Quando dichiariamo che due particelle elementari sono identiche, affermiamo invece qualcosa di assolutamente esatto; scambiare due elettroni tra loro, attribuendo al secondo la posizione del primo e viceversa, non produce alcun effetto. Esistono due diversi modi in cui le particelle possono essere quantisticamente identiche; essi prendono il nome di statistica di Bose-Einstein e statistica di Fermi-Dirac. Nella statistica di Bose-Einstein, caratteristica dei fotoni, più particelle possono occupare lo stesso stato: il numero di fotoni con data lunghezza d'onda, direzione di propagazione e polarizzazione può essere un qualsiasi numero intero, 0,1,2,…; invece, nella statistica di Fermi-Dirac, caratteristica degli elettroni, vale il principio di esclusione di Pauli e ogni stato può essere occupato da una sola particella. Particelle del primo tipo sono dette bosoni, quelle del secondo tipo fermioni.
La teoria quantistica dei campi offre una naturale spiegazione per l'esistenza dei due tipi di statistica e un risultato sorprendente, il teorema spin-statistica: i bosoni devono necessariamente avere spin intero (0,1,2,…) in unità h/2π, mentre i fermioni devono avere spin semiintero (1/2,3/2,…). I fotoni, che possono avere spin ±1 lungo la direzione del moto (negli stati che sono il corrispettivo quantistico delle onde elettromagnetiche con polarizzazione circolare) sono quindi necessariamente bosoni, mentre gli elettroni, i protoni, i neutroni e i neutrini, che hanno spin 1/2, non possono che essere fermioni.
La teoria di Fermi del 1933 sulla radioattività beta rappresenta la prima applicazione della teoria dei campi quantistici all'interpretazione di un fenomeno non direttamente legato all'elettromagnetismo. Una seconda apparve nell'anno seguente quando Hideki Yukawa propose che le forze nucleari, che tengono insieme i protoni e i neutroni a formare un nucleo, dovessero essere attribuite all'azione di un campo quantistico. Partendo da quanto si sapeva sulle forze nucleari, in particolare sul loro raggio d'azione molto corto, Yukawa concluse che a questo campo dovesse essere associata una particella con una massa pari a circa 200 volte quella dell'elettrone, circa 1/10 della massa del protone. Per questa sua massa intermedia tra elettrone e protone e per il suo ruolo di intermediatrice delle forze che tengono insieme il nucleo, a questa particella fu attribuito il nome di . Nel 1936, Seth H. Neddermayer e Carl D. Anderson scoprirono nella radiazione cosmica una particella che sembrava avere le caratteristiche richieste dalla teoria di Yukawa, ma si trattò di uno sbaglio: nel 1946 un esperimento di Marcello Conversi, Ettore Pancini e Oreste Piccioni dimostrò che questa particella era sostanzialmente incapace di interagire con i nuclei; non si trattava della particella di Yukawa ma, come divenne chiaro negli anni seguenti, di una particella, che oggi chiamiamo o particella μ, esattamente uguale a un elettrone, fuorché per la massa, 200 volte più grande. La teoria di Yukawa sembrò di nuovo salva l'anno seguente con la scoperta, a opera di Cesar Lattes, Giuseppe Occhialini e Cecil Powell, di un vero mesone, il , o mesone π.
Con la scoperta del mesone π sembrò che tutta la materia, dal nucleo atomico alla struttura delle stelle, potesse essere interpretata in termini di poche particelle elementari: elettroni, protoni e neutroni, pioni e neutrini; ma a cosa servivano i muoni? L'illusione infatti durò poco: sia nella radiazione cosmica, sia negli esperimenti con i moderni acceleratori di alta energia, nuove particelle venivano scoperte a un ritmo impressionante. Alla fine degli anni Cinquanta se ne contavano decine, mentre dieci anni dopo, tra particelle la cui esistenza era ben confermata da esperimenti indipendenti e altre che erano state individuate una volta soltanto (molte confermate in seguito), il numero superava il centinaio. Il π, come il protone e il neutrone, costituiva l'avanguardia di un vero esercito. Si poneva il problema di dover mettere ordine in tanta esuberante confusione. Una prima indicazione in tal senso venne dal fatto che tutte le nuove particelle erano capaci di interagire fortemente tra loro e con i componenti del nucleo: si trattava di un'unica famiglia, detta oggi degli adroni, a sua volta distinta in barioni, ossia particelle di spin semiintero (1/2,3/2,…), quindi fermioni, e mesoni, particelle di spin intero (0,1,2,…), cioè bosoni. Protone e neutrone appartengono al primo gruppo, il π al secondo. Cominciarono poi a emergere alcune regolarità interessanti. La prima, suggerita dal lavoro teorico di Tullio Regge (1959), permette di identificare famiglie di particelle di massa e spin crescente, ma accomunate da altre caratteristiche, per esempio la carica elettrica. La seconda, basata su idee di Murray Gell-Mann e Yuval Ne'eman (1961), permette di organizzare le particelle in gruppi di 8 o 10 ‒ ottetti o decupletti ‒ sulla base di una simmetria SU(3), un'estensione della simmetria tra protone e neutrone che si manifesta a livello di fisica nucleare. Protone e neutrone, per esempio, fanno parte di un ottetto che comprende gli iperoni λ0, Σ+, Σ0, Σ−, Ξ0, Ξ−, mentre un secondo ottetto contiene i mesoni π, K, η. Tali ricerche sfociarono nel 1964 nella proposta, da parte di Gell-Mann e George Zweig, del modello a quark, secondo cui tutti gli adroni sono composti da particelle più elementari: i quark. Si tratta di particelle fermioniche di spin 1/2, e di tre tipi, detti u, d, s (up, down, strange), la cui carica elettrica è una frazione della carica dell'elettrone: 2/3 nel caso di u, −1/3 nel caso di d e s.
I barioni sono composti da tre quark, per esempio il protone P=uud, l' sigma Σ+=uus e così via, mentre i mesoni sono composti da una coppia di quark e antiquark. Il modello a quark permetteva di comprendere l'organizzazione degli adroni in ottetti e decupletti, e l'idea che si trattasse di particelle composte suggeriva di interpretare le famiglie di Regge come serie di stati di energia e momento angolare crescente di uno stesso insieme di quark. La fisica degli adroni appare così come una versione, in piccolo e con alcune sostanziali differenze, della fisica dell'atomo o di quella del nucleo. La teoria dei quark ha risentito di un limite serio, in quanto nessun esperimento ha mai messo in evidenza l'esistenza di singoli quark, e questo poneva due ordini di problemi. Come è possibile che i quark siano sempre confinati all'interno degli adroni? Come accertare che i quark siano veramente presenti all'interno degli adroni e non costituiscano un espediente matematico per interpretare le regolarità osservate? Alla prima domanda ha dato una risposta la QCD (Quantum chromodynamics), la teoria dei quark e delle loro interazioni sviluppata all'inizio degli anni Settanta del Novecento; la risposta alla seconda è soprattutto sperimentale. I primi risultati interessanti sono venuti dallo studio, presso lo Stanford Linear Accelerator Center (SLAC), degli urti tra elettroni e protoni ad alta energia, una vera e propria microscopia del protone, che ha messo in evidenza la sua struttura interna in termini di quark. Sono seguiti al CERN esperimenti con fasci di neutrini e, negli anni Ottanta, esperimenti di altissima precisione con il LEP, il grande anello di collisione elettrone-positrone. L'insieme di questi esperimenti ha dimostrato che i quark esistono e si comportano sotto ogni aspetto come particelle elementari al pari dell'elettrone e del neutrino.
Per simmetria si intende, sia a livello quantistico sia classico, una trasformazione degli stati di un sistema fisico tale che a ogni possibile evoluzione del sistema ne corrisponda un'altra ugualmente possibile: indicando con A un qualsiasi stato del sistema e con A(t) la sua evoluzione nel tempo, la trasformazione A→A′ è una simmetria del sistema se anche A′(t) ne rappresenta una possibile evoluzione. Alcune simmetrie, dette discrete, sono operazioni isolate e formano un gruppo con un numero finito di elementi, mentre altre costituiscono un gruppo i cui elementi possono essere identificati da parametri che variano con continuità. Esempi di simmetrie continue sono le simmetrie per traslazioni e rotazioni, che riflettono l'omogeneità e l'isotropia dello spazio. Esempi di trasformazioni discrete sono la simmetria speculare, vale a dire la parità P, l'inversione temporale T e lo scambio tra materia e antimateria C. Si deve a Pauli (1955) un risultato di estrema importanza, il teorema CPT, secondo cui la teoria dei campi quantistici è necessariamente simmetrica rispetto alla combinazione delle tre simmetrie C, P, T. Tutti erano convinti che le tre simmetrie fossero singolarmente valide: P e T sono simmetrie note in meccanica classica e sembravano ben verificate sia nella fisica degli atomi sia dei nuclei, mentre C appariva come una simmetria naturale della teoria di Dirac. Non è così: tra il 1956 e il 1957, infatti, una serie di risultati sperimentali ispirati da una proposta di Tsung-Dao Lee e Chen Ning Yang mostrò che le interazioni deboli violano le simmetrie P e C. Per qualche tempo sembrò che l'inversione temporale T potesse restare una simmetria valida, e con essa PC (combinazione delle due trasfomazioni P e C), ma nel 1964 James W. Cronin e Val L. Fitch scoprirono una violazione della simmetria PC nel decadimento dei mesoni K neutri. Sulla base del teorema CPT, una violazione della simmetria CP implica anche una violazione dell'inversione temporale T. Il Modello Standard offre un'interpretazione della violazione di CP e T su cui torneremo dopo avere discusso dei quark e del loro mescolamento.
All'inizio degli anni Settanta il quadro delle particelle elementari aveva sostanzialmente raggiunto la configurazione che oggi conosciamo. Da una parte i quark, che compongono gli adroni e sono quindi i componenti ultimi dei nuclei atomici, dall'altra elettrone, muone e neutrini, collettivamente detti leptoni. Quark e leptoni sono particelle di spin 1/2. Per completare il quadro si devono aggiungere i quanti dei differenti campi di forza. È proprio sulla definizione dei campi di forza, interazioni tra quark e leptoni, che negli anni intorno al 1970 si è assistito ai progressi più rilevanti, dai quali è poi nato il Modello Standard, una teoria coerente delle particelle elementari e delle loro interazioni. Il Modello Standard comprende una teoria unificata delle interazioni elettromagnetiche e deboli e la , che descrive le interazioni tra quark che portano alla formazione degli adroni. Le moderne teorie delle interazioni fondamentali hanno la loro radice nell'elettrodinamica quantistica, QED (Quantum electrodynamics), la teoria delle interazioni tra elettroni e campo elettromagnetico, che raggiunse forma compiuta nel secondo dopoguerra. Sin dalla loro prima formulazione le teorie quantistiche di campo hanno sofferto di difficoltà matematiche che di fatto impedivano di andare oltre i calcoli più semplici. In termini tecnici si incontrano divergenze, cioè risultati numerici infiniti, quindi privi di senso. Negli anni 1947-1949, i lavori di Julian Schwinger, Sin-Itiro Tomonaga, Richard Feynman e Freeman Dyson hanno mostrato che nel caso dell'elettrodinamica quantistica questo problema è circoscritto al calcolo di due sole grandezze, la massa e la carica dell'elettrone, e che tale difficoltà può essere evitata se si rinuncia al calcolo di queste due grandezze, sostituendo al risultato privo di senso dei calcoli il valore sperimentalmente determinato, un procedimento che prende il nome di rinormalizzazione. Qualsiasi altra grandezza può essere calcolata e i risultati ottenuti sono in ottimo accordo con i dati sperimentali.
Una caratteristica importante dell'elettrodinamica quantistica è il fatto che essa gode di un particolare tipo di simmetria, detta di gauge. Ci limiteremo a brevi cenni su questo concetto, introdotto nel 1928 da Hermann Weyl. Nel suo lavoro del 1928, Weyl ha mostrato che la teoria di Dirac degli elettroni liberi, in assenza di interazioni con il campo elettromagnetico, gode di una simmetria globale, che corrisponde alla possibilità di apportare un cambiamento di fase delle onde-elettrone. Nell'elettrodinamica quantistica, in presenza delle interazioni elettromagnetiche, si realizza una simmetria molto più vasta, che permette di variare la fase delle onde-elettrone in modo arbitrario in ogni punto dello spazio, senza alcun cambiamento osservabile. Alla simmetria estesa Weyl diede il nome di simmetria di gauge. Essa si è rivelata essenziale per la rinormalizzazione dell'elettrodinamica quantistica e ciò ha fatto nascere l'idea che la ricerca di una teoria di campo in grado di descrivere tutti gli aspetti della fisica delle particelle dovesse concentrarsi su teorie dotate di questo tipo di simmetria.
Nel Modello Standard non solamente le interazioni elettromagnetiche, ma anche le deboli e quelle che legano i quark all'interno degli adroni, sono connesse a particolari simmetrie di gauge. Ciò è stato reso possibile dai notevoli progressi nella comprensione delle teorie di gauge nel corso degli anni Sessanta e nei primi anni Settanta. La simmetria di gauge dell'elettrodinamica quantistica è associata a un gruppo particolarmente semplice di trasformazioni, ma la possibilità di teorie di gauge basate su gruppi di simmetria più complessi è emersa con il lavoro di Yang e Robert L. Mills del 1961. Essi hanno mostrato come costruire teorie di gauge basate su un'ampia classe di gruppi di trasformazioni. Nella versione originale delle loro teorie, ai campi di forza erano necessariamente associate particelle di massa nulla. Nel 1964, però, Peter Higgs scoprì come eludere questa limitazione senza perdere la simmetria di gauge, con un meccanismo che si è rivelato essenziale per la teoria di gauge delle interazioni deboli, in cui appaiono le particelle W e Z di massa molto elevata. Nel 1971 Gerard 't Hooft, a conclusione di una lunga ricerca sulle teorie di Yang-Mills iniziata con Martinus J.G. Veltman, ha dimostrato che le teorie di Yang-Mills sono rinormalizzabili, quindi matematicamente ben definite. La via per l'accettazione e il perfezionamento del Modello Standard era aperta.
Per comprendere la moderna teoria delle interazioni deboli dobbiamo ricordare uno dei capisaldi della teoria di Yukawa delle forze nucleari: il raggio d'azione di un campo di forze quantistico è inversamente proporzionale alla massa delle particelle associate al campo stesso. Nel suo lavoro del 1934 Fermi propose che l'interazione debole avvenisse per contatto, cioè con raggio d'azione nullo. Nella versione moderna le interazioni deboli sono mediate da un campo di forze cui sono associate particelle che hanno preso il nome di particelle (o bosoni) W. Se la massa di queste particelle è, come ormai sappiamo, molto grande, il raggio d'azione risulta molto piccolo e l'originale teoria di Fermi fornisce un'ottima approssimazione. Nella disintegrazione beta il campo del W deve trasportare un'unità di carica elettrica dal neutrone (che si trasforma in protone) alla coppia elettrone-neutrino e da questo segue che W deve avere carica elettrica negativa, W−, e la sua antiparticella W+ carica elettrica positiva. Quindi la teoria delle interazioni deboli risulta indissolubilmente legata a quella delle interazioni elettromagnetiche. Si parla ormai comunemente di interazioni elettrodeboli.
Dopo una serie di tentativi che portavano, come del resto quello iniziale di Fermi, a teorie di campo non rinormalizzabili, la moderna teoria unificata delle interazioni elettrodeboli si è consolidata nel 1968 a partire dai lavori di Abdus Salam e Steven Weinberg, che completavano un precedente tentativo di Sheldon Glashow del 1961. In questa teoria, alle particelle W+, W− e al fotone si aggiunge una particella elettricamente neutra, lo Z0. Il campo dello Z media un nuovo tipo di interazioni deboli, dette di corrente neutra, e porta a nuovi processi fisici osservati per la prima volta nel 1973. Dai risultati sperimentali, perfezionati negli anni successivi, emerse una previsione sorprendente: W e Z, con masse di circa novanta e cento volte la massa del protone, sarebbero state le particelle più pesanti mai osservate. Previsione brillantemente confermata dagli esperimenti che portarono nel 1983 alla scoperta delle due particelle. La teoria delle interazioni elettrodeboli è una teoria di gauge, quindi rinormalizzabile. Uno degli elementi chiave della nuova teoria è ancora sfuggito agli sperimentatori: si tratta della , una particella elettricamente neutra e priva di spin, essenziale per garantire la coerenza della teoria. I risultati ottenuti fino a questo momento ci permettono di affermare che la sua massa è superiore a circa 110 GeV, 120 volte la massa del protone.
Abbiamo già accennato a uno dei grandi misteri dei quark: il loro confinamento all'interno degli adroni. Esisteva però un secondo mistero, che si manifesta compiutamente in una particella adronica storicamente importante, il Δ++: scoperta da Fermi nel 1953, è stata uno dei primi adroni dopo il protone, il neutrone e il pione. Il Δ++ è costituito da tre quark di tipo u con gli spin allineati nella stessa direzione. Ed ecco il mistero: i tre quark sono nello stesso stato, cosa chiaramente impossibile per particelle di spin 1/2, che obbediscono al principio di esclusione di Pauli. La soluzione fu trovata rilevando per i quark un'altra proprietà, oltre allo spin, detta colore. Il colore dei quark può essere scomposto in tre componenti che, continuando la metafora, sono dette red, green e blue. Ecco quindi che, se i tre quark u nel Δ++ sono di colore diverso, il secondo mistero è risolto: colori diversi significano stati diversi; il principio di Pauli è rispettato. Lo stesso deve succedere per ogni sapore di quark. Da queste considerazioni prende avvio la moderna teoria dei quark, detta QCD, ancora una volta una teoria di gauge, basata sulla completa simmetria dei tre colori dei quark. La QCD ha una formulazione semplice, ma si è rivelata matematicamente ostica. In attesa di una soluzione completa, la QCD viene affrontata con due metodi di approssimazione tra loro complementari. Per fenomeni ad alta energia si utilizza il cosiddetto metodo delle perturbazioni, grazie al quale si sono ottenuti risultati in eccellente accordo con i dati sperimentali, particolarmente quelli di grande precisione del LEP. Per fenomeni a bassa energia, incluse le proprietà degli stati adronici, si ricorre alla simulazione numerica su calcolatori elettronici. Le enormi potenze di calcolo richieste da queste simulazioni hanno spinto molti gruppi di ricercatori alla progettazione di calcolatori paralleli di grandi prestazioni. È questa l'origine del progetto APE, nato in Italia nell'ambito dell'INFN (Istituto Nazionale di Fisica Nucleare), ma che ormai coinvolge molte istituzioni europee. Le simulazioni hanno permesso di verificare che il confinamento dei quark trova una sua spiegazione nella QCD e hanno portato a notevoli risultati, specialmente per quanto riguarda le interazioni deboli tra adroni.
Dalla teoria unificata delle interazioni elettrodeboli è nato un concetto inatteso, quello di famiglia di particelle elementari. Perché la teoria sia coerente dal punto di vista matematico occorre che le cariche elettriche di tutti i fermioni si sommino a zero. Ciò effettivamente si realizza sommando la carica −e dell'elettrone, le cariche 2e/3 dei tre quark u e quelle −e/3 dei tre quark d. Tali particelle, insieme al neutrino (elettricamente neutro) emesso nel decadimento beta, formano una prima famiglia leptone-quark. Alla seconda famiglia appartengono il muone e il quark s, di carica −e/3, componenti degli adroni 'strani', quali gli iperoni e i mesoni K. Nei primi anni Sessanta del secolo scorso si era scoperto che nei processi deboli in cui è emessa una coppia muone-neutrino, per esempio nella disintegrazione del pione negativo, π→μ+ν, il neutrino emesso è differente da quello emesso nel decadimento beta. Per distinguerli, i due neutrini sono rappresentati dai simboli νe, νμ. A completare la seconda famiglia mancava un quark di carica 2e/3, il quark c (charm). Il quark c era atteso con ansia sin dal 1969: Sheldon L. Glashow, John Illiopoulos e Luciano Maiani avevano dimostrato che il charm era assolutamente essenziale per la coerenza tra i dati sperimentali e la nascente teoria di gauge delle interazioni deboli. Il primo risultato che segnalava l'esistenza del charm fu ottenuto nel 1974 con la particella J/ψ (i gruppi statunitensi di Stanford e di Brookhaven responsabili della scoperta non trovarono un accordo sul nome della nuova particella), un mesone composto da una coppia di quark charm-anticharm. Due anni dopo, nel 1976, furono scoperti a Stanford i primi mesoni D, che contengono un singolo quark c in associazione con un antiquark di tipo u, d, o s. La seconda famiglia era così completa.
La prima indicazione sperimentale dell'esistenza di una terza famiglia è arrivata nel 1975 con la scoperta di un nuovo carico, il τ−; il corrispondente neutrino ντ è stato recentemente identificato. Per completare la terza famiglia mancavano due quark: uno, detto b (beauty), di carica −e/3, l'altro, il t (top), di carica 2e/3. Il primo fu trovato quasi immediatamente in un esperimento al Laboratorio Fermi di Chicago: si tratta di una particella relativamente pesante, circa cinque volte il protone. La ricerca del t si è prolungata per quasi vent'anni e si è conclusa, ancora al Laboratorio Fermi, nel 1995, frutto di una collaborazione tra ricercatori italiani, statunitensi e giapponesi. Con una massa duecento volte maggiore di quella del protone, il quark t è la più pesante tra le particelle elementari sinora conosciute. Sembra molto improbabile l'esistenza di ulteriori famiglie, soprattutto dopo la misurazione al LEP delle disintegrazioni del Z, da cui segue che i neutrini sono tre; quindi tre neutrini, tre famiglie. Nel Modello Standard non sembra esservi posto per una nuova famiglia leptone-quark.
Le particelle che abbiamo elencato ‒ sei quark, tre leptoni carichi e tre neutrini ‒ forniscono la materia prima per tre famiglie, ma la suddivisione tra le famiglie è complicata dal mescolamento sia dei quark sia dei neutrini. Dedichiamo questa sezione al mescolamento dei quark, il primo in ordine di tempo a essere scoperto (da Nicola Cabibbo nel 1963), rimandando al prossimo paragrafo una discussione del mescolamento dei neutrini e delle sue conseguenze sperimentali. La radioattività beta nasce dalla trasformazione di un neutrone in un protone all'interno del nucleo, accompagnata dall'emissione di un elettrone e di un antineutrino. La composizione del neutrone in termini di quark è u+d+d, quella del protone u+u+d, quindi il decadimento beta corrisponde, in ultima analisi, alla trasformazione di un quark d di carica −e/3 in un quark u di carica 2e/3. Nelle tre famiglie esistono tre quark (d, s, b) di carica −e/3 e tre (u, c, t) di carica 2e/3, quindi nove possibili transizioni. Nel Modello standard l'insieme delle possibili transizioni è descritto da una matrice a tre righe e tre colonne, la matrice CKM, i cui elementi determinano la forza di ciascuna transizione. Gli elementi della matrice CKM rappresentano un mescolamento tra i quark appartenenti alle tre famiglie. In termini tecnici ciascun elemento, che corrisponde a una delle possibili transizioni, è rappresentato da un numero complesso il cui modulo misura l'intensità ‒ la probabilità per unità di tempo ‒ della transizione, mentre la fase determina lo sfasamento delle onde delle particelle finali rispetto a quelle delle particelle iniziali. L'esistenza di sfasamenti segnala una violazione della simmetria temporale T e quindi anche, per il teorema CPT, una violazione della simmetria CP.
In presenza di due sole famiglie di quark-leptoni sarebbe possibile eliminare tutti gli sfasamenti e ciò comporta una simmetria sia rispetto a T sia rispetto a CP. Questa situazione corrisponde alla teoria da me proposta, in termini leggermente diversi, prima della nascita del modello a quark. Nel linguaggio dei quark il mio lavoro descriveva l'insieme delle transizioni tra i quark delle prime due famiglie mediante un singolo parametro, detto angolo θ, o angolo di Cabibbo. Era questa la situazione sino al 1973, quando in un lavoro veramente profetico ‒ mancavano due anni alla scoperta del leptone τ ‒ Makoto Kobayashi e Toshihide Maskawa mostrarono che la presenza di una terza famiglia avrebbe permesso di spiegare, all'interno del Modello Standard, la violazione della simmetria CP osservata nel 1964 da Cronin e Fitch nel decadimento dei mesoni K. Il mescolamento dei quark è ricco di conseguenze sperimentali che sono state verificate con successo. All'interno del Modello Standard, la matrice CKM è descritta in termini di quattro parametri, di cui uno coincide con l'originale parametro θ, mentre un secondo, se differente da zero, determina la violazione delle simmetrie CP e T. Una combinazione di risultati sperimentali e analisi teoriche ha permesso sin dal 1999 di determinare con buona precisione il valore dei quattro parametri e quindi di prevedere nuovi fenomeni di violazione della simmetria CP, osservabili nella disintegrazione dei mesoni B, caratterizzati dalla presenza di un quark b. Tali previsioni sono state puntualmente convalidate dai risultati ottenuti nel 2001 da due esperimenti eseguiti a Stanford, negli Stati Uniti, e nel laboratorio KEK di Tsukuba, in Giappone.
Oltre al mescolamento dei quark è possibile un mescolamento dei leptoni, che si manifesta nel fenomeno delle oscillazioni di neutrini. Abbiamo visto che il mescolamento produce una rete di possibili transizioni tra quark di carica −e/3 e quark di carica 2e/3. Si tratta di transizioni tra particelle che sono anche onde, quindi ci si potrebbero attendere situazioni di interferenza costruttiva o distruttiva tra onde diverse: l'interferenza si osserva quando due onde hanno la stessa frequenza o frequenze quasi uguali, nel qual caso si rilevano battimenti, ossia l'alternarsi nel tempo di interferenza costruttiva e distruttiva. Questi fenomeni non sono in pratica osservabili nelle transizioni tra quark, giacché essi hanno masse molto diverse tra loro, quindi energie (E=mc2) e frequenze (ν=E/h) estremamente differenti. Ne segue che, in generale, adroni diversi non sono soggetti a fenomeni di interferenza o battimento. L'unica eccezione a questa regola si realizza quando una particella e la corrispondente antiparticella (con massa uguale) si disintegrano nello stesso stato finale. Un esempio, descritto nel 1955 da Gell-Mann, Abraham Pais e Piccioni, è quello dei mesoni K neutri e delle loro antiparticelle, che hanno in comune alcuni canali di decadimento, per esempio quello in una coppia π++π−. Proprio a questo si ispirò Bruno Pontecorvo quando, nel 1957, propose la possibilità di oscillazioni tra neutrino e antineutrino. Il fenomeno delle oscillazioni è essenzialmente un fenomeno di battimento tra due o più onde, dal quale consegue una trasformazione ciclica ‒ per esempio, secondo la prima proposta di Pontecorvo, da neutrino ad antineutrino e viceversa.
Nel Modello Standard non sono possibili oscillazioni tra neutrini e antineutrini, ma un'estensione ai leptoni del meccanismo di mescolamento, la cui esistenza è ben stabilita nel caso dei quark, fa emergere la possibilità di oscillazioni tra neutrini di tipo diverso, νe νμ ντ. Perché ciò avvenga occorre che esista, come nel caso dei quark, una rete di transizioni tra i tre leptoni carichi e tre neutrini, e questi devono avere masse diverse tra loro. La grande differenza tra i quark e i neutrini è che i neutrini hanno masse molto piccole ‒ a lungo si era sospettato che le loro masse fossero nulle ‒, quindi, in assoluto, poco differenti tra loro. L'impercettibilità della differenza di massa fa sì che le oscillazioni si sviluppino solamente su distanze molto grandi, di centinaia o migliaia di chilometri, e ciò ha reso estremamente difficile una conferma sperimentale. Da decenni si pensava che alcune discrepanze nelle misure di neutrini emessi dal Sole (anche questa una proposta di Pontecorvo) fossero da attribuire alle oscillazioni dei neutrini di tipo νe. Tali sospetti sono ora una certezza: lo hanno confermato misurazioni più accurate, in particolare quelle eseguite nel laboratorio Sudbury in Canada e quelle effettuate in Giappone su neutrini emessi da reattori nucleari. Un secondo tipo di oscillazioni, nei neutrini νμ prodotti nell'atmosfera dalla radiazione cosmica, è stato scoperto in un esperimento giapponese e confermato da misurazioni eseguite nei laboratori italiani del Gran Sasso. Nel settembre del 2006, un fascio di neutrini è stato spedito attraverso il sottosuolo verso i laboratori del Gran Sasso. Si tratta del primo di una serie di esperimenti che serviranno a studiare le oscillazioni dei neutrini. La fisica delle oscillazioni dei neutrini è agli inizi. Si stanno progettando nuovi acceleratori destinati a produrre fasci intensi e ben collimati di neutrini che permetteranno un vero salto nella qualità e precisione degli esperimenti. Una possibilità molto attraente è quella di mettere in evidenza, anche nel caso delle oscillazioni di neutrini, fenomeni di violazione delle simmetrie CP e T, da me proposti nel 1978.
Bernardini, Bonolis 2001: Conoscere Fermi, a cura di Carlo Bernardini e Luisa Bonolis, Bologna, Compositori, 2001.
Feynman 1985: Feynman, Richard P., QED, the strange theory of light and matter, Princeton-Guildford, Princeton University Press, 1985 (trad. it.: QED, Milano, Adelphi, 1989).
Greene 1999: Greene, Brian, The elegant universe, London, Jonathan Cape, 1999 (trad. it.: L'universo elegante, Torino, Einaudi, 2000).
Kane 1995: Kane, Gordon, The particle garden, Reading (Mass.)-Harlow, Addison-Wesley, 1995 (trad. it.: Il giardino delle particelle, Milano, Longanesi, 1997).
Pais 1982: Pais, Abraham, Subtle is the Lord, Oxford, Clarendon; New York, Oxford University Press, 1982 (trad. it.: Sottile è il Signore, Torino, Bollati Boringhieri, 1991).
Pais 1986: Pais, Abraham, Inward bound, Oxford, Clarendon, 1986.
Regge 1999: Regge, Tullio, L'universo senza fine, Milano, Mondadori, 1999.