La grande scienza. Particelle elementari
Particelle elementari
La materia presenta una gerarchia di strutture: i corpi sono composti da molecole, le molecole da atomi, gli atomi da elettroni che orbitano intorno a un nucleo, il nucleo da protoni e neutroni, che, a loro volta, sono composti da quark. Per quanto ne sappiamo oggi, elettroni e quark sono privi di una struttura interna e sono quindi considerati come 'elementari'.
Lo studio delle particelle muove dal grande verso il piccolo, ma ogni acquisizione in questo campo si riflette all'indietro fornendo una base solida alla comprensione delle strutture più grandi e più complesse: le proprietà degli atomi sono basate su quelle degli elettroni e dei nuclei, e le proprietà dei nuclei derivano in ultima analisi dal comportamento dei quark che li compongono e dalle loro interazioni. Detto questo è bene ricordare che la trattazione matematica di sistemi complessi - che potremmo definire come i sistemi composti da molte parti in interazione tra loro - diviene rapidamente assai difficile al crescere del numero dei componenti. Dato che non siamo in grado di derivare esattamente le proprietà degli atomi o dei nuclei a partire dai 'principî primi', cioè dal comportamento dei loro componenti elementari, dobbiamo ricorrere a semplificazioni concettuali che, pur basate su leggi generali, come la meccanica quantistica, sono specifiche dei rispettivi campi di studio, la fisica atomica e la fisica nucleare.
Non è possibile comprendere, nel dettaglio, il comportamento di un sistema veramente complesso, come per esempio un organismo vivente, in termini delle particelle che lo compongono. Questo non significa affatto che la conoscenza delle particelle e delle loro interazioni non contribuisca in modo significativo alla comprensione dei sistemi 'grandi'. Per fare un esempio, la fisica delle particelle fornisce fondamentali contributi a campi apparentemente distanti quali l'astrofisica e la cosmologia, tanto da determinare la nascita della nuovissima disciplina delle 'astroparticelle', dedicata all'utilizzazione della fisica delle particelle per la comprensione di fenomeni astrofisici quali la radiazione cosmica o i meccanismi che sottendono all'inizio dell'Universo, il big bang. Esempio nell'esempio: l'energia del Sole deriva da reazioni nucleari che si svolgono nella sua zona centrale, e queste reazioni sono accompagnate dall'emissione di neutrini; i recenti risultati ottenuti dallo studio di questi neutrini solari hanno permesso una brillante verifica di queste teorie.
La natura ondulatoria della luce implica un limite, poco inferiore al micron, 10−6 metri, ai dettagli che possono essere risolti con luce visibile, sia pure con l'ausilio di un microscopio: la lunghezza d'onda della radiazione con cui si illumina un oggetto - circa 0,5 micron per la luce visibile - essenzialmente coincide con la dimensione dei minimi dettagli che una tale radiazione può mettere in evidenza. Per raggiungere dimensioni più piccole occorrono radiazioni di lunghezza d'onda minore; passando dalla luce visibile ai raggi X si ottengono lunghezze d'onda paragonabili alle dimensioni di un atomo, circa 10−10 metri, e si può esplorare per esempio la struttura delle molecole. La luce è composta da quanti, i fotoni, la cui energia è inversamente proporzionale alla lunghezza d'onda: E=hc/λ, dove λ è la lunghezza d'onda, c la velocità della luce e h la costante di Planck. Nella luce visibile i fotoni hanno una energia di circa un elettron-volt (eV, l'energia che un elettrone guadagna traversando una differenza di potenziale di un volt), mentre l'energia tipica dei raggi X si misura in migliaia di eV. Il progresso nello studio di strutture sempre più piccole è indissolubilmente legato alla disponibilità di radiazioni di altissima energia, quindi di piccolissima lunghezza d'onda, in grado di rivelare i dettagli più minuti della struttura del nucleo atomico e dei suoi componenti. I grandi acceleratori di particelle hanno quindi un ruolo centrale negli studi sulle particelle elementari. Le energie sviluppate da queste macchine si misurano in MeV (milioni di eV), GeV (un GeV è pari a 1000 MeV) e TeV (migliaia di GeV).
Mentre la radiazione elettromagnetica, sotto forma di fotoni di altissima energia, ha mantenuto un certo ruolo, si preferiscono oggi fasci di particelle cariche, come protoni ed elettroni. Secondo la meccanica quantistica anche questi, come i fotoni e del resto tutte le particelle, hanno un aspetto ondulatorio, e resta valida la relazione tra energia e potere risolutivo cui abbiamo accennato nel caso dei fotoni. Il grande vantaggio delle particelle cariche è che queste possono essere accelerate mediante campi elettrici e guidate da campi magnetici. Gli acceleratori di particelle si basano sugli stessi meccanismi che permettono il funzionamento dei tubi a raggi catodici nei televisori.
I primi e più semplici acceleratori utilizzavano un campo elettrico statico per accelerare protoni o nuclei sino a qualche MeV. Macchine di questo tipo sono tutt'oggi utilizzate per ricerche sulla struttura del nucleo atomico, e trovano interessanti applicazioni negli studi sulla struttura dei materiali. Nelle macchine più recenti si usano campi a radiofrequenza, che permettono di sottoporre il fascio di particelle a una successione di impulsi di accelerazione, e superare così i limiti delle differenze di potenziale praticamente realizzabili in un campo statico, che sono appunto di qualche milione di volt. Nella prima di tali macchine, il ciclotrone ideato negli anni Trenta da Ernest O. Lawrence, le particelle circolano in un campo magnetico, e a ogni giro traversano un campo elettromagnetico che imprime loro una accelerazione. Il ciclotrone è il prototipo delle macchine più moderne, dotate di un insieme di magneti che guidano le particelle lungo una traiettoria circolare e di una o più cavità a radiofrequenza che provvedono all'accelerazione progressiva delle particelle. Per impieghi particolari si utilizzano anche acceleratori lineari, nei quali le particelle da accelerare attraversano una serie di cavità a radiofrequenza. Le macchine più grandi sono impianti di estrema complessità, in cui l'energia viene fornita da una serie di stadi che possono iniziare da un acceleratore elettrostatico, seguito da un acceleratore lineare e da uno o più acceleratori circolari, tutti sincronizzati tra loro.
L'osservazione di un oggetto macroscopico è con buona approssimazione un atto neutrale e asimmetrico: la radiazione che illumina e l'oggetto illuminato sono entità ben distinte, inoltre l'illuminazione non modifica l'oggetto osservato. Nello studio delle particelle la situazione è totalmente diversa. Un fascio di particelle (che possono essere fotoni, elettroni, protoni) viene scagliato contro un 'bersaglio' che contiene le particelle che si vogliono studiare. Se per esempio s'intende analizzare la struttura del protone, si può utilizzare un bersaglio di idrogeno, il cui nucleo è composto da un singolo protone. Quello che si osserva è l'effetto degli urti tra singole particelle appartenenti al fascio prodotto da un acceleratore e singole particelle del bersaglio; una situazione totalmente simmetrica tra agente illuminante e oggetto osservato. Inoltre l'urto tra particelle non è affatto un evento neutrale: si tratta di eventi violenti che modificano le particelle che vi partecipano. Per effetto dell'urto possono essere create nuove particelle, inizialmente non presenti, un fenomeno strettamente connesso all'equivalenza tra energia e massa, la celebre equazione E=Mc2 della relatività di Einstein: parte dell'energia E delle particelle che si scontrano si trasforma nella massa M di nuove particelle.
Gran parte delle particelle create negli urti di alta energia è instabile e si disintegra, in alcuni casi molto velocemente, in altre particelle; dato che anche molte di queste sono a loro volta instabili, si genera una cascata di disintegrazioni successive sino a raggiungere particelle stabili: protoni, elettroni, fotoni e neutrini. Le particelle instabili non si trovano normalmente in Natura e gli esperimenti con urti ad alta energia hanno permesso di scoprirle, di classificarle e di studiare le loro interazioni.
Sia per ottenere il massimo potere risolutivo sia per produrre nuove particelle, quello che conta è l'energia disponibile nel baricentro delle particelle che si urtano. L'effetto dell'urto è quindi esaltato se, anziché scagliare particelle ad alta energia contro particelle-bersaglio a riposo, si fanno scontrare fasci di particelle che si muovono in direzione opposta, provocando veri e propri scontri frontali. È questo lo schema adottato in molti esperimenti più recenti, che fanno uso dei cosiddetti anelli di collisione: si tratta di macchine circolari nelle quali si realizzano urti tra due fasci di particelle accelerati ad alta energia che si muovono in senso opposto. I due fasci vengono conservati per tempi relativamente lunghi (anche qualche ora) in modo da moltiplicare le occasioni di urto tra le particelle.
Un importante progresso per gli anelli di collisione è stato lo sviluppo di macchine in cui si fanno collidere fasci di particelle con fasci delle corrispondenti antiparticelle, elettroni contro positroni, oppure protoni contro antiprotoni. La prima macchina di questo tipo, Ada (anello di accumulazione), è stata realizzata all'inizio degli anni Sessanta nei laboratori dell'Istituto nazionale di fisica nucleare di Frascati, sotto la guida di Bruno Touschek. Da Ada discendono le macchine che hanno fornito i più importanti contributi sperimentali alla fisica delle particelle negli ultimi decenni. La più grande, il LEP (large electron-positron) del CERN di Ginevra, correva sotto un tunnel circolare di 27 km e raggiungeva una energia di oltre 100 GeV.
Da Ada idealmente discendono anche macchine che realizzano urti tra protoni e antiprotoni, come il collisore SPS del CERN, cui si deve la scoperta, all'inizio degli anni Ottanta (Carlo Rubbia e Simon van der Meer), dei bosoni W± e Z0, e il Tevatron del laboratorio Fermi di Chicago, ancora in piena attività, che ha portato alla scoperta del sesto quark. Di queste particelle avremo occasione di parlare nel seguito. Recentemente il LEP è stato smontato per far posto a un nuovo anello di collisione, l'LHC (large hadron collider) che raggiungerà una energia di 14 TeV nell'urto tra due protoni, un notevole balzo nella capacità di scoprire nuove particelle ed esplorare possibili nuove strutture delle particelle che oggi consideriamo elementari.
La storia, qui necessariamente condensata, delle particelle elementari inizia con la scoperta dell'elettrone: tra il 1897 e il 1899 Joseph J. Thomson dimostrò che i raggi catodici sono costituiti da particelle di carica negativa e di massa pari a circa 1/2000 la massa dell'atomo di idrogeno. Dal punto di vista teorico, l'elettrone è al centro dello sviluppo della nuova meccanica quantistica di Werner Heisenberg e di Erwin Schrödinger e le sue caratteristiche di onda-corpuscolo sono dimostrate sperimentalmente nel 1927 da Clinton J. Davisson e Lester H. Germer. Nel 1928 appare l'equazione di Dirac, che coniuga il comportamento quantistico dell'elettrone con i precetti della teoria della relatività di Einstein. Il fatto che l'elettrone abbia uno spin, cioè un momento angolare intrinseco, che in unità h/2π è pari a 1/2 - George E. Uhlenbeck e Samuel A. Goudsmith, 1926 -, appare come naturale conseguenza dell'equazione di Dirac, dalla cui analisi segue che oltre all'elettrone debba esistere la sua antiparticella, poi indicata con il nome di positrone, avente la stessa massa (fatto pienamente compreso solamente nel 1930) ma con carica positiva. Nel 1932 il positrone viene scoperto da Carl D. Anderson nella radiazione cosmica. Si tratta della prima manifestazione della simmetria tra materia e antimateria, che troverà importanti conferme negli anni Cinquanta con la scoperta dell'antiprotone e dell'antineutrone.
La scoperta del fotone, il quanto di luce, è legata al nome di Max Planck e alla sua teoria sulla radiazione emessa da un corpo ad alta temperatura, ma si deve ad Albert Einstein la proposta secondo cui una radiazione elettromagnetica di frequenza ν è composta da particelle, i fotoni, di energia E=hν, dove h è la costante di Planck. Questa ipotesi trovò una serie di brillanti conferme nello studio dell'effetto fotoelettrico e della radiazione X emessa da elettroni di alta energia assorbiti dalla materia, e ha fornito la motivazione per il premio Nobel attribuito a Einstein nel 1922. L'esperienza di Arthur H. Compton, nel 1923, sugli urti tra raggi X ed elettroni dimostrò conclusivamente che i fotoni si comportano effettivamente come particelle, dotate non soltanto di energia ma anche di quantità di moto.
Nel 1911 Ernest Rutherford, a coronamento di una serie di esperimenti - Hans Geiger ed Ernest Marsden, 1909 - sulla deflessione delle particelle α da parte di sottili lastrine metalliche, annunciò la scoperta del nucleo atomico. Due anni dopo apparve il lavoro di Niels Bohr sulla teoria quantistica dell'atomo, il primo passo verso la moderna meccanica quantistica. Emerge così l'immagine che ci è ben familiare, il modello di Bohr-Rutherford, di un atomo composto da un nucleo centrale, che ne contiene praticamente l'intera massa, dotato di una carica positiva Ze, dove Z è il 'numero atomico' ed e la carica dell'elettrone, intorno a cui orbitano Z elettroni. Dato che la massa delle diverse specie atomiche è con buona approssimazione un multiplo della massa dell'idrogeno, che ha Z=1, si pensò che i nuclei atomici fossero composti da protoni ed elettroni. Il nucleo dell'elio, con Z=2 e massa quadrupla (circa) dell'idrogeno, avrebbe contenuto quattro protoni e due elettroni, e così via per i nuclei più pesanti. Elettroni, protoni e fotoni erano le particelle elementari degli anni Venti.
Due fattori hanno avuto un ruolo centrale nel primo sviluppo delle conoscenze sulla fisica dell'atomo e del nucleo, e nei primi passi della fisica delle particelle elementari: lo sviluppo delle tecnologie del vuoto e la scoperta della radioattività naturale. Le prime hanno permesso la scoperta dei raggi catodici e di conseguenza quella dei raggi X, ma anche lo sviluppo delle valvole elettroniche, che tanta parte hanno avuto nella sperimentazione fisica sino all'arrivo dei transistor e dei moderni circuiti integrati. Abbiamo accennato al ruolo dei raggi catodici nella scoperta dell'elettrone e dei raggi X nelle prime esperienze che hanno permesso di stabilire l'esistenza del fotone. I tubi a raggi catodici possono essere considerati i primi acceleratori di particelle: le energie di una decina di migliaia di eV raggiunte erano le alte energie dell'epoca.
La radioattività ha fornito i primi indizi sulla natura dinamica dell'atomo, non immutabile, ma capace di trasmutazioni spontanee. Ben presto furono identificati tre tipi di particelle, dette α, β, γ. Negli anni immediatamente seguenti agli esperimenti di Thomson fu accertato che le particelle β sono elettroni, mentre di poco successiva è l'identificazione dei raggi γ con i fotoni ad alta energia. Nel 1908 Rutherford fu infine in grado di dichiarare che le particelle α "una volta persa la carica positiva sono atomi di elio"; oggi diciamo: sono nuclei di elio.
La radioattività non ha solamente fornito i primi importanti indizi sulla struttura dell'atomo e del suo nucleo ma, sino all'avvento dei primi acceleratori elettrostatici e successivamente del ciclotrone, è stata una importante sorgente di particelle di alta energia. Abbiamo visto le particelle α in azione nella scoperta del nucleo atomico e ancora le sorgenti radioattive in azione nella scoperta del neutrone - James Chadwick, 1932 - e nei lavori del gruppo di Enrico Fermi a Roma sulla radioattività prodotta da neutroni. Con la scoperta del neutrone si approda al modello, essenzialmente ancora valido, del nucleo atomico composto da protoni e neutroni. Per il loro particolare ruolo nella composizione dei nuclei, protoni e neutroni sono detti 'nucleoni'.
Quasi contemporaneamente al neutrone entra in scena una nuova particella, il neutrino, proposto da Wolfgang Pauli nel 1930. Si è detto che la radiazione beta consiste di elettroni, ma sorgeva una difficoltà: la conservazione dell'energia avrebbe fatto prevedere, in ogni evento di disintegrazione beta, un'energia ben definita per l'elettrone emesso, pari alla differenza tra l'energia del nucleo iniziale e quella del nucleo finale. Gli esperimenti presentano invece una situazione differente: i raggi β vengono infatti emessi con una energia variabile. Pauli propose di risolvere questa incongruenza assumendo che insieme all'elettrone venga emessa una seconda particella, priva di carica elettrica e di massa molto piccola, e che l'energia a disposizione sia suddivisa tra le due particelle in modo variabile. Il nome 'neutrino', suggerito da Edoardo Amaldi in una discussione con Fermi, fu prontamente adottato da Pauli ed è tuttora usato.
Nel 1933 Fermi pubblicò la sua teoria della radioattività beta. Negli anni 1930-1931 Pauli e lo stesso Fermi pensavano che elettrone e neutrino preesistessero nel nucleo, ma secondo la nuova teoria essi vengono creati nell'istante della sua disintegrazione, esattamente come avviene nell'emissione dei fotoni. Nella teoria di Fermi viene per la prima volta identificato un nuovo tipo d'interazione tra le particelle elementari, che oggi chiamiamo 'interazione debole'.
Una dimostrazione diretta dell'esistenza del neutrino dovette attendere gli anni Cinquanta - Frederick Reines e Clyde Cowan, 1953 - e la disponibilità di una sorgente intensa di queste particelle, il reattore nucleare. La debolezza delle nuove interazioni è messa bene in evidenza dal fatto che, in un rivelatore di circa una tonnellata, un flusso di 1013 neutrini per cm2/s produceva qualche interazione l'ora. Malgrado l'estrema debolezza delle interazioni del neutrino con la materia, la fisica del neutrino è in rigoglioso sviluppo e ha ottenuto negli ultimi anni alcuni risultati di grande importanza di cui tratteremo successivamente.
Il moderno quadro teorico che permette la descrizione del mondo delle particelle elementari, e in ultima analisi di tutta la materia, è la teoria quantistica dei campi. Si tratta di una teoria che tiene perfettamente conto degli aspetti 'quantistici' del comportamento delle particelle, e allo stesso tempo rispetta i principî della teoria della relatività di Einstein. La teoria dei campi affonda le sue radici nelle origini della fisica quantistica, e precisamente nell'ipotesi della doppia natura, ondulatoria e particellare, del campo elettromagnetico. L'ipotesi del quanto di luce aveva trovato, come abbiamo ricordato, brillanti conferme sperimentali sin dagli inizi del secolo scorso, ma soltanto alla fine degli anni Venti con la meccanica quantistica di Heisenberg i fenomeni di emissione e assorbimento di quanti di luce hanno trovato un inquadramento teorico soddisfacente.
Nella meccanica classica un sistema fisico è caratterizzato da alcune grandezze osservabili, che ne identificano lo stato, e da leggi che determinano l'evoluzione nel tempo di queste grandezze. Per esempio, una particella che si muova lungo una linea è caratterizzata da due grandezze osservabili, la posizione X e la velocità V (o in alternativa la quantità di moto P=mV, dove m è la massa della particella); queste grandezze hanno un valore numerico associato allo stato del sistema: X=3 m, V=−5 m/s descrive per esempio lo stato in cui la particella è a 3 metri dall'origine e si muove all'indietro con velocità di 5 m/s. Nella meccanica quantistica il concetto di 'stato del sistema' si arricchisce, e acquista particolare significato il concetto di 'transizione' tra uno stato e l'altro. Naturalmente anche in meccanica classica il concetto di transizione esiste, ma si tratta di transizioni 'dolci': si passa da uno stato all'altro attraversando tutti gli stati intermedi. Nella fisica dei fotoni non è così: quando un atomo emette un fotone, si passa da uno stato in cui il fotone non esiste a uno in cui esso esiste, e non sono possibili situazioni intermedie, natura facit saltus. Il problema grave e insolubile nella meccanica classica è: cosa succede alle grandezze fisiche di una particella che appare o scompare? Appaiono o scompaiono con essa? È lo stesso concetto di 'grandezza fisica' che sembra in crisi. La soluzione a queste domande, scoperta da Heisenberg, è concettualmente semplice. Secondo Heisenberg le grandezze fisiche che caratterizzano lo stato di un sistema non sono associate agli stati del sistema, ma alle transizioni tra stati del sistema, quindi non sono semplicemente numeri, come le grandezze classiche (un numero per ogni stato), ma matrici di numeri Xik in corrispondenza della transizione dallo stato k allo stato i. Ciò non significa che le grandezze fisiche siano definite soltanto nel corso delle transizioni, dato che gli elementi 'diagonali' della matrice (cioè con i=k) Xii corrispondono, in un modo che può essere esattamente determinato, al cosiddetto 'valore' della grandezza X nello stato i. Partendo da questa intuizione, Heisenberg costruì una nuova meccanica, in cui la costante h di Planck gioca un ruolo centrale, messo in evidenza tra l'altro dal celebre principio di indeterminazione, dal quale segue che in ogni sistema fisico esistono coppie di variabili, per esempio X e P nel caso di una particella, che non possono essere misurate contemporaneamente con precisione: il prodotto ΔX ΔP delle indeterminazioni di X e P è necessariamente maggiore di h/2π. La meccanica classica altro non è che un particolare limite della meccanica quantistica che si realizza quando il valore della costante di Planck è del tutto trascurabile e può essere quindi tralasciata l'incertezza che deriva dal principio di indeterminazione. Non sono 'classici' i fenomeni che avvengono su scala atomica o su scale inferiori, e in particolare non sono classici tutti i fenomeni che coinvolgono la creazione o la distruzione di particelle, dove la costante di Planck appare tramite la relazione di Planck-Einstein, E=hν. La relazione tra energia disponibile in un urto tra particelle e la minima distanza esplorabile, di cui abbiamo parlato, è una diretta conseguenza del principio di indeterminazione.
Le prime applicazioni della meccanica quantistica si rivolsero a sistemi particolarmente semplici, come l'atomo di idrogeno, dove furono ritrovati i risultati della teoria di Bohr del 1913, ma ben presto la ricerca cercò di risolvere il problema, sollevato da Einstein nel 1905, della descrizione quantistica del campo elettromagnetico e dei suoi quanti; la soluzione si rivelò più semplice di quanto si potesse credere, dimostrando così la potenza della nuova meccanica. A livello classico il campo elettromagnetico è descritto dai valori che i campi elettrico e magnetico assumono in ciascun punto dello spazio al variare del tempo. I due campi stessi sono le grandezze fisiche che definiscono la teoria quantistica, ma i loro valori non sono numeri, bensì matrici di numeri in corrispondenza delle possibili transizioni tra stati del campo elettromagnetico. Tali stati possono essere caratterizzati come insiemi di fotoni. Posizione e quantità di moto dei singoli fotoni non sono le grandezze fisiche primarie in questa descrizione quantistica. In tal modo viene data una risposta molto netta agli interrogativi che ci eravamo posti sulla sorte delle grandezze fisiche di particelle che possono essere create o distrutte: tale teoria non si occupa del singolo fotone, ma del campo elettromagnetico nel suo complesso.
Possiamo intuire le ragioni che hanno imposto la teoria dei campi quantistici come teoria di riferimento per la descrizione della materia in tutte le sue forme: la teoria dei campi fornisce lo strumento per descrivere particelle che possono essere create o distrutte e si tratta di fenomeni che non sono caratteristica esclusiva dei fotoni, ma che appaiono per ogni tipo di particella, come, per esempio, nella produzione di coppie elettrone-positrone, nel decadimento beta, o nella produzione di coppie protone-antiprotone, che ha permesso a Emilio Segré e ai suoi collaboratori la scoperta dell'antiprotone.
Ci si può ora domandare se la teoria dei campi quantistici sia solamente una teoria quadro, nel senso che può descrivere una varietà di possibili universi, ciascuno con le sue particelle su misura, oppure se esistano principî che permettono di selezionare una singola teoria di campo, tra le molte a prima vista possibili, come l'unica matematicamente consistente. In altre parole, se esiste una 'Teoria del tutto' che permetta di prevedere esattamente quali siano le possibili particelle e quali le loro interazioni. A questa domanda non sappiamo ancora dare una risposta esaustiva, anche se la teoria delle superstringhe, discussa nell'articolo di Leonard Susskind, potrebbe rappresentare una soluzione. I progressi sperimentali e teorici degli ultimi decenni hanno però portato alla definizione di una teoria di campo, il cosiddetto Modello standard, che sembra offrire un'eccellente descrizione di tutti i fenomeni fisici sinora osservati.
L'indistinguibilità è forse la caratteristica principale delle particelle elementari. Nell'uso comune la parola 'indistinguibile' ha un significato molto approssimato: si dice "uguali come due gocce d'acqua", ma due gocce sarebbero identiche dal punto di vista della meccanica quantistica soltanto se entrambe contenessero lo stesso numero di atomi di ciascuna specie, una condizione praticamente impossibile da soddisfare. Quando dichiariamo che due particelle elementari sono identiche affermiamo qualcosa di assolutamente esatto; scambiare due elettroni tra loro, attribuendo al secondo la posizione del primo e viceversa, non produce alcun effetto. Lo stesso vale per qualsiasi tipo di particella: protoni, neutroni, quark e fotoni.
Esistono due diversi modi in cui le particelle possono essere quantisticamente identiche; essi prendono il nome di statistica di Bose-Einstein (1924) e statistica di Fermi-Dirac (1926). Nella statistica di Bose-Einstein, caratteristica dei fotoni, più particelle possono occupare lo stesso stato: il numero di fotoni con data lunghezza d'onda, direzione di propagazione e polarizzazione può essere un qualsiasi numero intero, 0,1,2…, mentre nella statistica di Fermi-Dirac, caratteristica degli elettroni, vale il principio di esclusione di Pauli e ogni stato può essere occupato da una sola particella. Particelle del primo tipo sono dette bosoni, quelle del secondo tipo fermioni.
La teoria quantistica dei campi offre una naturale spiegazione per l'esistenza dei due tipi di statistica e un risultato sorprendente, il teorema spin-statistica: i bosoni devono necessariamente avere spin intero (0,1,2,…) in unità h/2π, mentre i fermioni devono avere spin semiintero (1/2,3/2,…). I fotoni, che possono avere spin ±1 lungo la direzione del moto (negli stati che sono il corrispettivo quantistico delle onde elettromagnetiche con polarizzazione circolare) sono quindi necessariamente bosoni, mentre gli elettroni, i protoni, i neutroni e i neutrini, che hanno spin 1/2, non possono che essere fermioni.
La teoria di Fermi del 1933 sulla radioattività beta rappresenta la prima applicazione della teoria dei campi quantistici all'interpretazione di un fenomeno non direttamente legato all'elettromagnetismo. Una seconda apparve nell'anno seguente quando Hideki Yukawa propose che le forze nucleari, che tengono insieme i protoni e i neutroni a formare un nucleo, dovessero essere attribuite all'azione di un campo quantistico. Partendo da quanto si sapeva sulle forze nucleari, in particolare sul loro raggio d'azione molto corto, Yukawa concluse che a questo campo dovesse essere associata una particella con una massa pari a circa 200 volte quella dell'elettrone, circa 1/10 della massa del protone. Per questa sua massa intermedia tra elettrone e protone e per il suo ruolo di intermediatrice delle forze che tengono insieme il nucleo, a questa particella venne attribuito il nome di 'mesone'. Nel 1936 S.H. Neddermayer e Anderson scoprirono nella radiazione cosmica una particella che sembrava avere le caratteristiche richieste dalla teoria di Yukawa, ma si trattò di un abbaglio: nel 1946 un esperimento di Marcello Conversi, Ettore Pancini e Oreste Piccioni dimostrò che questa particella era sostanzialmente incapace di interagire con i nuclei; non si trattava della particella di Yukawa ma, come divenne chiaro negli anni seguenti, di una particella, che oggi chiamiamo 'muone' o particella μ, esattamente uguale a un elettrone, fuorché per la massa, 200 volte più grande. La teoria di Yukawa sembrò di nuovo salva l'anno seguente con la scoperta, a opera di Cesar Lattes, Giuseppe Occhialini, Cecil Powell, di un vero mesone, il pione, o mesone π.
Con la scoperta del mesone π sembrava che tutta la materia, dal nucleo atomico alla struttura delle stelle, potesse essere interpretata in termini di poche particelle elementari: elettroni, protoni e neutroni, pioni e neutrini, ma a cosa servivano i muoni? L'illusione infatti durò poco: sia nella radiazione cosmica, sia negli esperimenti con i moderni acceleratori di alta energia, nuove particelle venivano scoperte a un ritmo impressionante. Alla fine degli anni Cinquanta se ne contavano decine, mentre dieci anni dopo, tra particelle la cui esistenza era ben confermata da esperimenti indipendenti e altre che erano state individuate una volta soltanto (molte poi confermate in seguito), il numero superava il centinaio. Il π, come il protone e il neutrone, costituiva l'avanguardia di un vero esercito. Si poneva il problema di dover mettere ordine in tanta esuberante confusione.
Una prima indicazione in tal senso venne dal fatto che tutte le nuove particelle erano capaci di interagire fortemente tra loro e con i componenti del nucleo: si trattava di un'unica famiglia, detta oggi degli 'adroni', a sua volta distinta in 'barioni', particelle di spin semiintero (1/2,3/2,…), quindi fermioni e 'mesoni', particelle di spin intero (0,1,2,…), cioè bosoni. Protone e neutrone appartengono al primo gruppo, il π al secondo. Poi cominciarono a emergere alcune regolarità interessanti. La prima, suggerita dal lavoro teorico di Tullio Regge (1959), permette di identificare famiglie di particelle di massa e spin crescente, ma accomunate da altre caratteristiche, per esempio la carica elettrica. La seconda, basata su idee di Murray Gell-Mann e Yuval Ne'eman (1961), permette di organizzare le particelle in gruppi di 8 o 10 - ottetti o decupletti - sulla base di una simmetria SU(3), una estensione della simmetria tra protone e neutrone che si manifesta a livello di fisica nucleare. Protone e neutrone, per esempio, fanno parte di un ottetto che comprende gli 'iperoni' λ0, ∑+, ∑0, ∑−, Ξ0, Ξ−, mentre un secondo ottetto contiene i mesoni π, K, η. Tali ricerche sfociarono nel 1964 (Gell-Mann, George Zweig) nella proposta del modello a quark, secondo cui tutti gli adroni sono composti da particelle più elementari, i quark, particelle fermioniche di spin 1/2, e di tre tipi, detti u, d, s (up, down, strange), dotati di carica elettrica pari a una frazione della carica dell'elettrone, 2/3 nel caso di u, −1/3 nel caso di d e s.
I barioni sono composti da tre quark, per esempio il protone P=uud, l'iperone sigma, ∑+=uus, e così via, mentre i mesoni sono composti da una coppia di quark e antiquark. Il modello a quark permetteva di comprendere l'organizzazione degli adroni in ottetti e decupletti, e l'idea che si trattasse di particelle composte suggeriva di interpretare le famiglie di Regge come serie di stati di energia e momento angolare crescente di uno stesso insieme di quark. La fisica degli adroni appare così come una versione, in piccolo e con alcune sostanziali differenze, della fisica dell'atomo o di quella del nucleo.
La teoria dei quark ha risentito di un limite serio, infatti nessun esperimento ha mai messo in evidenza l'esistenza di singoli quark e questo poneva due ordini di problemi: come è possibile che i quark siano sempre confinati all'interno degli adroni? Come accertare che i quark sono veramente presenti all'interno degli adroni e non costituiscono un espediente matematico per interpretare le regolarità osservate?
Alla prima domanda ha dato una risposta la QCD (quantum chromo dynamics), la teoria dei quark e delle loro interazioni sviluppata all'inizio degli anni Settanta; la risposta alla seconda è soprattutto sperimentale. I primi risultati interessanti sono venuti dallo studio, presso lo Stanford linear accelerator center (SLAC), degli urti tra elettroni e protoni ad alta energia, una vera e propria microscopia del protone, che ha messo in evidenza la sua struttura interna in termini di quark. Sono seguiti al CERN esperimenti con fasci di neutrini e, negli anni Ottanta, esperimenti di altissima precisione con il LEP, il grande anello di collisione elettrone-positrone. L'insieme di questi esperimenti ha dimostrato che i quark esistono e si comportano sotto ogni aspetto come particelle elementari al pari dell'elettrone e del neutrino.
Nello studio delle particelle elementari le simmetrie hanno un ruolo del tutto particolare, in quanto permettono di stabilire relazioni tra processi fisici diversi, forniscono una guida alla classificazione dei possibili stati quantici, e in ultima analisi offrono importanti indizi per la costruzione della teoria corretta. Lo studio delle simmetrie delle particelle elementari permette, di fronte a un Universo di estrema complessità, di porre domande relativamente semplici e al tempo stesso significative.
Per simmetria si intende, sia a livello quantistico sia classico, una trasformazione degli stati di un sistema fisico tale che a ogni possibile evoluzione del sistema ne corrisponda un'altra ugualmente possibile: indicando con A un qualsiasi stato del sistema, e con A(t) la sua evoluzione nel tempo, la trasformazione A→A′ è una simmetria del sistema se anche A′(t) ne rappresenta una possibile evoluzione.
Alcune simmetrie, dette discrete, sono operazioni isolate, e formano un gruppo con un numero finito di elementi, mentre altre costituiscono un gruppo i cui elementi possono essere identificati da parametri che variano con continuità. Esempi di simmetrie continue sono le simmetrie per traslazioni e rotazioni, che riflettono l'omogeneità e l'isotropia dello spazio. Il principio di relatività galileiana aggiunge la simmetria per trasformazioni tra sistemi di riferimento che siano relativamente in moto traslatorio a velocità costante. Queste simmetrie sono identificate da parametri - vettore di traslazione, angoli di rotazione, velocità relativa - che variano con continuità.
Esempi di trasformazioni discrete sono la simmetria speculare, vale a dire la parità P, l'inversione temporale T, e lo scambio tra materia e antimateria C. Si deve a Pauli (1955) un risultato di estrema importanza, il teorema CPT, secondo cui la teoria dei campi quantistici è necessariamente simmetrica rispetto alla combinazione delle tre simmetrie C, P, T. Tutti erano convinti che le tre simmetrie fossero singolarmente valide: P e T sono note come simmetrie della meccanica classica, e sembravano ben verificate sia nella fisica degli atomi sia dei nuclei, mentre C appariva come una simmetria naturale della teoria di Dirac. Non è così: infatti tra il 1956 e il 1957 una serie di risultati sperimentali ispirati da una proposta di Tsung-Dao Lee e Chen Ning Yang mostrò che le interazioni deboli violano le simmetrie P e C. Per qualche tempo sembrò che l'inversione temporale T potesse restare una simmetria valida, e con essa PC (combinazione delle due trasfomazioni P e C), ma nel 1964 James W. Cronin e Val L. Fitch scoprirono una violazione della simmetria PC nel decadimento dei mesoni K neutri. Sulla base del teorema CPT, una violazione della simmetria CP implica anche una violazione della inversione temporale T. Il Modello standard offre un'interpretazione della violazione di CP e T su cui torneremo dopo avere discusso dei quark e del loro mescolamento.
Ci si potrebbe domandare come mai la meccanica classica sia perfettamente simmetrica rispetto alla parità P e all'inversione temporale T, mentre queste simmetrie non esistono a livello di particelle elementari. La ragione è semplice: le violazioni di P e T sono associate agli effetti delle interazioni deboli e appaiono soltanto in fenomeni squisitamente quantistici, come la radioattività beta, in cui la costante h di Planck ha un ruolo essenziale. Tali fenomeni semplicemente scompaiono entro i limiti della meccanica classica.
All'inizio degli anni Settanta il quadro delle particelle elementari aveva sostanzialmente raggiunto la configurazione che oggi conosciamo. Da una parte i quark, che compongono gli adroni, e sono quindi i componenti ultimi dei nuclei atomici, dall'altra elettrone, muone e neutrini, collettivamente detti 'leptoni'. Quark e leptoni sono particelle di spin 1/2. Per completare il quadro si devono aggiungere i quanti dei differenti campi di forza. È proprio sulla definizione dei campi di forza, interazioni tra quark e leptoni, che negli anni intorno al 1970 si è assistito ai progressi più rilevanti, dai quali è poi nato il Modello standard, una teoria coerente delle particelle elementari e delle loro interazioni. Il Modello standard comprende una teoria unificata delle interazioni elettromagnetiche e deboli e la cromodinamica quantistica, che descrive le interazioni tra quark che portano alla formazione degli adroni.
Le moderne teorie delle interazioni fondamentali hanno la loro radice nell'elettrodinamica quantistica, QED (quantum electrodynamics), la teoria delle interazioni tra elettroni e campo elettromagnetico, che raggiunse forma compiuta nel secondo dopoguerra. Sin dalla loro prima formulazione le teorie quantistiche di campo hanno sofferto di difficoltà matematiche che di fatto impedivano di andare oltre i calcoli più semplici. In termini tecnici si incontrano divergenze, cioè risultati numerici infiniti, quindi privi di senso. Negli anni 1947-1949, i lavori di Julian Schwinger, Sin-itiro Tomonaga, Richard Feynman e Freeman Dyson hanno mostrato che nel caso della elettrodinamica quantistica questo problema è circoscritto al calcolo di due sole grandezze, la massa e la carica dell'elettrone, e che tale difficoltà può essere evitata se si rinuncia al calcolo di queste due grandezze, sostituendo al risultato privo di senso dei calcoli il valore sperimentalmente determinato, un procedimento che prende il nome di 'rinormalizzazione'. Qualsiasi altra grandezza può essere calcolata e i risultati ottenuti sono in ottimo accordo con i dati sperimentali.
Sulla rinormalizzazione si è molto discusso; secondo l'interpretazione più ragionevole le divergenze riflettono un'incompletezza della teoria. Ciò non deve sorprendere: la QED e lo stesso Modello standard non includono gli effetti dovuti alle interazioni gravitazionali, che sono completamente trascurabili alle energie (∼100 GeV) sinora esplorate, ma diventano dominanti a energie elevatissime, di circa 1019 GeV, la 'energia di Planck', una regione destinata a restare inesplorata eccetto che dalle estrapolazioni teoriche. La differenza tra teorie rinormalizzabili e teorie non rinormalizzabili resta però di fondamentale importanza. In una teoria rinormalizzabile le divergenze sono circoscritte, come avviene nell'elettrodinamica quantistica, a un numero limitato di costanti, rimesse alla determinazione sperimentale, mentre qualsiasi altra grandezza osservabile può essere in linea di principio calcolata. In una teoria non rinormalizzabile, al contrario, le divergenze sono onnipresenti e non è possibile ottenere nessuna predizione; una teoria non rinormalizzabile non è una teoria quantistica accettabile.
Una caratteristica importante dell'elettrodinamica quantistica è il fatto che essa gode di un particolare tipo di simmetria, detta 'simmetria di gauge'. Ci limiteremo a brevi cenni su questo concetto, introdotto nel 1928 da Hermann Weyl. Le rotazioni o le traslazioni spaziali, di cui abbiamo discusso, sono simmetrie 'globali', trasformazioni che agiscono in modo coordinato su tutti i punti dello spazio. Nella teoria della relatività generale Einstein ha proposto un'estensione del concetto di simmetria introducendo la possibilità di eseguire trasformazioni 'locali', cioè diverse da punto a punto. Le nuove trasformazioni comportano una vera e propria deformazione dello spazio; tra queste e le usuali rotazioni o traslazioni corre la stessa differenza che sussiste tra appallottolare un foglio di carta e il suo spostamento da un punto all'altro della scrivania. Le nuove trasformazioni possono essere una simmetria delle leggi fisiche, ma soltanto a una condizione: deve esistere un campo di forza che, come ha mostrato Einstein, è il campo che trasmette le interazioni gravitazionali. La teoria generale della relatività non fornisce solamente una teoria delle interazioni gravitazionali che ha trovato innumerevoli conferme sperimentali, anche negli ultimi anni, ma mostra inoltre che l'esistenza delle interazioni gravitazionali è intimamente legata alle simmetrie, quindi alla geometria dello spazio-tempo.
Nel suo lavoro del 1928 Weyl ha mostrato che la teoria di Dirac degli elettroni liberi, in assenza di interazioni con il campo elettromagnetico, gode di una simmetria globale, che corrisponde alla possibilità di apportare un cambiamento di fase delle onde-elettrone. Nell'elettrodinamica quantistica, in presenza delle interazioni elettromagnetiche, si realizza una simmetria molto più vasta, che permette di variare la fase delle onde-elettrone in modo arbitrario in ogni punto dello spazio, senza alcun cambiamento osservabile. Alla simmetria estesa Weyl diede il nome di 'simmetria di gauge'. Come nel caso della gravitazione, anche l'esistenza di una interazione elettromagnetica è quindi strettamente legata all'esistenza di una simmetria di tipo locale. La simmetria di gauge si è rivelata essenziale per la rinormalizzazione della elettrodinamica quantistica, e ciò ha fatto nascere l'idea che la ricerca di una teoria di campo in grado di descrivere tutti gli aspetti della fisica delle particelle dovesse concentrarsi su teorie dotate di questo tipo di simmetria.
Nel Modello standard non solamente le interazioni elettromagnetiche, ma anche le deboli e quelle che legano i quark all'interno degli adroni, sono connesse a particolari simmetrie di gauge. Ciò è stato reso possibile dai notevoli progressi nella comprensione delle teorie di gauge nel corso degli anni Sessanta e nei primi anni Settanta. La simmetria di gauge dell'elettrodinamica quantistica è associata a un gruppo di trasformazioni particolarmente semplice, ma la possibilità di teorie di gauge basate su gruppi di simmetria più complessi è emersa con il lavoro di Yang e R. Mills del 1961. Essi hanno mostrato come costruire teorie di gauge basate su un'ampia classe di gruppi di trasformazioni. Nella versione originale delle loro teorie ai campi di forza erano necessariamente associate particelle di massa nulla. Nel 1964, però, Peter Higgs scoprì come eludere questa limitazione senza perdere la simmetria di gauge, con un meccanismo che si è rivelato essenziale per la teoria di gauge delle interazioni deboli, in cui appaiono le particelle W e Z di massa molto elevata. Nel 1971 Gerard 't Hooft, a conclusione di una lunga ricerca sulle teorie di Yang-Mills iniziata con Martinus J.G. Veltman, ha dimostrato che le teorie di Yang-Mills sono rinormalizzabili, quindi matematicamente ben definite. La via per l'accettazione e il perfezionamento del Modello standard era aperta.
Per comprendere la moderna teoria delle interazioni deboli, dobbiamo ricordare uno dei capisaldi della teoria di Yukawa delle forze nucleari: il raggio d'azione di un campo di forze quantistico è inversamente proporzionale alla massa delle particelle associate al campo stesso. Nel suo lavoro del 1934 Fermi propose che l'interazione debole avvenisse 'per contatto', cioè con raggio d'azione nullo. Nella versione moderna le interazioni deboli sono mediate da un campo di forze cui sono associate particelle che hanno preso il nome di particelle (o bosoni) W. Se la massa di queste particelle è, come ormai sappiamo, molto grande, il raggio d'azione risulta molto piccolo e l'originale teoria di Fermi fornisce un'ottima approssimazione. Nella disintegrazione beta il campo del W deve trasportare una unità di carica elettrica dal neutrone (che si trasforma in protone) alla coppia elettrone-neutrino, e da questo segue che W deve avere carica elettrica negativa W−, e la sua antiparticella W+, carica elettrica positiva. Quindi la teoria delle interazioni deboli risulta indissolubilmente legata a quella delle interazioni elettromagnetiche. Si parla ormai comunemente di 'interazioni elettrodeboli'.
Dopo una serie di tentativi che portavano, come del resto quello iniziale di Fermi, a teorie di campo non rinormalizzabili, la moderna teoria unificata delle interazioni elettrodeboli è emersa nel 1968 dai lavori di Abdus Salam e Steven Weinberg che completavano un precedente tentativo di Sheldon Glashow del 1961. In questa teoria alle particelle W+, W− e al fotone si aggiunge una particella elettricamente neutra, lo Z0. Il campo dello Z media un nuovo tipo di interazioni deboli, dette 'di corrente neutra', e porta a nuovi processi fisici che furono per la prima volta osservati nel 1973. Dai risultati sperimentali, perfezionati negli anni successivi, emerse una previsione sorprendente: W e Z, con masse di circa novanta e cento volte la massa del protone, sarebbero state le particelle più pesanti mai osservate. Previsione brillantemente confermata dagli esperimenti che portarono nel 1983 alla scoperta delle due particelle.
La teoria delle interazioni elettrodeboli è una teoria di gauge, quindi rinormalizzabile. Questo permette dettagliate previsioni, verificate tra il 1985 e il 2000 in esperimenti di altissima precisione condotti con il collisore LEP. Uno degli elementi chiave della nuova teoria è ancora sfuggito agli sperimentatori: si tratta della particella di Higgs, una particella elettricamente neutra e priva di spin, essenziale per garantire la coerenza della teoria. I risultati ottenuti fino a questo momento ci permettono di affermare che la sua massa è superiore a circa 110 GeV, 120 volte la massa del protone. La ricerca della particella di Higgs è al centro del programma sperimentale del nuovo collisore LHC del CERN, che entrerà in funzione tra qualche anno.
Abbiamo già accennato a uno dei grandi misteri dei quark: il loro confinamento all'interno degli adroni. Esisteva però un secondo mistero, che si manifesta compiutamente in una particella adronica storicamente importante, il Δ++: scoperta da Fermi nel 1953 è stata uno dei primi adroni dopo il protone, il neutrone e il pione. Il Δ++ è costituita da tre quark di tipo u con gli spin allineati nella stessa direzione. Ed ecco il mistero: i tre quark sono nello stesso stato, cosa chiaramente proibita per particelle di spin 1/2, che obbediscono al principio di esclusione di Pauli. La soluzione fu trovata rilevando per i quark un'altra proprietà, oltre allo spin, detta 'colore'. Molti nomi che si incontrano nel mondo delle particelle sono nati in modo bizzarro, incluso 'quark' che proviene da una oscura citazione del Finnegan's wake di James Joyce, "Three quarks for Muster Mark!", o il 'sapore' (flavour) che distingue i quark di tipo diverso, per esempio u e d, per finire con i 'gluoni' (campi di colla) che legano i quark nell'interno degli adroni; forse questi nomi spiritosi riflettono la gioia provata nello scoprire fatti così sorprendentemente eleganti. Il 'colore' dei quark può essere scomposto in tre componenti che, continuando la metafora, sono dette red, green e blue. Ecco quindi che, se i tre quark u nel Δ++ sono di colore diverso, il secondo mistero è risolto: colori diversi significa stati diversi; il principio di Pauli è rispettato. Lo stesso deve succedere per ogni 'sapore' di quark. Da queste considerazioni prende avvio la moderna teoria dei quark, detta QCD, ancora una volta una teoria di gauge, basata sulla completa simmetria dei tre colori dei quark. La QCD ha una formulazione semplice, ma si è rivelata matematicamente ostica. Il Clay mathematics institute (Massachusetts) l'ha selezionata come uno dei sette grandi problemi della matematica, per ciascuno dei quali è in palio un premio da un milione di dollari. In attesa di una soluzione completa, la QCD viene affrontata con due metodi di approssimazione tra loro complementari. Per fenomeni ad alta energia si utilizza il cosiddetto 'metodo delle perturbazioni', e si sono ottenuti risultati in eccellente accordo con i dati sperimentali, particolarmente quelli di grande precisione del LEP. Per fenomeni a bassa energia, incluse le proprietà degli stati adronici, si ricorre alla simulazione numerica su calcolatori elettronici. Le enormi potenze di calcolo richieste da queste simulazioni hanno spinto molti gruppi di ricercatori alla progettazione di calcolatori paralleli di grandi prestazioni. È questa l'origine del progetto APE, nato in Italia nell'ambito dell'INFN (Istituto nazionale di fisica nucleare), ma che ormai coinvolge molte istituzioni europee. Le simulazioni hanno permesso di verificare che il confinamento dei quark trova una sua spiegazione nella QCD e hanno portato a notevoli risultati, specialmente per quanto riguarda le interazioni deboli tra adroni.
Dalla teoria unificata delle interazioni elettrodeboli è nato un concetto inatteso, quello di 'famiglia' di particelle elementari. Perché la teoria sia coerente dal punto di vista matematico occorre che le cariche elettriche di tutti i fermioni si sommino a zero. Ciò effettivamente si realizza sommando la carica −e dell'elettrone, le cariche 2e/3 dei tre quark u e quelle −e/3 dei tre quark d. Tali particelle, insieme al neutrino (elettricamente neutro) emesso nel decadimento beta, formano una prima famiglia leptone-quark.
Alla seconda famiglia appartengono il muone e il quark s, di carica −e/3, componenti degli adroni 'strani', quali gli iperoni e i mesoni K. Nei primi anni Sessanta si era scoperto che nei processi deboli in cui viene emessa una coppia muone-neutrino, per esempio la disintegrazione del pione negativo, π→μ+ν, il neutrino emesso è differente da quello emesso nel decadimento beta. Per distinguerli, i due neutrini sono rappresentati dai simboli νe, νμ. A completare la seconda famiglia mancava un quark di carica 2e/3, il quark c (charm, altro scherzo). Il quark c era atteso con ansia sin dal 1969: Glashow, John Illiopoulos e Luciano Maiani avevano dimostrato che il charm era assolutamente essenziale per la coerenza tra i dati sperimentali e la nascente teoria di gauge delle interazioni deboli. Il primo risultato che segnalava l'esistenza del charm fu ottenuto con la particella J/ψ (1974, i gruppi statunitensi di Stanford e di Brookhaven responsabili della scoperta non trovarono un accordo sul nome della nuova particella), un mesone composto da una coppia di quark charm-anticharm. Due anni dopo, nel 1976, furono scoperti a Stanford i primi mesoni D, che contengono un singolo quark c in associazione con un antiquark di tipo u, d, o s. La seconda famiglia era così completa.
La prima indicazione sperimentale dell'esistenza di una terza famiglia è arrivata nel 1975 con la scoperta di un nuovo leptone carico, il τ−; il corrispondente neutrino, ντ, è stato recentemente identificato. Per completare la terza famiglia mancavano due quark: uno, detto b (beauty), di carica −e/3, l'altro, il t (top), di carica 2e/3. Il primo fu trovato quasi immediatamente in un esperimento al laboratorio Fermi di Chicago: si tratta di una particella relativamente pesante, circa cinque volte il protone. La ricerca del t si è prolungata per quasi vent'anni, e si è conclusa nel 1995, ancora al Laboratorio Fermi, frutto di una collaborazione tra ricercatori italiani, statunitensi e giapponesi. Con una massa duecento volte maggiore di quella del protone, il quark t è la più pesante tra le particelle elementari sinora conosciute.
Sembra molto improbabile l'esistenza di ulteriori famiglie, soprattutto dopo la misura al LEP delle disintegrazioni del bosone Z, da cui segue che i neutrini sono tre; quindi tre neutrini, tre famiglie. Nel Modello standard non sembra esservi posto per una nuova famiglia leptone-quark.
Le particelle che abbiamo elencato - sei quark, tre leptoni carichi e tre neutrini - forniscono la materia prima per tre famiglie, ma la suddivisione tra le famiglie è complicata dal mescolamento sia dei quark sia dei neutrini. Dedichiamo questa sezione al mescolamento dei quark, il primo in ordine di tempo a essere scoperto (da Nicola Cabibbo nel 1963), rimandando al prossimo paragrafo una discussione del mescolamento dei neutrini e delle sue conseguenze sperimentali.
La radioattività beta nasce dalla trasformazione di un neutrone in un protone all'interno del nucleo accompagnata dall'emissione di un elettrone e di un antineutrino. La composizione del neutrone in termini di quark è u+d+d, quella del protone u+u+d, quindi il decadimento beta corrisponde, in ultima analisi, alla trasformazione di un quark d di carica −e/3 in un quark u di carica 2e/3. Nelle tre famiglie esistono tre quark (d, s, b) di carica −e/3 e tre (u, c, t) di carica 2e/3, quindi nove possibili transizioni. Nel Modello standard l'insieme delle possibili transizioni è descritto da una matrice a tre righe e tre colonne, la matrice CKM, i cui elementi determinano la forza di ciascuna transizione. Gli elementi della matrice CKM rappresentano un mescolamento tra i quark appartenenti alle tre famiglie. In termini tecnici ciascun elemento, che corrisponde a una delle possibili transizioni, è rappresentato da un numero complesso il cui modulo misura l'intensità - la probabilità per unità di tempo - della transizione, mentre la fase determina lo sfasamento delle onde delle particelle finali rispetto a quelle delle particelle iniziali. L'esistenza di sfasamenti segnala una violazione della simmetria temporale T, e quindi anche, per il teorema CPT, una violazione della simmetria CP.
In presenza di due famiglie soltanto di quark-leptoni sarebbe possibile eliminare tutti gli sfasamenti, e ciò comporta una simmetria sia rispetto a T sia rispetto a CP. Questa situazione corrisponde alla teoria da me proposta, in termini leggermente diversi, prima della nascita del modello a quark. Nel linguaggio dei quark il mio lavoro descriveva l'insieme delle transizioni tra i quark delle prime due famiglie mediante un singolo parametro, detto angolo θ, o angolo di Cabibbo. Era questa la situazione sino al 1973, quando in un lavoro veramente profetico - mancavano due anni alla scoperta del leptone τ− - Makoto Kobayashi e Toshihide Maskawa mostrarono che la presenza di una terza famiglia avrebbe permesso di spiegare, all'interno del Modello standard, la violazione della simmetria CP osservata nel 1964 da Cronin e Fitch nel decadimento dei mesoni K.
Il mescolamento dei quark è ricco di conseguenze sperimentali che sono state verificate con successo. La matrice CKM è, all'interno del Modello standard, descritta in termini di quattro parametri, di cui uno coincide con l'originale parametro θ, mentre un secondo, se differente da zero, determina la violazione delle simmetrie CP e T. Una combinazione di risultati sperimentali e analisi teoriche ha permesso sin dal 1999 di determinare con buona precisione il valore dei quattro parametri, e quindi di prevedere nuovi fenomeni di violazione della simmetra CP osservabili nella disintegrazione dei mesoni B, caratterizzati dalla presenza di un quark b. Tali previsioni sono state puntualmente verificate dai risultati ottenuti nel 2001 da due esperimenti eseguiti a Stanford, negli Stati Uniti, e nel laboratorio KEK di Tsukuba in Giappone.
Oltre al mescolamento dei quark è possibile un mescolamento dei leptoni, che si manifesta nel fenomeno delle oscillazioni di neutrini. Abbiamo visto che il mescolamento produce una rete di possibili transizioni tra quark di carica −e/3 e quark di carica 2e/3. Stiamo parlando di transizioni tra particelle che sono anche onde, quindi si potrebbero attendere situazioni di interferenza costruttiva o distruttiva tra onde diverse. L'interferenza si osserva quando due onde hanno la stessa frequenza, o frequenze quasi uguali, nel qual caso si rilevano battimenti, ossia l'alternarsi nel tempo di interferenza costruttiva e distruttiva. Questi fenomeni non sono in pratica osservabili nelle transizioni tra quark giacché essi hanno masse molto diverse tra loro, quindi energie (E=mc2) e frequenze (ν=E/h) estremamente differenti. Ne segue che, in generale, adroni diversi non esibiscono fenomeni di interferenza o battimento. L'unica eccezione a questa regola si realizza quando una particella e la corrispondente antiparticella (con massa uguale) si disintegrano nello stesso stato finale. Un esempio, descritto nel 1955 da Gell-Mann, Abraham Pais e Piccioni, è quello dei mesoni K neutri e delle loro antiparticelle, che hanno in comune alcuni canali di decadimento, per esempio quello in una coppia π++π−. Proprio a questo si ispirò Bruno Pontecorvo quando nel 1957 propose la possibilità di oscillazioni tra neutrino e antineutrino. Il fenomeno delle oscillazioni è essenzialmente un fenomeno di battimento tra due o più onde, dal quale consegue una trasformazione ciclica, per esempio, secondo la prima proposta di Pontecorvo, da neutrino ad antineutrino e viceversa.
Nel Modello standard non sono possibili oscillazioni tra neutrini e antineutrini, ma un'estensione ai leptoni del meccanismo di mescolamento, la cui esistenza è ben stabilita nel caso dei quark, fa emergere la possibilità - Pontecorvo, 1967 - di oscillazioni tra neutrini di tipo diverso, νe⇔νμ⇔ντ. Perché ciò avvenga occorre che esista, come nel caso dei quark, una rete di transizioni tra i tre leptoni carichi e tre neutrini, e questi devono avere masse diverse tra loro. La grande differenza tra i quark e i neutrini è che i neutrini hanno masse molto piccole - a lungo si era sospettato che le loro masse fossero nulle - quindi in assoluto poco differenti tra loro. L'impercettibilità della differenza di massa fa sì che le oscillazioni si sviluppino solamente su distanze molto grandi, di centinaia o migliaia di chilometri, e ciò ha reso estremamente difficile una conferma sperimentale.
Da decenni si sospettava che alcune discrepanze nelle misure di neutrini emessi dal Sole (anche questa una proposta di Pontecorvo) fossero da attribuire alle oscillazioni dei neutrini di tipo νe. Tali sospetti sono ora una certezza: lo hanno confermato misure più accurate, in particolare quelle eseguite nel laboratorio Sudbury in Canada e quelle effettuate in Giappone su neutrini emessi da reattori nucleari. Un secondo tipo di oscillazioni, nei neutrini νμ prodotti nell'atmosfera dalla radiazione cosmica, è stato scoperto in un esperimento giapponese, e confermato da misure eseguite nei laboratori italiani del Gran Sasso.
La fisica delle oscillazioni dei neutrini è agli inizi. Si stanno progettando nuovi acceleratori destinati a produrre fasci intensi e ben collimati di neutrini che permetteranno un vero salto nella qualità e precisione degli esperimenti. Una possibilità molto attraente è quella di mettere in evidenza, anche nel caso delle oscillazioni di neutrini, fenomeni di violazione delle simmetrie CP e T, da me proposti nel 1978.
Lo studio delle particelle elementari non si è affatto concluso con l'affermazione del Modello standard, anche se esso sembra in ottimo accordo con i dati disponibili. Malgrado i suoi innegabili successi, i fisici teorici non ne sono del tutto soddisfatti. Una teoria più completa della natura delle particelle dovrebbe infatti includere una descrizione delle loro interazioni con il campo gravitazionale. La teoria della gravitazione di Einstein, basata sul concetto di curvatura dello spazio-tempo, è ormai suffragata da molteplici fenomeni astrofisici, ma non è una teoria quantistica; in altre parole non può essere usata per descrivere l'interazione gravitazionale tra due onde-particelle. Nel Modello standard l'esistenza delle interazioni gravitazionali tra le particelle è semplicemente dimenticata. Si tratta di una omissione ragionevole, dato che la gravità si mostra solamente quando si ha a che fare con masse molto grandi, ed è trascurabile su scala atomica o nucleare. Una teoria completa delle particelle non può però interamente tralasciare la gravità se intende interpretare fenomeni su scale arbitrariamente piccole, cui corrispondono, come abbiamo visto, energie, e quindi masse arbitrariamente grandi.
Un secondo motivo di insoddisfazione deriva dal grande numero di parametri che il Modello standard lascia indeterminati e demanda al calcolo sperimentale. Come abbiamo visto nel caso dell'elettrodinamica quantistica, la presenza di parametri indeterminati (nella QED la massa e la carica dell'elettrone) è caratteristica delle teorie di campo rinormalizzabili, ma nel Modello standard i parametri sono estremamente numerosi: le masse dei sei quark, dei tre leptoni carichi e dei tre neutrini, otto parametri che descrivono il mescolamento dei quark e dei leptoni, mentre altri sei parametri descrivono i campi di forza. Da una teoria veramente fondamentale ci si aspetterebbe una maggiore economia.
Sono stati proposti diversi schemi per estendere il Modello standard sino a includere gli effetti della gravità. Si arriva così a modelli che non sono più solamente teorie delle particelle ma anche dello spazio e del tempo. Caratteristica comune di queste nuove teorie, basate sul concetto di supersimmetria, è di prevedere l'esistenza di nuove particelle, alcune delle quali potrebbero essere poste in evidenza dagli esperimenti di altissima energia che saranno eseguiti presso il CERN con il nuovo anello di collisione LHC. Questi esperimenti dovrebbero portare alla scoperta e allo studio della particella di Higgs, una delle previsioni chiave del Modello standard, ma potrebbero anche fornire segnali importanti per il suo superamento.
Bernardini, Bonolis 2001: Conoscere Fermi, a cura di Carlo Bernardini e Luisa Bonolis, Bologna, Compositori, 2001.
Feynman 1985: Feynman, Richard, QED, the strange theory of light and matter, Princeton-Guildford, Princeton University Press, 1985 (trad. it.: QED, Milano, Adelphi, 1989).
Greene 1999: Greene, Brian, The elegant universe, London, Jonathan Cape, 1999 (trad. it.: L'universo elegante, Torino, Einaudi, 2000).
Kane 1995: Kane, Gordon, The particle garden, Reading (Mass.)-Harlow, Addison-Wesley, 1995 (trad. it.: Il giardino delle particelle, Milano, Longanesi, 1997).
Pais 1982: Pais, Abraham, Subtle is the Lord, Oxford, Clarendon; New York, Oxford University Press, 1982 (trad. it.: Sottile è il Signore, Torino, Bollati Boringhieri, 1991).
Pais 1986: Pais, Abraham, Inward bound, Oxford, Clarendon Press, 1986.
Regge 1999: Regge, Tullio, L'universo senza fine, Milano, Oscar Mondadori, 1999.