Interazioni fondamentali
di Guido Altarelli
SOMMARIO: 1. Introduzione. ▭ 2. Il Modello Standard (MS). ▭ 3. Verifiche di precisione del MS. ▭ 4. Oltre il MS. ▭ 5. Conclusioni e prospettive. ▭ Bibliografia.
1. Introduzione.
La fisica fondamentale si propone di ricondurre tutti i fenomeni naturali a un insieme di teorie e di leggi che, almeno in linea di principio, spieghino e permettano di predire quantitativamente le osservazioni empiriche. A livello microscopico tutta la fenomenologia della materia e della radiazione, ovvero della fisica molecolare, atomica, nucleare e subnucleare, si può riportare a tre classi di interazioni fondamentali: le interazioni forti, le interazioni elettromagnetiche e le interazioni deboli. Gli elettroni sono legati ai nuclei degli atomi da forze elettromagnetiche e le loro proprietà rendono conto della fenomenologia degli atomi e delle molecole. La luce è una particolare vibrazione di campi elettrici e magnetici (onde elettromagnetiche). Le interazioni forti tengono insieme i protoni e i neutroni dei nuclei, essendo a piccole distanze così intensamente attrattive da prevalere sulla repulsione elettromagnetica tra le cariche di ugual segno dei protoni. Protoni e neutroni sono composti di tre quarks tenuti insieme dalle interazioni forti, alle quali sono soggetti i quarks medesimi e i gluoni (queste particelle sono perciò dette 'adroniche'). Alle interazioni deboli sono dovute la radioattività β dei nuclei e le reazioni nucleari che producono l'enorme energia irradiata dal Sole e dalle stelle in generale. Così pure alle interazioni deboli sono dovuti i decadimenti del neutrone, dei pioni carichi e delle particelle adroniche più leggere dotate di stranezza (strangeness), charm e beauty (numeri quantici di 'sapore'), le disintegrazioni del quark top, osservato per la prima volta al Tevatron del FNAL (Fermi National Accelerator Laboratory) nel 1995, e dei leptoni carichi pesanti (il muone μ- e il tauone τ-). Inoltre tutte le interazioni osservate dei neutrini sono dovute alle interazioni deboli.
I tre tipi di interazione citati sono descritti nel quadro dei principî della meccanica quantistica e della relatività, più precisamente da una teoria locale e relativistica di campi quantizzati. A ogni tipo di particella, supposta puntiforme, corrisponde un campo, con opportune proprietà di trasformazione (dipendenti dallo spin) rispetto al gruppo di Lorentz, il gruppo delle trasformazioni relativistiche di coordinate spazio-temporali. La teoria di queste interazioni si basa su un principio di simmetria interna, locale o 'di gauge', ovvero una simmetria che ruota di angoli di rotazione diversi da punto a punto dello spazio-tempo i gradi di libertà interni (cioè non spazio-temporali) utilizzati nella teoria. Queste teorie con simmetria di gauge sono completamente determinate dal gruppo di simmetria e dalle relative rappresentazioni dei campi interagenti. L'insieme delle interazioni forti, elettromagnetiche e deboli è descritto da una teoria di gauge di questo tipo, che costituisce il cosiddetto Modello Standard (MS). In realtà, solo un sottogruppo della simmetria del MS è direttamente osservabile nello spettro degli stati fisici, poiché una parte della simmetria è nascosta (meccanismo di Higgs per la rottura spontanea della simmetria di gauge).
Oltre a queste tre interazioni, sulla Terra, per ogni corpo materiale e nei fenomeni geologici, astrofisici e cosmologici, ha un ruolo dominante una quarta interazione, la forza gravitazionale, che è invece trascurabile in fisica atomica e nucleare. La teoria della relatività generale costituisce una teoria classica (nel senso di non quantizzata) della gravitazione che va oltre l'approssimazione statica descritta dalla legge di Newton e descrive anche fenomeni dinamici quali, per esempio, le onde gravitazionali. La formulazione di una teoria quantistica della gravitazione è uno dei problemi centrali della fisica teorica contemporanea, anche se, dato che gli effetti quantistici della gravitazione divengono importanti soltanto per concentrazioni di energia che non sono accessibili in pratica agli esperimenti, la ricerca della teoria corretta può avvenire solamente per via puramente speculativa.
Il tentativo di descrivere la gravità quantistica nel quadro di una teoria locale di campo ben definita e calcolabile analoga al MS non ha condotto a risultati soddisfacenti e la teoria attuale più completa e plausibile della gravità quantistica è formulata non più in termini di oggetti puntiformi, ma in termini di oggetti estesi su distanze molto più piccole di quelle sperimentalmente accessibili, le cosiddette 'stringhe', che evolvono in uno spazio-tempo a 10 o 11 dimensioni. Le dimensioni oltre le 4 dello spazio-tempo ordinario sono compattificate, ovvero ripiegate su loro stesse con un raggio di curvatura dell'ordine delle dimensioni delle stringhe. La teoria delle stringhe fa intravedere la possibilità di formulare una teoria unificata di tutte le interazioni, inclusa la gravità, di cui il MS sarebbe un'approssimazione di bassa energia o di grandi distanze.
Un principio fondamentale della meccanica quantistica, il principio di indeterminazione, implica che se vogliamo studiare delle particelle di dimensioni Δx, oppure delle interazioni che avvengono a distanze Δx, dobbiamo utilizzare delle particelle sonda (prodotte tipicamente da un acceleratore) con impulso p ≿ ℏ/Δ x, dove ℏ è la costante ridotta di Planck ( ℏ = h/2π). Gli acceleratori esistenti o in costruzione (in particolare il Large Hadron Collider, LHC, in costruzione al CERN di Ginevra, che entrerà in funzione nel 2007) permettono di studiare collisioni tra particelle con energie totali nel centro di massa E ~ pc ~ 14 TeV, in grado quindi di essere utilizzati per esplorare la fisica fino a distanze Δx ≿ 10-18 cm. Pertanto, per esempio, possiamo affermare, sulla base degli esperimenti effettuati, che fino a distanze di questo ordine di grandezza l'elettrone, i quarks e tutte le altre particelle del MS non presentano una struttura interna e dunque appaiono elementari e puntiformi. D'altra parte ci aspettiamo che gli effetti quantistici della gravitazione inizino a diventare importanti a distanze dell'ordine di 10-33cm (corrispondenti a energie E dell'ordine di MPlc2 ~ 1019 GeV, dove MPl è la cosiddetta massa di Planck). A distanze così piccole le particelle che a distanze maggiori risultano puntiformi potrebbero rivelarsi oggetti estesi, come appunto sono le stringhe, ed essere descritte da uno schema teorico più generale di cui l'ordinaria teoria dei campi sarebbe appunto un limite di bassa energia o di grandi distanze.
Nei primi istanti di vita del nostro Universo, subito dopo il big bang, la temperatura del fondo cosmico della radiazione di corpo nero si è abbassata percorrendo tutti gli stadi a partire da kT ~ MPlc2, dove k è la costante di Boltzmann, fino alla situazione attuale di T ~ 2,725 K. Quindi tutta la fisica delle alte energie, dalla fisica delle stringhe fino, via via, ad arrivare alla fisica del MS che viene verificata attraverso gli esperimenti di laboratorio, è essenziale per la ricostruzione dell'evoluzione dell'Universo nei primissimi istanti a partire dal big bang. Queste sono le basi della relazione sempre più stretta tra fisica delle alte energie e cosmologia.
Negli ultimi dieci o quindici anni del XX secolo gli sviluppi più importanti in fisica delle particelle sono stati: dal punto di vista sperimentale, la verifica del MS mediante una serie di esperimenti di precisione, la rilevazione e lo studio sistematico di nuovi fenomeni, quali per esempio le oscillazioni di neutrino, e l'esplorazione di nuovi settori, quali i decadimenti degli adroni con beauty, specialmente in relazione alla violazione di CP; dal punto di vista teorico, la speculazione sulle estensioni del MS per descrivere la fisica a più alte energie fino allo sviluppo delle teorie a stringa della gravitazione quantistica unificata con le altre interazioni. Le verifiche di precisione del MS sono state effettuate con gli acceleratori più potenti a disposizione, cioè i collisori e+e- LEP (Large Electron Positron Collider) al CERN di Ginevra e SLC (SLAC Linear Collider) allo Stanford Linear Accelerator Center, in California, i collisori protone-antiprotone Spp̄S al CERN e Tevatron presso lo FNAL, in Illinois, e infine il collisore e - p HERA (Hadron Electron Ring Accelerator), presso il Deutsches Elektronen-Synkroton, ad Amburgo.
2. Il Modello Standard (MS).
Il MS è una teoria coerente, finita e, almeno in linea di principio, calcolabile delle interazioni forti, deboli ed elettromagnetiche. Se al MS si aggiunge la teoria classica della gravitazione, secondo la teoria della relatività generale, si ottiene un quadro teorico di base al quale si può ricondurre la stragrande maggioranza dei fenomeni osservati in natura, dalla fisica microscopica alla cosmologia.
L'architettura del MS si fonda su una generalizzazione dell'elettrodinamica quantistica (QED, Quantum Electrodynamics), nel senso che si tratta di una teoria di campo costruita in base ai principî della meccanica quantistica e della relatività e fondata su una simmetria locale (ovvero valida separatamente in ogni punto dello spazio-tempo) che estende l'invarianza di gauge dell'elettrodinamica a un insieme più grande di densità di correnti e di cariche conservate. Nel MS ci sono otto cariche associate alle interazioni forti, dette cariche di 'colore', e quattro cariche elettrodeboli, una delle quali è proprio la carica elettrica. I commutatori di queste cariche non sono tutti nulli, ma si dividono in tre gruppi. Le otto cariche forti non commutano tra di loro (in termine tecnico formano l'algebra di SU(3), il gruppo delle matrici 3 × 3 unitarie e a determinante uguale a uno), ma commutano con le quattro cariche elettrodeboli. Queste ultime, a loro volta, si dividono in tre che non commutano tra loro e danno luogo a un'algebra di SU(2) (spin isotopico debole) più una che commuta con tutte le altre (algebra di U(1): ipercarica debole). Quindi, in totale, la simmetria locale di gauge del MS corrisponde all'algebra SU(3) ⊗ SU(2) ⊗ U(1). In QED l'interazione tra due particelle dotate di carica elettrica, per esempio due elettroni, è mediata dallo scambio di un fotone γ (o raramente più di uno) emesso dal primo elettrone e riassorbito dal secondo (v. fig. 1). Analogamente, nel MS a ogni carica corrisponde un mediatore (di spin 1, in unità di ℏ) della forza corrispondente. Quindi ci sono otto gluoni per le interazioni forti, mentre per le forze elettrodeboli ci sono i bosoni intermedi delle interazioni deboli, W+, W- e Z0, e il fotone γ.
I campi di materia del MS, tutti di spin 1/2 (fermioni), sono i quarks e i leptoni. I quarks sono i costituenti del protone, del neutrone e di tutte le particelle adroniche (cioè soggette alle interazioni forti): sono colorati, cioè dotati delle cariche forti di colore (ogni specie di quark si presenta in tre repliche di colori diversi) e inoltre posseggono anche cariche elettrodeboli (in particolare, cariche elettriche 2/3 per i quarks di tipo up e - 1/3 per i quarks di tipo down). I leptoni non hanno colore - e quindi non sono soggetti alle interazioni forti - ma sono dotati di cariche elettrodeboli. I campi di materia sono raggruppati in tre famiglie, o 'generazioni', con uguali numeri quantici ma con masse differenti (v. eq. 1). In ogni famiglia abbiamo un doppietto di quarks, uno di tipo up e uno di tipo down, e un doppietto di leptoni con un neutrino e un leptone carico, con cariche elettriche, rispettivamente, 0 e - 1. I quarks di tipo up sono u (up), c (charm), t (top), quelli di tipo down sono d (down), s (strange), b (bottom); i leptoni sono νe, νμ, ντ ed e-, μ-, τ-. Al momento non si ha una spiegazione di questa tripla ripetizione delle famiglie di fermioni:
Il fotone e il gluone hanno massa zero (cioè si muovono alla velocità della luce in ogni sistema di riferimento inerziale), e questa è una conseguenza del fatto che le corrispondenti simmetrie sono esattamente conservate. Invece i bosoni deboli W+, W- e Z0 hanno masse molto grandi sulla scala delle particelle fondamentali (mW ~ 80,4GeV, mZ ~ 91,2GeV, ovvero hanno il peso di nuclei di media grandezza come il rubidio e il molibdeno), il che significa che le corrispondenti simmetrie sono malamente rotte. Nel MS la rottura di simmetria è di un tipo particolare, detto rottura 'spontanea'. Un esempio di rottura spontanea di simmetria si ha in un mezzo magnetico a simmetria sferica. In assenza di campo magnetico esterno, la magnetizzazione potrebbe essere diretta in una direzione arbitraria senza che l'energia totale dipenda dalla direzione. Tuttavia, un dato magnete ha la magnetizzazione orientata lungo una certa direzione e questa scelta (fissata, per esempio, dalla direzione del campo magnetico esistente nella fase di raffreddamento del materiale fuso e poi successivamente spento) determina la rottura spontanea della simmetria sferica. Tale fenomeno è caratterizzato dal fatto che le cariche e le correnti rimangono conservate, ma lo stato fondamentale della teoria (quello di minima energia) risulta non unico e si ha invece un continuo di stati di minima energia che, nel suo insieme, rispetta la simmetria. La rottura della simmetria è dovuta al fatto che il sistema si trova in un punto particolare del continuo, in conseguenza di una 'scelta' avvenuta durante i primi istanti della vita dell'Universo. In una teoria di gauge come il MS, la rottura spontanea si realizza con il meccanismo di Higgs: esistono un certo numero di bosoni di Higgs scalari (cioè di spin 0) con un potenziale che determina la non unicità dello stato fondamentale. Una o più di tali particelle scalari devono necessariamente essere presenti nello spettro degli stati, con masse non lontane da quelle dell'intervallo finora esplorato, ma nessuna è stata ancora osservata con certezza e un grande sforzo sperimentale è in atto per rivelare le particelle di Higgs e completare così la verifica del MS.
Consideriamo ora più in dettaglio le interazioni di base del MS. In QED i vertici di interazione descrivono le ampiezze di emissione o di assorbimento di un fotone da parte di un quark o di un leptone carico (v. fig. 1). La simmetria di gauge implica che il fotone sia accoppiato a tutte le particelle cariche con un'ampiezza proporzionale alla carica elettrica. Il fotone, essendo neutro, non è accoppiato a se stesso, cioè non esiste un vertice in cui un fotone è emesso da un fotone: in assenza di particelle cariche di materia il campo elettromagnetico si propaga liberamente.
Nella cromodinamica quantistica (QCD, Quantum Chromodynamics), che è basata sull'invarianza di gauge della simmetria SU(3) di colore, i vertici che descrivono l'emissione o l'assorbimento di un gluone da parte di un quark sono analoghi ai vertici di QED (v. fig. 2A). Sia il fotone che il gluone hanno la proprietà che la loro emissione o il loro assorbimento da parte di un quark non ne cambia il tipo: per esempio un quark charm emette un fotone o un gluone sempre rimanendo un quark charm; la sola cosa che può cambiare è il colore del quark, in quanto il gluone è colorato. Poiché la simmetria di gauge relativa al colore implica che i gluoni si accoppino a tutte le particelle colorate e i gluoni sono essi stessi colorati, in QCD esistono vertici addizionali che descrivono l'emissione di un gluone da parte di un altro (v. fig. 2B) e che non hanno analogo in QED. Quindi, anche in assenza di quarks il campo di interazione forte non si propaga liberamente, e si dice che la QCD è una teoria interagente. La costante di accoppiamento gs del vertice ove il gluone è emesso da un quark è la stessa di quella del vertice dove il gluone è emesso da un gluone. Inoltre esiste anche un vertice a quattro gluoni con costante di accoppiamento gs2 (v. fig. 2C). La struttura dei vertici ora descritta è completamente fissata dalla simmetria di gauge del colore.
Le proprietà più rilevanti dal punto di vista fisico della QCD sono il confinamento e la libertà asintotica. 'Confinamento' significa che cariche di colore libere non possono esistere: possono esistere solo stati privi di colore. In particolare quarks e gluoni, essendo colorati, sono confinati, mentre gli adroni che osserviamo sono stati legati di quarks con colore totale nullo. Ciò avviene in quanto, per esempio, il potenziale V(r) delle forze di colore tra un quark e un antiquark separati da una distanza r, per r piccolo, si comporta come un potenziale coulombiano (ovvero va come 1/r), mentre invece a grande r cresce linearmente con r, V ~ σr. Il termine lineare rende impossibile la separazione della coppia qq̄. Se la coppia è prodotta in un punto dello spazio-tempo, per esempio da una annichilazione e+e-: e+e- → qq̄, e q e q̄ si allontanano in direzioni opposte nel sistema del centro di massa della reazione, diviene ben presto energeticamente conveniente creare nuove coppie qq̄ che possano neutralizzare il colore e lo stato finale si presenta come due getti di adroni senza colore. Questo fenomeno è simile a quello del magnete spezzato, che, invece di originare due pezzi di carica magnetica 'libera' differente, dà due nuovi magneti di struttura analoga a quella del magnete originale, perché due cariche opposte appaiono al punto di rottura. Grandi progressi sono stati compiuti negli ultimi anni grazie alla simulazione della QCD su reticoli spazio-temporali, approfittando della grande potenza e velocità dei moderni calcolatori elettronici. È stato così possibile ricostruire la forma del potenziale V(r) a grande distanza, confermare l'esistenza del termine lineare e valutare il parametro σ; inoltre è stato anche possibile calcolare la dipendenza dalla temperatura di tale parametro e mostrare che a temperature dell'ordine di 170 MeV il parametro σ è zero e, come un magnete perde la magnetizzazione al di sopra della temperatura di Curie, così la fase confinata scompare alla temperatura di deconfinamento dando luogo a una fase di quarks e gluoni liberi (plasma di quarks e gluoni). Esperimenti effettuati al CERN negli anni novanta e in corso attualmente presso l'acceleratore RHIC (Relativistic Heavy Ion Collider) a Brookhaven, nei quali si fanno collidere degli ioni pesanti (per esempio Au-Au oppure Pb-Pb) dando luogo alla formazione di materia nucleare ad alta temperatura, mostrano delle indicazioni in favore della formazione, in un piccolo volume spazio-temporale, del plasma di quarks e gluoni. Questi studi verranno continuati presso il LHC (esperimento ALICE).
La libertà asintotica è una proprietà di tutte le teorie di gauge non abeliane (cioè con cariche che formano un'algebra chiusa di commutatori non tutti nulli) in 4 dimensioni spazio-temporali; essa consiste nel fatto che la costante di accoppiamento effettiva della teoria di gauge, per effetto delle correzioni quantistiche, varia in funzione del momento trasferito tra le particelle interagenti e, a grandi valori di tale momento, tende a zero logaritmicamente. Precisamente, lo sviluppo perturbativo della QCD dà luogo a delle serie in αs = gs2/4π, dove gs è la costante di gauge. Il comportamento della costante effettiva a grandi momenti trasferiti è αs(Q2)-1 ≈ b log (Q2/Λ2), dove b è un parametro calcolato, Q2 è il valore assoluto del quadrato del quadrimpulso trasferito e Λ è una costante dimensionale, che appare come effetto delle correzioni quantistiche e della rinormalizzazione, e ciò anche nel limite di masse trascurabili dei quarks, in cui nessuna scala di massa è presente nelle lagrangiana di QCD a livello classico. Dunque, per processi con grande Q2 (processi 'duri' o 'altamente inelastici') le interazioni forti perdono di intensità e i loro effetti divengono calcolabili tramite la teoria delle perturbazioni.
Le interazioni deboli introducono alcune caratteristiche nuove e diverse. Mentre la parità P (simmetria per inversione delle coordinate spaziali x,y,z → - x, - y, - z) e la coniugazione di carica C (simmetria particella-antiparticella) sono conservate nei vertici della QED e QCD, non lo sono nelle interazioni deboli. Questa violazione delle simmetrie P e C è introdotta nel MS dalle differenti proprietà di trasformazione sotto il gruppo SU(2) ⊗ U(1) dei quarks e leptoni con elicità (cioè componente dello spin lungo l'impulso) positiva rispetto a quelli con elicità negativa. Nel limite di simmetria sotto il gruppo SU(2) ⊗ U(1), in conseguenza di queste assegnazioni, i fermioni debbono avere massa nulla, perché i termini di massa porterebbero a un mescolamento tra stati di differente elicità che non è possibile perché stati di elicità differente hanno proprietà di trasformazione diverse. Nel MS tutti i fermioni acquistano massa, insieme ai bosoni intermedi delle interazioni deboli W+, W- e Z0, solo quando la simmetria è rotta dal meccanismo di Higgs. La conservazione di P e C per le interazioni del fotone è ottenuta in quanto γ e Z0, gli stati di massa definita dopo la rottura di simmetria, sono opportune sovrapposizioni ortogonali di W3 e B, con un angolo di mixing θW, dove W3 è la componente neutra del tripletto W+, W- e W3 e B è il bosone di gauge di U(1). Poiché la conservazione della carica elettrica è preservata dal meccanismo di rottura, il fotone rimane a massa nulla e i suoi vertici di interazione con i fermioni conservano P e C. Infatti l'angolo di mixing θW è fissato in modo tale che il fotone risulti accoppiato a una pura corrente vettoriale in proporzione alla carica elettrica di ogni fermione: gw sin θW = gw′ cos θW = e, dove gw e gw′ sono le costanti di gauge di SU(2) e di U(1) rispettivamente, e -e è la carica dell'elettrone. Ne consegue che le correnti elettromagnetiche e quelle di colore sono correnti puramente vettoriali, mentre le correnti deboli sono sovrapposizioni di correnti vettoriali e assiali con opposte P e C (e uguale CP). In particolare, per le correnti deboli cariche, quelle mediate da W+ e W-, la combinazione è semplicemente V - A, ovvero corrente vettoriale meno corrente assiale, con una costante d'accoppiamento gw che è collegata alla costante di Fermi GF della prima teoria delle interazioni deboli dalla relazione GF/√2 = gw2/(8mW2). La combinazione di correnti vettoriali e assiali è in generale più complicata per la corrente debole neutra mediata dalla Z0. Per un dato quark o leptone f l'accoppiamento assiale è dato da gfA = ± gw/(4 cos θW) (il segno ± è relativo a stati con spin isotopico - 1/2 e + 1/2, rispettivamente), mentre il rapporto gV/gA degli accoppiamenti vettoriali e assiali è dato per ogni fermione da gfV/gfA = - 1 + 4|Qf| sin2 θω, dove Qf è la carica elettrica in unità pari a e (Qf = 2/3, - 1/3, 0, - 1 per quarks up e down, neutrini e leptoni carichi, rispettivamente).
Una proprietà importante delle interazioni deboli è che le correnti cariche mediate dallo scambio di W± sono le uniche interazioni che cambiano il sapore: per esempio, un quark di tipo up emette un W+ e diventa un quark di tipo down, oppure un elettrone e- assorbe un W+ e diventa un neutrino νe (v. fig. 3). Il fenomeno molto interessante del mixing (mescolamento) dei quarks è dovuto al fatto che nella transizione u → W+d′, originata da un quark u di massa definita, in generale il quark d′ che appare nello stato finale è una sovrapposizione di stati di tipo down d, s e b di massa definita. Tra gli stati d′, s′ e b′, connessi a u, c e t (di massa definita) dall'emissione di un W, e gli stati d, s e b di massa definita si ha una trasformazione unitaria VCKM, introdotta da Nicola Cabibbo (v., 1963), Makoto Kobayashi e Toshihide Maskawa (v., 1973), specificata da tre angoli di mixing e da una fase. Quest'ultima fase determina una violazione della simmetria CP e in effetti è la sola sorgente di violazione di CP nel MS. Grandi progressi sono stati fatti negli ultimi anni nello studio sperimentale degli angoli di mixing e della violazione di CP. Per quanto riguarda i leptoni, se i neutrini avessero masse strettamente nulle non si avrebbe il fenomeno del mixing, ma i recenti esperimenti di oscillazioni di neutrino hanno mostrato che in effetti questi hanno delle piccole masse e quindi anche per i neutrini si ha una matrice di mixing VP-NMS (v. Pontecorvo, 1957; v. Maki e altri, 1962); nei prossimi anni, un grande impegno sperimentale sarà dedicato a perfezionare e completare la nostra conoscenza degli angoli di mixing e delle fasi dei leptoni. Al contrario di quanto succede nelle interazioni da corrente carica, la corrente debole neutra, accoppiata alla Z0, non cambia il sapore. Questo fatto è una conseguenza dell'unitarietà delle matrici di mixing VCKM e VP-NMS (si ricordi che il quark charm fu predetto da Sheldon L. Glashow, John Iliopoulos e Luciano Maiani nel 1970 proprio per garantire la conservazione, osservata sperimentalmente, del sapore negli accoppiamenti della Z0).
Come abbiamo già ricordato, la simmetria di gauge SU(2) ⊗ U(1) è rotta spontaneamente con il meccanismo di Higgs e solo la simmetria connessa alla carica elettrica rimane intatta. Come conseguenza della rottura di simmetria i quarks e i leptoni acquistano massa insieme ai bosoni intermedi W± e Z0 che hanno i numeri quantici dei generatori delle simmetrie rotte. Mentre per i bosoni intermedi deboli una qualunque rappresentazione per i campi di Higgs che non sia un singoletto del gruppo conduce a masse non nulle, solo i doppietti di Higgs possono dare masse ai fermioni. Quindi la scelta più economica è di introdurre solo uno (o più) doppietti di Higgs. D'altra parte i doppietti di Higgs conducono a un rapporto preciso tra le masse di W± e Z0: mW2 = ρ μZ2 cos2 θW, con ρ = 1 a meno di correzioni radiative piccole e calcolabili. Gli esperimenti, condotti specialmente al LEP, hanno confermato che, con grande precisione, il parametro ρ è vicino a 1 e questo prova che i bosoni di Higgs sono doppietti, ovvero hanno spin isotopico debole uguale a 1/2.
3. Verifiche di precisione del MS.
Il CERN, il laboratorio europeo per la fisica delle particelle situato presso Ginevra, ha svolto un ruolo essenziale per lo sviluppo e la verifica di precisione del MS. Gli effetti indiretti della Z0, cioè l'esistenza di processi deboli da corrente neutra, furono osservati per la prima volta al CERN nel 1973 dalla collaborazione Gargamelle (dal nome della camera a bolle realizzata per l'esperimento). In seguito, nel 1982, la produzione diretta del W± e della Z0 nelle collisioni p - p̄ venne osservata, sempre al CERN, dalle collaborazioni UA1 e UA2 (Carlo Rubbia e Simon Van der Meer hanno ricevuto il premio Nobel per la concezione dell'acceleratore e dell'esperimento). Nel 1989 entrò in funzione al CERN il LEP, un grande collisore e+e-, con una circonferenza di circa 27 Km in cui elettroni e positroni circolavano in senso inverso con un'energia per fascio di circa 50 GeV, in una prima fase (detta LEP1) dal 1989 al 1995, e poi di circa 100 GeV, in una seconda fase (LEP2) fino alla fine del 2000, quando il LEP è stato infine smantellato per far posto nello stesso tunnel al nuovo acceleratore (LHC). Lungo la circonferenza i due fasci venivano fatti collidere in corrispondenza di quattro aree sperimentali ove si trovavano i rivelatori ALEPH, DELPHI, L3 e OPAL. Al LEP sia la macchina che gli esperimenti hanno funzionato ottimamente, superando in molte misure cruciali la precisione prevista. I risultati conseguiti sono di eccezionale interesse per la fisica delle particelle.
La prima fase, LEP1, è stata dedicata allo studio della Z0: i fasci sono stati calibrati per avere un'energia E tale che 2E ~ mZc2 ~ 91,2 GeV e si sono misurate con grande precisione la massa mZ e la vita media τZ; sono poi stati studiati sistematicamente i decadimenti della particella in tutti i possibili canali fermione-antifermione. Un primo tipo di misure delle proprietà della Z0 consiste nel variare l'energia intorno al picco di risonanza. Se si innalza l'energia gradatamente, dapprima la coppia e+e- non ha l'energia sufficiente a produrre la Z0; a un certo punto l'annichilazione e+ e- → Z0 diviene possibile e la sezione d'urto cresce bruscamente. La Z0 prodotta si disintegra, dopo un tempo dell'ordine della vita media, in uno stato finale formato da una coppia fermione-antifermione (il fermione può essere un certo sapore di quark, o un leptone carico o un neutrino). Si osserva allora un picco di risonanza (v. fig. 4) con una larghezza intrinseca ΔE ~ ΓZ determinata, secondo il principio di indeterminazione, dalla vita media della Z0: ΓZ = ℏ/τZ. La curva di risonanza è distorta dalle correzioni radiative, in particolare ha una lunga coda dalla parte delle energie grandi: infatti la coppia e+ e- può perdere energia per radiazione di fotoni prima di produrre la Z0. Dalla posizione del massimo si può risalire a mZ, mentre dalla forma della curva di risonanza si ottiene ΓZ. I valori misurati sono: mZ = (91,1875 ± 0,0021) GeV/c2, ΓZ = (2,4952 ± 0,0023) GeV. La precisione rimarchevole della misura di massa richiede una calibrazione perfetta dell'energia dei fasci, che nel LEP è stata ottenuta con un metodo basato sulla risonanza magnetica. Il controllo dell'energia era sufficientemente preciso da rivelare gli effetti di marea dovuti alla gravità della Luna, che pure erano così piccoli da modificare la geometria della macchina solo per una frazione di millimetro su una circonferenza di 27 km. La conoscenza preliminare di mZ è essenziale per la predizione teorica delle proprietà fisiche della Z0 nel MS, e quindi è un dato di partenza per le verifiche di precisione della teoria. La larghezza ΓZ è una di queste predizioni controllabili. Dal valore misurato ΓZ si ottiene la vita media τZ = (2,6379 ± 0,0024)10-25 s.
Una volta misurata la forma della curva di risonanza, l'energia dei fasci viene fissata in corrispondenza del massimo e si procede a misurare le sezioni d'urto al picco e un certo numero di osservabili per i vari canali e+ e- → F, ove lo stato finale F può essere, per esempio, F = e+ e- o μ+ μ- o τ+τ- (canali leptonici) oppure F = qq̄q (canali adronici), ove q è un quark di un dato tipo o sapore con massa mq 〈 mZ/2, ovvero tutti i sapori di quark tranne il top. Se aggiungiamo i canali invisibili di tipo F = νν̄, ove ν è un neutrino che non può essere osservato nei rivelatori, abbiamo i canali che, con i loro complementi radiativi (cioè gli stessi fermioni più un certo numero di fotoni o di gluoni), formano praticamente la totalità dei decadimenti della Z0. Al picco domina lo scambio della Z0, e la sezione d'urto σF nel canale F al picco è determinata dal rapporto di decadimento della Z0 nel canale F, ΓF/ΓZ. Un importante risultato che si ottiene dalle misure di σF è la misura, per differenza, della larghezza parziale invisibile Γinv in canali invisibili. Infatti la larghezza totale ΓZ è ottenuta dalla forma della curva di risonanza, mentre le larghezze nei canali visibili sono misurate dalle sezioni d'urto al picco. Nel MS la larghezza invisibile è dovuta ai canali F = νν̄, con neutrini e antineutrini nello stato finale. I neutrini conosciuti sono quelli associati ai leptoni carichi noti. Si hanno quindi i neutrini νe, νμ e ντ in corrispondenza ai leptoni e-, μ- e τ-. Dato che i rapporti Γνl/Γl tra le larghezze dei neutrini e dei corrispondenti leptoni si possono calcolare sotto ipotesi abbastanza generali e che le probabilità relative Γl/ΓZ dei canali leptonici si misurano direttamente, si può dire quale contributo ci si aspetta alla larghezza invisibile per ogni specie di neutrino. Quindi dal valore sperimentale della Γinv si può ottenere il numero dei tipi di neutrino che contribuiscono ai decadimenti della Z0. Il risultato che si trova (v. fig. 4) è Nν = 2,9841 ± 0,0083, in buon accordo con il numero di neutrini conosciuti, che è appunto Nν = 3. Questo risultato è importante perché lo spettro dei quarks e dei leptoni finora conosciuto è costituito da tre famiglie con cariche identiche e masse differenti, ciascuna costituita da un doppietto di leptoni e un doppietto di quarks. Poiché in ogni famiglia c'è un neutrino di massa nulla o molto piccola, se si fosse trovato Nν ≥ 4 si sarebbe concluso che esistono altre famiglie di fermioni fondamentali non ancora scoperte semplicemente perché costituite da quarks e da leptoni carichi di massa troppo elevata. Quindi, a seguito di questa misura sappiamo che la misteriosa replicazione delle famiglie di quarks e di leptoni è terminata.
La misura di ΓF permette di ricavare la somma (gfV)2 + (gfA)2 dei quadrati delle costanti di accoppiamento della Z0 al canale F = f̄ di tipo vettoriale e di tipo assiale. Inoltre si misura al picco anche un certo numero di asimmetrie che sono importanti per separare le parti vettoriali e assiali degli accoppiamenti della Z0, in particolare per ricavare il rapporto gfV/gfA. Per esempio, si misura l'asimmetria avanti-indietro del canale F, AFBF, definita come la differenza divisa per la somma degli eventi in cui il fermione si trova avanti e l'antifermione indietro o viceversa, dove avanti (indietro) significa nell'emisfero individuato dalla direzione dell'elettrone (del positrone) iniziale. Oppure si misura l'asimmetria tra lo spin in direzione dell'impulso o in quella opposta per il fermione finale, in particolare per il leptone τ, per il quale è possibile misurare la polarizzazione media dello spin. Un'altra macchina e+ e-, operante alla stessa energia del LEP e anch'essa dedicata allo studio della Z0, era la SLC. Questa macchina aveva una intensità molto inferiore a quella del LEP, cosicché con quest'ultima è stato possibile osservare complessivamente circa 16 milioni di Z0, e solo un numero dell'ordine di 100.000 con l'SLC. Ma un'importante caratteristica dell'acceleratore lineare SLC era costituita dal fatto che il fascio di elettroni era polarizzato longitudinalmente, cioè tutti gli elettroni del fascio avevano lo spin nella direzione della velocità (o nella direzione opposta), mentre nel LEP la polarizzazione longitudinale era in media nulla. La polarizzazione degli elettroni permette di misurare l'asimmetria destra-sinistra, ovvero la differenza divisa la somma delle sezioni d'urto totali per elettroni con lo spin in direzione della velocità oppure opposta. Tale asimmetria è la più facile da misurare, perché a essa contribuiscono tutti gli stati finali e non occorre compiere osservazioni dettagliate sullo stato finale. Quindi, anche con molti meno Z0 prodotti, grazie alla polarizzazione dei fasci, questa particolare misura ottenuta con il SLC è risultata competitiva con quelle ottenute usando il LEP. I risultati per le costanti di accoppiamento gV e gA dei leptoni carichi sono mostrati in fig. 5 insieme alle previsioni del MS in funzione della massa del top e del bosone di Higgs.
Tutte queste misure hanno permesso di determinare con grande precisione le proprietà fisiche della Z0. Il LEP ha permesso di misurare i parametri fondamentali con un alto livello di raffinatezza: per esempio, come abbiamo visto, la massa con la precisione di circa due parti su centomila e la vita media con quella dell'uno per mille. Ha poi consentito di misurare gli accoppiamenti della Z0 ai quarks e ai leptoni, realizzando con ciò una serie di verifiche di precisione delle previsioni del MS, con un'accuratezza di qualche per mille. Quindi il LEP ha consentito di dare al MS una solida base sperimentale. La precisione ottenuta negli esperimenti al LEP è così alta che si è potuto verificare l'effetto delle correzioni quantistiche alle previsioni della teoria. Tali correzioni sono anche sensibili alle masse delle particelle che non sono prodotte nelle reazioni studiate, perché troppo pesanti, ma che entrano come stadi intermedi nel calcolo teorico dei processi. Così, tramite il LEP si è riusciti a predire la massa del quark top prima della sua effettiva scoperta al Tevatron, il collider p-p̄ del FNAL (esperimenti CDF e D0). In effetti, dai dati elettrodeboli oggi si ottiene, assumendo che il MS sia corretto, una predizione della massa del top (e del W) in perfetto accordo con la loro misura diretta. Così pure dalle correzioni radiative ottenute attraverso il LEP è stato possibile fissare un limite superiore sulla massa del bosone di Higgs di circa 200 GeV (v. fig. 6), un risultato di grande importanza sia teorica, come vincolo imposto a ogni teoria alternativa alla rottura della simmetria elettrodebole, che pratica, per le prospettive di rivelare tale particella.
I risultati principali ottenuti tramite il LEP nella fase LEP2 di alta energia sono stati lo studio del processo e+ e- → W+W- e la misura della massa del W con una precisione dello 0,5 per mille, leggermente migliore di quella ottenuta al Tevatron. La misura di mW (il valore combinato è mW = 80,426 ± 0,034GeV/c2) permette un'ulteriore verifica di precisione del MS, perché tale massa può essere calcolata a partire da mZ, dalle masse dei quarks e dei leptoni e dalle costanti di accoppiamento, in funzione della massa del bosone di Higgs. Inoltre, dallo studio della sezione d'urto di produzione di coppie di W+W- (v. fig. 7) si ottiene una verifica degli accoppiamenti fra tre bosoni di gauge, ovvero dei vertici W+W-γ e W+W-Z0, in accordo con il MS. Infine, durante la fase LEP2 il programma di punta è stato la ricerca della particella di Higgs e di eventuali nuove particelle. Prima dell'entrata in funzione del LEP, nel 1989, della massa del bosone di Higgs si sapeva solo che doveva essere più grande di circa un GeV/c2: oggi sappiamo che deve essere maggiore di 113 GeV/c2. Grazie alla sperimentazione compiuta al LEP è stato quindi possibile, combinando il limite superiore ottenuto dai test di precisione con il limite inferiore dato dalla ricerca diretta, restringere i valori della massa del bosone di Higgs del MS in un piccolo intervallo tra 113 〈 mH ≾ 200 GeV/c2. Dal complesso dei test di precisione effettuati al LEP è risultato che effettivamente le varie interazioni della Z0 sono esattamente quelle prescritte dalla simmetria di gauge. Quindi, le interazioni sono perfettamente simmetriche, mentre le masse non riflettono affatto tale simmetria. Questo comportamento è tipico delle simmetrie spontaneamente rotte e del meccanismo di Higgs. Pertanto, gli esperimenti al LEP hanno dato una fortissima indicazione sperimentale che il meccanismo di Higgs è effettivamente operante, che la particella di Higgs ha i numeri quantici previsti (in particolare spin isotopico debole uguale a 1/2) e che deve essere non troppo pesante. Nelle ultime settimane di funzionamento, LEP, spinto all'energia massima possibile di oltre 206 GeV, ha prodotto un certo numero di eventi che indicano la presenza di una particella di Higgs con massa circa uguale a 115 GeV. Questo risultato ha prodotto una grande eccitazione in tutta la comunità della fisica delle particelle. Purtroppo il LEP non poteva raggiungere un'energia sufficiente per uno studio adeguato di questo segnale. Ma se questo risultato risulterà confermato in futuro, al Tevatrone o al LHC (esperimenti ATLAS e CMS), si avrà un ulteriore motivo di soddisfazione per i risultati che LEP ha permesso di ottenere.
Grandi progressi sono stati fatti negli ultimi anni nella verifica della QCD, e le misure ottenute tramite il LEP hanno avuto una grande importanza anche da questo punto di vista. Un test particolarmente significativo è costituito dalla misurazione in molti processi diversi della costante di accoppiamento efficace a una certa scala di momento trasferito αs(Q2) (si sceglie comunemente Q2 ~ mZ2) controllando se si ottengono valori compatibili entro gli errori. Nel 1989, quando il Tevatron ha pubblicato i primi risultati e sono entrati in funzione il LEP e lo SLC, la conoscenza di αs era piuttosto limitata: αs(mZ2) ≈ 0,11 ± 0,01. Il LEP ha permesso di misurare αs(mZ2) dai decadimenti della Z0, in una situazione sperimentale di grande precisione imposta dall'accuratezza necessaria per le verifiche del settore elettrodebole del MS. Inoltre, ha permesso di misurare la dipendenza da Q2 di αs(Q2) confrontando le misure relative alla Z0 con quelle dei decadimenti adronici del leptone τ, che permettono di ottenere direttamente αs(mτ2) (mτ ~ 1,777 GeV/c2), e con le misure di αs(Q2) ad alti Q2 realizzate durante la fase LEP2. I risultati mostrano chiaramente l'andamento decrescente logaritmico predetto dalla libertà asintotica (v. fig. 8). Il valore combinato attuale della costante di accoppiamento è, con una valutazione prudente dell'errore, αs(mZ2) ≈ 0,118 ± 0,003.
4. Oltre il MS.
Come abbiamo visto, il MS è stato sottoposto a verifiche molto precise in un insieme molto diversificato di esperimenti. Gli ultimi quindici anni di fisica degli acceleratori e+ - e-, p - p̄, e - p, presso le varie 'fabbriche' di sapori pesanti (per esempio le b-factories BELLE in Giappone e BABAR in California) e negli esperimenti a bersaglio fisso, hanno mostrato un accordo con il MS che va ben oltre tutte le aspettative. È vero che la particella di Higgs non è stata trovata e quindi che una parte importante della verifica del MS è ancora mancante, ma d'altra parte non è strano che la massa del bosone di Higgs del MS si trovi nel range 113 〈 mH ≾ 200GeV/c2 indicato dalle attuali conoscenze. Quello che è sorprendente è che non ci siano tracce di deviazioni dal MS al livello di precisione del per mille nei test di precisione presso il LEP e gli altri acceleratori. Infatti, esistono ragioni concettuali molto forti per aspettarsi delle deviazioni corrispondenti a qualche forma di nuova fisica a una scala di energia di qualche TeV. Oltre a questo tipo di motivazioni concettuali ci sono argomenti fenomenologici a sostegno di una fisica che vada oltre il MS. Vogliamo ora brevemente illustrare questo complesso di ragioni.
Una prima osservazione è che il MS non può essere considerato una teoria completa ed esatta delle interazioni fondamentali. Questo fatto emerge da molte considerazioni, ma innanzi tutto dal fatto che il MS non contiene la gravità quantistica, che diviene essenziale a energie dell'ordine di MPlc2 ~ 1018 - 1019GeV. D'altra parte, se si fa l'ipotesi che il MS sia una buona approssimazione fino a tali energie, una estrapolazione dei valori efficaci delle costanti di gauge di SU(3) (αs(Q2)), SU(2) e U(1), che, come abbiamo già discusso, nel caso della QCD variano logaritmicamente in funzione della scala di energia, mostra che le tre costanti tendono allo stesso valore a un'energia MGUc2 ~ 1015 - 1016GeV, non troppo lontana dalla soglia della gravità quantistica. Questo fatto è molto interessante di per sé, perché è alla base della possibilità di costruire delle teorie di Grande Unificazione (GU), in cui le tre interazioni di gauge del MS si riducono a una sola, basata su un gruppo di simmetria di gauge più grande, per esempio SU(5) oppure SO(10). Oltre a ciò, la prossimità di MGU e MPl rende plausibile un'ulteriore unificazione con la gravità quantistica, come è possibile nelle moderne teorie di stringa, cosicché la fisica attuale delle particelle non può ignorare il problema della fisica alle energie della gravità quantistica, perché l'unificazione degli accoppiamenti del MS conduce nelle vicinanze di tali enormi energie. Quindi il MS può al massimo essere una teoria approssimata valida alle basse energie, mentre una descrizione più fondamentale si applica alle energie dell'ordine di MGUc2 o MPlc2. In realtà è facile convincersi che il MS non ha una stabilità sufficiente per essere valido fino a energie così elevate ('problema della gerarchia') e che la vera teoria efficace di bassa energia, capace di spiegare i successi del MS e compatibile con l'idea della Grande Unificazione, implica la comparsa di nuovi effetti a energie dell'ordine di qualche TeV.
Il problema della gerarchia è il seguente. Poiché il MS è una teoria rinormalizzabile, le divergenze ultraviolette presenti in ogni teoria di campo realistica a livello delle correzioni quantistiche, regolarizzate mediante l'introduzione di un 'taglio' (cut-off) Λ, possono essere riassorbite in una ridefinizione ('rinormalizzazione') delle costanti di accoppiamento, delle masse e della normalizzazione delle funzioni d'onda, che comunque sono parametri liberi a livello della lagrangiana di partenza. Le divergenze ultraviolette derivano dalla regione degli alti momenti negli integrali che compaiono nei diagrammi di Feynman al di là dell'ordine più basso della teoria delle perturbazioni, ovvero i risultati dipendono fortemente dalle regioni di alte energie dove il MS potrebbe fallire. Il taglio Λ può essere considerato come una parametrizzazione della nostra ignoranza della fisica alle altissime energie. Una teoria rinormalizzabile riesce a essere predittiva comunque, perché gli effetti di Λ possono essere rinchiusi dentro la ridefinizione dei parametri della lagrangiana, che vengono poi fissati al valore fisico. Tuttavia, se Λ fosse molto grande, come sarebbe se assumessimo che il MS fosse valido fino a Λ ~ MGU o MPl, bisognerebbe domandarsi se la dipendenza dei parametri rinormalizzati da Λ appare ragionevole. Ora, nel MS, per la presenza di campi scalari fondamentali nel settore di Higgs della teoria, le masse dei W± , Z0 e del bosone di Higgs dipendono linearmente da Λ. Quindi, se il taglio è di un fattore 1013 - 1017 volte più grande di tali masse, questo enorme rapporto risulta del tutto incomprensibile. Per i fermioni il problema non si pone, in quanto la dipendenza da Λ è solo logaritmica.
Per risolvere il problema della gerarchia, che ha avuto e ha un ruolo centrale nella fisica delle particelle degli ultimi anni, sono state avanzate varie proposte, delle quali la più completamente formulata e predittiva è l'idea della supersimmetria approssimata. La supersimmetria è una simmetria che collega fermioni e bosoni ed è un ingrediente importante delle teorie della gravità, ivi compresa la teoria delle stringhe. Per ogni particella del MS, esistono dei corrispondenti partners supersimmetrici con gli stessi numeri quantici ma con spin differente di 1/2: ai bosoni di gauge di spin 1 corrispondono i gaugini, fermioni di spin 1/2, ai quarks e ai leptoni corrispondono degli scalari (spin 0), detti s-quarks o s-leptoni, ai bosoni di Higgs corrispondono degli higgsini di spin 1/2. Può sembrare a prima vista strano che finora nessun s-partner sia stato osservato, ma in realtà per tutte le particelle osservate la massa è proibita dalle simmetrie di gauge (e questo può spiegare la loro speciale leggerezza), mentre per i loro corrispondenti supersimmetrici la massa è permessa non appena la supersimmetria è rotta. In queste teorie, nel limite di simmetria, la dipendenza lineare dal taglio è sostituita da una dipendenza logaritmica. In presenza di una rottura della supersimmetria, necessaria dal punto di vista fenomenologico, le masse dei W±, Z0 e del bosone di Higgs diventano dell'ordine della separazione in massa dei multipletti supersimmetrici (moltiplicata per una costante di gauge). Quindi, per risolvere il problema della gerarchia occorre che gli s-partners siano vicini agli attuali limiti sperimentali con masse dell'ordine di 100-1.000 GeV.
Altre possibili soluzioni sono state ampiamente trattate negli ultimi anni. Una possibilità è di bandire gli scalari dalla lagrangiana fondamentale, visto che il problema nasce dal settore di Higgs. Se il bosone di Higgs è un aggregato di fermioni, si ha ugualmente il meccanismo di Higgs, ma il problema della gerarchia non si pone. Queste teorie, dette di tipo 'technicolor', presuppongono però l'esistenza di nuove interazioni forti molto più intense di quelle normali (di un fattore circa 103) per potere riprodurre la scala caratteristica delle masse elettrodeboli. In presenza di forze così forti è molto difficile evitare delle correzioni ben visibili nelle verifiche di precisione del MS, e quindi l'esito degli esperimenti al LEP ha di molto diminuito la credibilità dei modelli 'technicolor'. Ma modelli in cui un regime non perturbativo sia vicino alle energie finora esplorate e che - in qualche modo - risulti compatibile con la massa leggera del bosone di Higgs e con il successo dei test di precisione vengono tuttora proposti e studiati. Negli ultimi anni sono emerse nuove possibili soluzioni. Una classe molto ardita di teorie parte dall'osservazione che il valore così grande della massa di Planck si ottiene dal fatto che la gravità è molto meno intensa delle altre interazioni. Ma questa valutazione potrebbe essere modificata se esistessero ulteriori dimensioni spazio-temporali chiuse su se stesse ('compattificate') con un raggio di curvatura molto più grande di quello atteso dalle normali teorie di stringa (R ~ 10-33 cm). La gravità ci appare debole perché molte delle linee di forza sfuggono nelle altre dimensioni. Se, sfruttando queste dimensioni spazio-temporali nascoste, la scala delle stringhe fosse non dell'ordine di MPl ma dell'ordine del TeV non ci sarebbe più problema di gerarchia. Questa idea è molto interessante di per sé, intanto perché non si può escludere l'esistenza di deviazioni dalla legge di Newton a distanze submillimetriche e i tipi di modelli appena descritti forniscono ulteriori motivazioni per lo svolgimento delle difficili esperienze volte allo studio della gravità a tali distanze; inoltre questa idea ha fornito lo spunto a tutta una serie di studi sui possibili effetti che la presenza di dimensioni spazio-temporali ulteriori potrebbe avere negli esperimenti di fisica delle particelle fattibili nei prossimi anni, in particolare al LHC.
Di tutte queste proposte il modello supersimmetrico è quello più completo e predittivo. In effetti, il Modello Standard Supersimmetrico Minimale (MSSM) è un modello ben definito, rinormalizzabile e calcolabile che è compatibile con i dati delle verifiche di precisione del MS. Il MSSM, al contrario delle altre soluzioni proposte, si combina ottimamente con l'idea della Grande Unificazione. Infatti, innanzi tutto, in questa teoria si ha una calcolabilità perturbativa fino alle energie tipiche della Grande Unificazione, mentre invece nelle altre teorie poco oltre le energie del TeV si incontra un regime non perturbativo che è praticamente impossibile da trattare. Inoltre, un calcolo dell'evoluzione delle costanti di gauge tra la scala debole e MGU mostra che nel MSSM si ha una unificazione delle tre costanti di gauge in un solo punto che quantitativamente, dati i valori misurati di queste costanti alla scala debole, funziona molto meglio che nel MS. Questo è un indizio fenomenologico diretto in favore del modello supersimmetrico. Inoltre la supersimmetria permette di risolvere anche altri problemi delle GU. Nelle teorie unificate, quarks e leptoni si trovano nella stessa rappresentazione del gruppo unificato. Per esempio, in SU(5) l'antiquark d̄ in tre colori più un neutrino e un elettrone formano una rappresentazione a 5 componenti del gruppo. Questo spiega innanzi tutto la quantizzazione della carica (la carica del d̄ è 1/3 perché ci sono 3 colori), in quanto la somma delle cariche in ogni rappresentazione deve essere zero. Ma che quarks e leptoni stiano nella stessa rappresentazione comporta anche che i bosoni di gauge pesanti di SU(5), con massa ~ MGU, medino delle transizioni tra quarks e leptoni che violano il numero leptonico L e il numero barionico B. Queste transizioni inducono un'ampiezza di probabilità per il decadimento del protone, che infatti è una predizione caratteristica delle teorie di GU. Un importante aspetto positivo della supersimmetria è che il decadimento del protone è molto rallentato rispetto al caso delle teorie di GU non supersimmetriche e i canali preferiti di decadimento sono diversi. I limiti attuali sulla vita media del protone, dell'ordine di τp ≿ 1032 - 1033 s, ottenuti recentemente dalla collaborazione sperimentale SuperKamiokande in Giappone, escludono le teorie di GU senza supersimmetria ma sono ancora compatibili con il modello GU supersimmetrico.
Altre indicazioni fenomenologiche per una fisica oltre il MS vengono dalla cosmologia (la materia oscura, la bariogenesi, la costante cosmologica) e dagli esperimenti, in particolare dalle oscillazioni di neutrino. A partire dagli anni novanta si è avuto uno sviluppo impressionante delle misure quantitative in cosmologia. In particolare, sembra ormai chiaro che la grande maggioranza della materia nell'Universo non è visibile, non è barionica ed è per lo più 'fredda', ovvero non relativistica al momento del disaccoppiamento dall'equilibrio termico. Nel MS non c'è una particella sufficientemente stabile e con massa in un intervallo appropriato che possa essere associata alla materia oscura. Un ovvio candidato sarebbe il neutrino, se non fosse che questo costituisce semmai materia oscura 'calda', perché è ultrarelativistico al disaccoppiamento. Pertanto se ne deduce che i neutrini non possono avere massa al di sopra di qualche eV/c2 e che, in corrispondenza di questo limite, possono contribuire al più per una frazione modesta della materia oscura. È interessante che i modelli supersimmetrici forniscano invece un ottimo candidato per la materia oscura: il 'neutralino', più leggero. Si tratta di uno s-partner di spin 1/2 dei bosoni di gauge neutri (con possibili componenti di higgsino) che nel MSSM è stabile e ha una massa dell'ordine di 100 GeV/c2.
Le esperienze di oscillazioni di neutrino hanno raggiunto negli ultimi anni un livello convincente di evidenza per quanto riguarda i neutrini solari e i neutrini atmosferici. Dopo l'esperimento pionieristico di Ray Davis nella miniera di Homestake, South Dakota, che alla fine degli anni sessanta suggerì un deficit nel numero di neutrini solari che raggiungono la Terra (v. Davis e altri, 1968), un gran numero di esperimenti condotti negli Stati Uniti (da ultimo l'esperimento SNO), in Italia nel Laboratorio Nazionale del Gran Sasso (MACRO, GALLEX e GNO), in Russia (SAGE) e in Giappone (Kamiokande, Super-Kamiokande, K2K) hanno studiato i neutrini solari e i neutrini atmosferici. Nel caso dei neutrini solari l'evidenza è che i νe emessi dal Sole si trasformano in parte in altri tipi di neutrini (prevalentemente νμ e ντ). Nel caso dei neutrini atmosferici si tratta invece di νμ che si trasformano prevalentemente in ντ. Queste oscillazioni avvengono perchè lo stato iniziale, per esempio il νμ nel caso dei neutrini atmosferici, è una sovrapposizione di stati con masse diverse, i quali perciò acquistano una differente fase con la distanza. Quindi, a una distanza L lo stato νμ non è più ortogonale allo stato dei neutrini ντ e si ha una probabilità di oscillazione Pμτ = sin22θ23 sin2(Δmatm2L/4E) (in unità ℏ = c = 1), dove θ23 è l'angolo di mixing (che determina la sovrapposizione iniziale), Δmatm2 = m32 - m22 è la differenza tra le masse quadrate degli autostati di massa dei neutrini ed E è l'energia dei neutrini. Questi esperimenti mostrano quindi che le masse dei neutrini non sono uguali tra loro, in particolare almeno due di esse non sono nulle. Gli esperimenti mostrano che Δmatm2 ~ 3 • 10-3 eV2 e θ23 ~ 450. Per i neutrini solari si ha Δmsol2 ~ 10-4 eV2 e θ12 grande ma non massimale. Il terzo angolo di mixing nella matrice VP-NMS, θ13, è invece piccolo. Le misure sulle oscillazioni di neutrino non determinano la scala assoluta delle masse dei neutrini, ma solo Δm2. Tuttavia esistono dei limiti diretti sulle masse dei neutrini. Dalle recenti misure sul decadimento β del trizio si deduce un limite mνe ≤ 2,8 eV per la massa del neutrino che determina la massima energia dell'elettrone. Dai già menzionati limiti cosmologici sulla quantità di materia oscura calda si ottiene un limite per la somma delle masse dei neutrini (quasi) stabili Σ mν ≤ 5 eV. Combinando i risultati delle oscillazioni, che implicano delle differenze di massa molto piccole, e questi limiti superiori si ottiene che tutte le masse dei neutrini che partecipano alle oscillazioni debbono essere non nulle ma inferiori a 1-2 eV. Dunque la massa dei neutrini è enormemente inferiore alla massa dei quarks e dei leptoni carichi. La spiegazione di questa peculiarità è con tutta probabilità legata al fatto che i neutrini sono gli unici fermioni fondamentali con carica elettrica nulla. Se il numero leptonico L non è esattamente conservato (come non lo è nelle teorie di GU) non esiste nessun numero quantico conservato che distingua neutrini da antineutrini (particelle di Majorana). Si può allora dimostrare che la massa dei neutrini è inversamente proporzionale alla scala di energia M associata alle interazioni che violano la conservazione di L: mν = D2/M, dove mD è la 'massa di Dirac' dei neutrini, analoga a quella dei quarks e dei leptoni ('meccanismo dell'altalena' o see-saw mechanism). I dati delle oscillazioni di neutrino sono compatibili con valori di M molto grandi, non lontani da MGU. Dunque le oscillazioni di neutrino si rivelano essere una sorgente di informazioni sulla fisica alle energie delle teorie di GU. Vi è quindi grande interesse per la continuazione degli studi della fisica del neutrino e molte iniziative sperimentali sono in corso o in preparazione. Per esempio, gli esperimenti KamLAND, in corso in Giappone, e BOREXINO, in preparazione al Gran Sasso, si propongono di studiare con grande precisione le oscillazioni responsabili del deficit dei neutrini solari. Ancora, nel 2006 un fascio di neutrini sarà inviato dal CERN al Laboratorio del Gran Sasso e impiegato per lo studio delle oscillazioni (esperimenti OPERA e ICARUS) e un esperimento simile (MINOS) è in preparazione negli Stati Uniti e dovrebbe essere pronto nel 2004.
5. Conclusioni e prospettive.
Il più grande progetto sperimentale dei prossimi anni nel campo della fisica delle interazioni fondamentali è il LHC del CERN (collisioni p - p a 14 TeV). Questo acceleratore affronterà il problema centrale della fisica delle particelle, ossia la ricerca della particella di Higgs, per completare la verifica del MS, nonché la ricerca delle particelle supersimmetriche o comunque della fisica oltre il MS, che si pensa debba con tutta probabilità esistere nella regione di energia esplorata dal LHC. Questo progetto è stato dimensionato proprio per risolvere questi problemi e ci darà le risposte corrispondenti. Come già detto, il LHC entrerà in funzione nel 2007 e gli esperimenti dureranno per almeno un decennio. Un progetto complementare ulteriore che è in corso di discussione è quello di costruire un acceleratore lineare e+ e-, detto NLC (Next Linear Collider). Tale acceleratore, con energia totale di 500 - 800 GeV, dovrebbe essere un progetto mondiale da realizzare negli Stati Uniti, o in Germania al Laboratorio DESY di Amburgo (progetto TESLA), oppure in Giappone. Si noti che per le collisioni e+ e- tutta l'energia è disponibile per lo studio dei processi fondamentali, ovvero quelli che avvengono tra quarks, gluoni o leptoni (partoni). Invece in un collider adronico molta dell'energia è spesa in frammenti degli adroni e solo una frazione di ordine del 10° si ritrova nell'urto dei partoni. Quindi l'energia utile del NLC è inferiore a quella del LHC, ma non tanto quanto sembrerebbe a prima vista. Il vantaggio è che il NLC permette una fisica di precisione mentre il LHC è una macchina da esplorazione e scoperta. Altre direzioni promettenti di ricerca sperimentale sono la fisica del sapore, con macchine dedicate, le 'fabbriche' di mesoni con beauty, o con charm o di mesoni K (per esempio DAΦNE presso i Laboratori Nazionali di Frascati), lo studio del momento magnetico anomalo (un esperimento di questo tipo è in corso a Brookhaven) e quello dei decadimenti rari (per esempio le transizioni con cambiamento di sapore μ → eγ). Inoltre, grande sviluppo continuerà ad avere la fisica nei laboratori sotterranei, che comprende lo studio dei neutrini, del decadimento del protone e tutti quegli esperimenti che richiedono una drastica soppressione del fondo cosmico (per questo è utile collocarsi sotto centinaia di metri di roccia). Non c'è dubbio che nei prossimi venti anni molti problemi basilari della fisica delle interazioni fondamentali saranno chiariti da questo imponente programma sperimentale.
Bibliografia.
Altarelli, G., Adroni, in Enciclopedia delle scienze fisiche, vol. I, Roma: Istituto della Enciclopedia Italiana, 1992, pp. 52-62.
Altarelli, G., Interazioni deboli, in Enciclopedia delle scienze fisiche, vol. III, Roma: Istituto della Enciclopedia Italiana, 1993, pp. 238-249.
Altarelli, G., Z, particella, in Enciclopedia delle scienze fisiche, vol. VI, Roma: Istituto della Enciclopedia Italiana, 1995, pp. 605-609.
Barbieri, R., Grande unificazione (teorie di), in Enciclopedia delle scienze fisiche, vol. III, Roma: Istituto della Enciclopedia Italiana, 1993, pp. 59-65.
Cabibbo, N., Unitary symmetry and leptonic decays, in "Physical review letters", 1963, X, pp. 531-533.
Cheng, T.-P., Li, L.-F., Gauge theory of elementary particle physics, Oxford: Clarendon Press, 1984.
Close, F., Marten, C., Sutton, C., The particle odyssey. A journey to the heart of matter, Oxford: Oxford University Press, 2002.
Davis, R., Harmer, D. S., Hoffman, K., Search for neutrinos from the sun, in "Physical review letters", 1968, XX, pp. 1205-1209.
Fraser, G. (a cura di), The particle century, Bristol: The Institute of Physics, 1998.
Gatto, R., Quark, in Enciclopedia delle scienze fisiche, vol. IV, Roma: Istituto della Enciclopedia Italiana, 1994, pp. 633-637.
Glashow, S., Iliopoulos, J., Maiani, L., Weak interactions with lepton-hadron symmetry, in "Physical review D", 1970, II, 7, pp. 1285-1292.
Kobayashi, M., Maskawa, T., CP-violation in the renormalizable theory of weak interaction, in "Progress of theoretical physics", 1973, XLIX, pp. 652-657.
Leader, E., Predazzi, E., An introduction to gauge theories and modern particle physics, 2 voll., Cambridge: Cambridge University Press, 1996.
Maki, Z., Nakagawa, M., Sakata, S., Remarks on the unified model of elementary particles, in "Progress of theoretical physics", 1962, XXVIII, 5, pp. 870-880.
Martin, B. R., Shaw, G., Particle physics, New York: John Wiley & Sons, 1992, 19972.
Perkins, D. H., Introduction to high energy physics, New York: Addison Wesley, 20004.
Pokorski, S., Gauge field theories, Cambridge: Cambridge University Press, 20002.
Pontecorvo, B., Mesonium and anti-mesonium, in "Zhurnal eksperimental'noi i teoreticheskoi fiziki", 1957, XXXIII, pp. 549-551.
Rebbi, C., Cromodinamica quantistica, in Enciclopedia delle scienze fisiche, vol. II, Roma: Istituto della Enciclopedia Italiana, 1993, pp. 66-73.
Remiddi, E., Elettrodinamica quantistica, in Enciclopedia delle scienze fisiche, vol. II, Roma: Istituto della Enciclopedia Italiana, 1993, pp. 296-314.