Meccanica quantistica
La m. q. è considerata basilare tanto per la descrizione quanto per la comprensione dei fenomeni naturali. Originariamente nata per spiegare i fenomeni che avvengono su piccole scale, come, per es., la stabilità degli atomi e delle molecole e gli spettri discreti della luce, la m. q. ha acquisito il ruolo di teoria fondamentale ed è considerata basilare per la descrizione e per la comprensione dei fenomeni naturali. I suoi principi sono adottati nella fisica atomica e nucleare, nella fisica delle particelle elementari, in elettrodinamica quantistica, nella fisica della materia condensata eccetera. Essi si sono dimostrati compatibili con i principi della relatività ristretta e sono alla base della teoria quantistica dei campi relativistici, la struttura teorica sulla quale si fonda la comprensione delle interazioni fondamentali conosciute del mondo microscopico (interazioni debole, forte ed elettromagnetica) compendiata nel Modello Standard.
La sola interazione che non è ancora stato possibile integrare con la m. q. è quella gravitazionale: da un punto di vista puramente teorico, nonostante i grandi successi del Modello Standard, ci sono ancora notevoli difficoltà a costruire una teoria coerente della gravitazione quantistica. Le strutture della teoria dei campi quantizzati sembrano essere inadeguate alla quantizzazione della teoria di A. Einstein a causa delle insormontabili difficoltà matematiche strutturali che si manifestano producendo calcoli divergenti. Al fine di superare questi problemi, spesso si mette in discussione il concetto stesso di corpuscolo elementare in favore di strutture quantistiche estese, dette stringhe, che si evolvono in spazi pluridimensionali. Una teoria di questo tipo potrebbe essere compatibile con le osservazioni di cui si dispone, poiché le stringhe apparirebbero puntiformi a causa delle loro dimensioni piccolissime. Si spera di ottenere una teoria unificata di tutte le interazioni fondamentali della natura di cui il Modello Standard potrebbe essere un'ottima approssimazione per grandi distanze (o equivalentemente, per il principio di indeterminazione, per piccole energie). Le dimensioni oltre le quattro sono ripiegate su loro stesse con raggio di curvatura normalmente dello stesso ordine di grandezza delle dimensioni della stringa (tecnicamente si parla di compattificazione delle dimensioni aggiuntive).
Il panorama delle applicazioni della m. q. è vastissimo, andando dalle moderne tecnologie, per es. quelle connesse ai semiconduttori o ai laser, alla fisica atomica e molecolare, alla metrologia, ai fenomeni delle particelle elementari e alla fisica dell'Universo primordiale.
È vero che si tende a presentare la m. q. in forma quasi assiomatica tralasciando di discutere nel dettaglio le questioni interpretative della teoria, connesse essenzialmente con il problema della misura e della località, di frequente ritenute di pertinenza di altri settori di impostazione più filosofica. Anzi, mentre l'utilizzazione dei principi della teoria ha ottenuto un successo indiscutibile per numero di fenomeni spiegati e conseguentemente per il loro controllo, l'interpretazione da dare ad alcuni concetti della teoria è ancora discussa con molteplici proposte alternative tra loro e all'interpretazione ufficiale, detta della scuola di Copenhagen. Si riscontra quindi una separazione netta tra la formulazione di tipo assiomatico dei principi della teoria e la loro interpretazione.
In particolare, il principio della misura quantistica, vale a dire della riduzione del pacchetto d'onda e dell'utilizzazione dei principi della m. q. nel caso di sistemi macroscopici in interazione, è il più controverso. Mentre l'equazione di Schrödinger governa la propagazione temporale dell'ampiezza di probabilità che il sistema abbia uno certo stato tra quelli permessi, il postulato della misura, fissando la grandezza osservata al valore misurato, rompe il comportamento dell'evoluzione temporale. Le domande più usuali alle quali si cerca di rispondere sono, per es., come ciò possa avvenire, ovvero quale meccanismo di interazione tra sistema e apparato di misura possa soddisfare questo principio e se non si possa trovare un qualche fenomeno in contraddizione tra il principio e il mondo fisico.
Questo è uno dei motivi che possono spiegare perché molto spesso la m. q. è vista in modo troppo semplificato come un corpo di regole non contraddittorio tramite le quali è possibile predire con grande precisione i fenomeni microscopici e confrontare i risultati degli esperimenti con i calcoli. Ciò accade specialmente al di fuori dell'ambito della fisica, per es., nel campo emergente dell'informazione quantistica, nel quale si tende a insegnare la m. q. a un pubblico di formazione informatica come una metateoria, ossia un ambiente matematico adatto per la costruzione di teorie fisiche. Si arriva persino a formulare paragoni del tipo che la relazione tra la m. q. e una teoria fisica, come per fare un esempio, l'elettrodinamica quantistica, è analoga alla relazione tra il sistema operativo di un computer e uno specifico software applicativo (Nielsen, Chuang 2000).
Anche se per tali motivi c'è una certa tendenza alla schematizzazione della m. q., bisogna considerare che grazie all'elevato livello tecnologico raggiunto dalle tecniche di alto vuoto, elettronica e microelettronica, delle basse temperature ecc., è diventato sempre più possibile studiare realmente in laboratorio le proprietà più nascoste e quindi affascinanti della teoria. Infatti è possibile verificare sperimentalmente i noti esperimenti ideali (gedanken Experiment) tramite i quali sono stati discussi gli effetti fondamentali della fisica quantistica ai primordi di questa disciplina, all'inizio del 20° secolo. In tal modo si viene a creare un mutamento di prospettiva passando da una teoria i cui principi sono stati criticati talvolta anche dai padri fondatori, a una teoria i cui principi sono controllati sperimentalmente, che descrive fenomeni inconsueti ai quali l'uomo moderno si sta lentamente abituando.
Esperienze fondamentali 'classiche' sulle quali si basa la m. q. che mostrano le proprietà complementari della materia di onda di probabilità e corpuscolo, come l'interferenza al passaggio di particelle attraverso una doppia fenditura, sono state ripetute in condizioni sperimentali di grande controllo, con vari tipi di particelle e tecniche diverse. Si è misurata, per es., la figura di interferenza di un fascio di neutroni di bassissima intensità, proveniente da un reattore nucleare, incidente su una doppia fenditura. Le condizioni sperimentali possono essere fissate in modo tale da avere in media pochissimi conteggi (per es. uno ogni qualche secondo) per cui ci si trova in una situazione in cui, mentre un neutrone viene registrato dal contatore, il neutrone che sarà registrato dopo deve ancora decadere dal nucleo di uranio all'interno del reattore. La rilevazione è effettuata corpuscolo per corpuscolo e il numero di conteggi segue perfettamente le figure di interferenza a singolo corpuscolo ottenute in queste condizioni estreme chiarissime, con piccoli errori di misura, e confermano perfettamente le previsioni teoriche.
È importante notare che gli analoghi esperimenti realizzati con fotoni detti di interferenza a singolo fotone fanno parte del corredo sperimentale dello studente di fisica, in quanto possono essere effettuati in un laboratorio moderno di ottica grazie alla diffusione di rivelatori di fotoni con buon rendimento quantico e basso rumore, di costo moderato, usando come sorgente un normale laser elio-neon. Si acquisisce in tal modo una notevole familiarità sperimentale diretta con gli effetti quantistici già dai primi corsi universitari, ottenendo una conseguente riduzione della diffidenza verso la fisica del mondo microscopico.
Gli esperimenti moderni non solo confermano gli aspetti meno intuitivi previsti dalla teoria ma spesso aprono la strada a nuove applicazioni dei fenomeni della m. q. e a nuovi campi di ricerca sperimentale che potrebbero portare in breve tempo a importanti applicazioni tecnologiche. Basti pensare al grande sviluppo degli studi sulla crittografia quantistica, sugli elaboratori quantistici e sul fenomeno del teletrasporto quantistico. Questi sviluppi sono così rapidi che si parla sempre più spesso di teoria dell'informazione quantistica.
Gli studi sulla crittografia sono basati sulla possibilità che la teoria quantistica offre di realizzare canali di trasmissione delle informazioni completamente sicuri. L'idea di base è che mentre un atto di spionaggio su un canale che segue leggi classiche può passare inosservato poiché in fisica classica si possono effettuare più misure senza alterare le proprietà fisiche del sistema, in ambito quantistico ciò non è possibile. Infatti in un canale di trasmissione nel quale si scambiano segnali quantistici, per es. fotoni polarizzati, ogni tentativo di spiare il canale, cioè di effettuare una misura, causerà un'alterazione riconoscibile del segnale.
Un elaboratore quantistico sarà profondamente diverso dagli attuali elaboratori, in quanto non si tratterà solamente di ridurre mediante la tecnologia avanzata la dimensione delle porte logiche, da quella attuale (una frazione di μm) a quella di pochi atomi, ma implicherà un funzionamento concettualmente diverso. L'unità di informazione, il bit, con due stati distinti associati formalmente ai due valori logici, sarà sostituito dal bit quantistico o qubit, con proprietà molto diverse. Il qubit è relativo a un sistema fisico (per es. un atomo, stati di spin elettronico o nucleare o di polarizzazione della luce) con due stati distinti associati formalmente ai due valori logici. Inoltre, se si riuscirà a costruire elaboratori quantistici si otterrà una potenza di calcolo enormemente più grande di quella degli elaboratori attuali, in quanto il processo di elaborazione sarà ottenuto mediante l'evoluzione temporale di un sistema quantistico il quale racchiude in sé tutta l'informazione. In m. q., infatti, per il principio di sovrapposizione lo stato di un sistema è descritto dalla sovrapposizione coerente degli stati che formano la base, per cui anche se formato da pochi qubit, per es. l'equivalente di un registro di memoria di un elaboratore classico, potrà contenere un numero enorme di informazioni processate simultaneamente, essendo il processo di elaborazione l'evoluzione temporale dello stato quantistico del sistema. Si avrà quindi un elaboratore con una grande capacità di memoria associata a una grande potenza di calcolo.
Formalmente un qubit, seguendo le regole della m. q. per la descrizione dello stato di un sistema fisico, è rappresentato da un vettore o ket ✄ normalizzato di uno spazio di Hilbert a due dimensioni. Se, per mantenere la corrispondenza di un bit classico che può avere valore 0 o 1, indichiamo con ✄ e ✄ i ket ortonormali di base associati ai due livelli di un qualsiasi sistema fisico, si ha che, contrariamente a quanto succede per un bit classico, il qubit può esistere in una sovrapposizione di stati:
✄
con ✄, dove α e β sono due numeri complessi il cui modulo quadrato è la probabilità di avere il qubit rispettivamente nello stato ✄ o ✄.
Il fenomeno che più si discosta dalla fisica classica è sicuramente quello dell'entanglement (traduzione inglese del termine tedesco Verschränkung, proposto da E. Schrödinger nel 1935), parola che indica un legame di natura fondamentale che si mantiene anche su distanze macroscopiche tra i costituenti di un sistema quantistico opportunamente preparato, perché implicito nel concetto di funzione d'onda del sistema. I moderni esperimenti di laboratorio, specialmente di ottica quantistica, hanno mostrato inequivocabilmente la realtà del fenomeno, che è alla base di importanti indagini sia teoriche sia applicative. Questo fenomeno, ormai non solo accettato ma utilizzato con successo nelle applicazioni più avanzate, fu molto discusso agli albori della m. q. per l'innaturalezza delle sue conseguenze, tra cui l'apparente contraddizione con il principio di causalità relativistico. Furono ideati esperimenti concettuali che ebbero una grande importanza nel dibattito scientifico dell'epoca, come il noto paradosso EPR (dalle iniziali di Einstein, B. Podolsky e N. Rosen), del 1935, allo scopo di criticare i fondamenti della m. q. in base a una sua presunta incompletezza.
Il punto di vista adottato in questi tentativi di modificare la m. q. è basato sull'idea che l'aspetto probabilistico della fisica atomica sia causato da una descrizione poco accurata dei fenomeni. Si deve pensare a una relazione simile a quella esistente tra la meccanica classica, che è una teoria deterministica, e la meccanica statistica classica, che non lo è. La meccanica statistica rinuncia a descrivere con precisione il moto di tutte le particelle, pertanto alcune variabili che si riferiscono alle particelle singole diventano nascoste; analogamente, la critica ai fondamenti della m. q. postula l'esistenza di variabili nascoste non presenti nella teoria, che quindi la rendono incompleta. Nel 1964 J.S. Bell comprese che il problema poteva essere deciso per mezzo di test sperimentali, poiché è possibile misurare funzioni di correlazione opportunamente scelte per dare un risultato diverso se calcolate con la m. q. o con la tecnica delle variabili nascoste. Ormai c'è un numero molto grande di risultati sperimentali che confermano pienamente la m. q.; sono da ricordare gli esperimenti di A. Aspect, J. Dalibard e G. Roger effettuati tra il 1981 e il 1982, che per la chiarezza dei risultati fugarono ogni dubbio al riguardo. È quindi necessario accettare anche gli aspetti della m. q. più in contrasto con il senso comune che la teoria delle variabili nascoste voleva smussare. Gli esperimenti moderni che realizzano in laboratorio le situazioni paradossali utilizzate nel passato per criticare la teoria mostrano la realtà dell'entanglement, che quindi è ormai accettato come una manifestazione poco intuitiva, alla luce delle esperienze alle quali siamo comunemente abituati, della notevole carica innovativa della fisica dei quanti.
Anche se la terminologia sembra essere presa in prestito dalla fantascienza, la possibilità di sfruttare l'entanglement di un sistema quantistico è la chiave per la realizzazione del teletrasporto di informazioni, ossia la ricostruzione di informazioni contenute in un sistema quantistico in base a misure effettuate su una parte del sistema.
L'entanglement è un fenomeno che si può manifestare con due o più qubit, come nel seguente esempio di stati chiamati da Bell di entanglement massimo:
✄.
In questo caso, la misura del valore del primo qubit determina anche il valore del secondo qubit qualunque sia la situazione fisica del sistema rappresentato. Per fissare le idee e per rifarsi a una delle formulazioni dell'esperimento di Einstein, Podolsky e Rosen, si assume che lo stato di un sistema sia uno stato entangled di spin totale S=0 e componente totale di spin lungo un asse, convenzionalmente l'asse z, Sz=0. Inoltre, si suppone che il sistema sia formato da due particelle di spin ℏ/2 che si allontanano velocemente l'una dall'altra. In questa situazione se si misura la proiezione dello spin della prima particella e si trova, per es., il valore ℏ/2 si saprà anche con certezza che l'altra avrà proiezione di spin pari a −ℏ/2. Ciò è vero anche se all'istante della misurazione le due particelle sono a distanze enormi l'una dall'altra. La situazione paradossale emerge quando si interpreta l'esperimento, come fecero Einstein, Podolsky e Rosen, utilizzando postulati di realismo e località dettati dal senso comune ma estranei ai principi della meccanica quantistica. Nascono così problemi di località della teoria, come se ci fosse un'azione a distanza incompatibile con i principi della relatività ristretta di propagazione con velocità finita dei segnali (o delle informazioni), o di incompletezza della m. q., specialmente riguardo al concetto di misura. Sono proprio questi stati che vengono utilizzati per ottenere gli effetti più interessanti. In particolare, con l'avvento dei metodi dell'ottica quantistica non lineare è possibile creare stati entangled piuttosto facilmente utilizzando l'effetto non lineare di parametric down conversion (conversione parametrica in cui il fotone entrante nel cristallo produce in uscita due fotoni in modo che nel processo si conservi l'energia e l'impulso, come se il cristallo non intervenisse affatto), che avviene quando un intenso fascio laser nell'ultravioletto interagisce opportunamente in un cristallo non lineare. Emergono dal cristallo due fotoni entangled in energia e impulso e con polarizzazioni fissate, si provi a supporre in direzioni ortogonali (parametric down conversion di secondo tipo).
Il teletrasporto è stato ottenuto proprio utilizzando stati entangled: il qubit che si trovava nello stato quantico ✄ nella posizione A viene esattamente replicato nella posizione di arrivo B. La procedura di teletrasporto richiede un protocollo ben preciso (proposto nel 1993 dal gruppo di ricerca di C.H. Bennett), basato sulla presenza di un sistema di due qubit entangled spazialmente separati, uno in una posizione A (osservatore, per es., di nome Alice), e uno nel punto di arrivo B (osservatore Bob), indicati rispettivamente con ✄ e ✄. Alice effettua una misura congiunta su ✄ e ✄ utilizzando una base di Bell: la misura di Alice, secondo le regole della m. q., fa collassare simultaneamente lo stato entangled di Bob ✄ in un ben definito stato quantico. Inoltre Alice trasmette l'informazione ottenuta dalla sua misura a Bob tramite un canale di trasmissione classico (quindi rispettando la causalità) in modo tale che Bob sia in grado di effettuare l'opportuna modifica su ✄ (trasformazione unitaria) che lo trasforma in ✄. Si noti che non si ha mai nel sistema la presenza simultanea di due stati ✄ (lo stato resta inoltre ignoto), perciò con la procedura descritta non si viola un teorema molto importante che vieta la clonazione quantistica (quantum no cloning theorem), enunciato nel 1982 da W.K. Wootters e W.H. Zurek.
Un esperimento di teletrasporto che ha avuto grande risonanza mediatica è stato effettuato nel 2003 dal gruppo diretto da N. Gisin: si è trattato di un teletrasporto su grande distanza (circa 2 km in totale) tramite fibre ottiche tra due laboratori situati in due luoghi distanti 55 metri.
Un problema molto dibattuto riguarda l'inevitabile fenomeno di decoerenza di un sistema quantistico generato da fenomeni di interazione della funzione d'onda del sistema con il resto del mondo (per es., il contenitore del sistema), che in queste applicazioni causa una degradazione delle informazioni che può trasformarsi in tempi molto brevi in errori di calcolo. Questo fenomeno potrebbe essere controllato sfruttando la grande correlazione esistente tra le componenti di un sistema quantistico, ovvero proprio il fenomeno dell'entanglement, che può, in linea puramente teorica, essere utilizzato per la ricostruzione delle informazioni attraverso misure che vengono effettuate su una singola parte del sistema.
Sono inoltre di grande importanza per la fisica quantistica i notevoli risultati sulla condensazione di Bose-Einstein di atomi ultrafreddi, ottenuti a partire dal 2001 con tecniche di raffreddamento e intrappolamento che utilizzano una tecnologia mista messa a punto mediante gli sforzi di molti ricercatori in vari anni, basata sull'utilizzo di opportuni campi magnetici, a radiofrequenza e fasci laser. Si realizzano in tal modo le condizioni estreme di bassa temperatura dell'ordine del centinaio di nK, con densità di 1014÷1015 atomi/cm3; in particolare gli alcalini (sodio, rubidio ecc.) e anche l'idrogeno, permettono a un numero macroscopico di atomi (∼108) di transire nella fase di condensato di Bose-Einstein in cui condividono la stessa funzione d'onda. Si sono avute, per es., notevoli dimostrazioni dell'interferenza tra le funzioni d'onda che descrivono ciascuna un numero macroscopico di atomi di due insiemi di condensati. Questi studi, oltre a confermare i principi della m. q. su un numero di atomi di grandezza macroscopica, hanno dato il via a importanti ricerche per la miniaturizzazione degli apparati, che potranno portare alla realizzazione industriale di microchip che intrappolano il condensato. Negli apparati allo studio, i microchip a condensato di bosoni sarebbero utilizzati come sensori di nuova generazione per la misurazione, per es., di rotazioni, di gravità e di variazioni di gravità ambientale, e in ogni altro campo in cui si potrà sfruttare l'interferometria atomica. Si studia anche la possibilità di impiegare questi apparati come componenti di un elaboratore in modo analogo a come sono utilizzati i chip microelettronici usuali.
Le tecniche di confinamento magnetico che sono state messe a punto con grande difficoltà per la realizzazione del condensato su volumi macroscopici e che richiedono elettromagneti alimentati con grosse potenze elettriche, diventano molto più economiche quando si tratta di avere il condensato confinato a un centinaio di micron dalla superficie di un piccolo chip. In tal caso infatti la potenza elettrica richiesta è modesta e di conseguenza completamente compatibile con un'alimentazione portatile da batteria. Inoltre i laser usati per il raffreddamento possono essere simili ai minuscoli laser a diodo dei lettori di CD-ROM. Naturalmente le dimensioni ridotte comportano anche problemi nuovi, come quelli causati dalla vicinanza della superficie del chip a temperatura ambiente dal condensato o quelli che sono connessi alla realizzazione della trappola magnetoottica per il raffreddamento pilotato da più fasci laser che si incrociano. Questi e altri problemi sono in via di soluzione ed esistono prototipi di microchip funzionanti.
Bibl.: G. Auletta, Foundations and interpretation of quantum mechanics, Singapore-London 2000; I. Duck, E.C.G. Sudarshan, 100 years of Planck's quantum, Singapore 2000; M.A. Nielsen, I.L. Chuang, Quantum computation and quantum information, Cambridge 2000; A.D. Aczel, Entanglement: the greatest mystery in physics, New York 2002 (trad. it. Milano 2004); R.A. Bertlmann, A.P. Zeilinger, Quantum [un]speakables, Berlin-London 2002; L. Pitaevskii, S. Stringari, Bose-Einstein condensation, Oxford-New York 2003.