Sistemi complessi, fisica dei
Sommario: 1. Che cos'è un sistema complesso. 2. Il prototipo di un sistema complesso. 3. I sistemi amorfi. 4. I vetri di spin: a) Considerazioni generali. b) I vetri di spin reali. c) Un modello microscopico. d) Un modello risolubile. 5. L'approssimazione di campo medio per i vetri di spin: a) Formulazione generale. b) Il metodo delle repliche. c) Conseguenze fisiche della rottura spontanea della simmetria delle repliche. d) Problemi aperti. 6. Dinamica dei sistemi complessi. 7. Altri sistemi complessi. a) Le interfacce. b) Sistemi biologici e reti neuronali. □ Bibliografia.
1. Che cos'è un sistema complesso
Lo studio dei sistemi complessi è un campo nuovo, che si caratterizza, fra l'altro, per la sua natura interdisciplinare: basti pensare alle connessioni con la biologia, l'informatica, la teoria dei sistemi e l'ecologia. Lo stesso termine ‛complesso' sembra scivolare tra le mani di chi cerchi di darne una definizione precisa: a volte viene usato nel senso di ‛complicato', cioè composto da molti elementi (una centrale nucleare è un sistema complesso, in quanto composto da migliaia di pezzi differenti); altre volte la sua connotazione è piuttosto quella di ‛imprevedibile' (l'atmosfera è un sistema complesso, in quanto non può essere oggetto di previsioni a lunga scadenza). Può addirittura accadere che in un congresso sui sistemi complessi ciascuno degli oratori usi la parola ‛complesso' in un'accezione differente (v. Livi e altri, 1986 e 1988; v. Peliti e Vulpiani, 1988; v. Bangone e altri, 1991). A parte i problemi di definizione, le vere difficoltà nascono quando, una volta definito complesso un dato sistema, si considera tale affermazione come un punto di partenza per ottenere risultati positivi, e non un punto di arrivo, come a dire che non esiste più alcuna possibilità di predizione.
In questo articolo non verrà affrontata la teoria della complessità in generale: ci si limiterà a studiare il ruolo dei sistemi complessi nella fisica moderna. Dal punto di vista di un fisico, l'obiettivo da raggiungere consiste nel trovare le leggi, dette ‛fenomenologiche', che regolano il comportamento globale di tali sistemi, e che non sono facilmente deducibili dall'analisi delle leggi che controllano ciascuno dei singoli costituenti. Facciamo un esempio: il comportamento dei singoli neuroni è probabilmente ben compreso, ma non ci è affatto chiaro perché 10 miliardi di neuroni, collegati da centomila miliardi di sinapsi, formino un cervello che pensa. In certi contesti la comparsa di comportamenti collettivi è un fenomeno ben studiato dalla fisica: la cooperazione di molti atomi e molecole è responsabile delle transizioni di fase (tipo liquido-solido o liquido-gas).
Quando un sistema presenta più di una fase, possiamo descriverlo dal punto di vista macroscopico specificando in quale fase esso si trovi (per esempio solida, gassosa o liquida). Normalmente nei sistemi fisici, a una data temperatura e a una data pressione, il numero delle fasi è piccolo: l'acqua può stare in uno, due o al massimo tre stati di aggregazione, se si considera anche il punto triplo dove solido, liquido e gas coesistono. La descrizione macroscopica è assai semplice e può essere fatta con un linguaggio molto povero. Al contrario, se esaminiamo un sistema biologico, che possiamo considerare come il prototipo di un sistema complesso, la sua descrizione macroscopica può essere molto varia e richiedere un linguaggio con un vocabolario molto ricco (un animale può correre, mangiare, dormire, saltare, ecc.). La varietà delle descrizioni macroscopiche può essere presa come indicatore di complessità. Una proprietà fondamentale dei sistemi complessi è quindi la possibilità di essere descritti sia a livello microscopico, sia a un livello più alto in cui bisogna usare categorie e concetti diversi.
Da questo punto di vista tutti i sistemi fisici tradizionali sono semplici e apparentemente la complessità è esclusa dal mondo della fisica. In questi ultimi anni la situazione è cambiata: sono stati trovati molti sistemi caratterizzati da aggregazioni molecolari disordinate, per i quali la descrizione macroscopica è molto ricca. Ne è un esempio un eteropolimero, ovvero un polimero composto da una sequenza di molecole differenti. Le proteine, il DNA e l'RNA sono eteropolimeri.
A basse temperature gli eteropolimeri si ripiegano. A volte accade che un dato eteropolimero si ripieghi in un unico modo. Se sono possibili diversi ripiegamenti, possiamo considerare eteropolimeri ripiegati in forme differenti come appartenenti a fasi (o stati) differenti. In questo caso siamo in presenza di un sistema complesso (v. Iben e altri, 1989; v. Shaknovich e Gutin, 1989; v. Iori e altri, 1991) e per descriverlo dobbiamo specificare, oltre ai soliti parametri (pressione, temperatura), in quale tra i diversi modi possibili l'eteropolimero è ripiegato.
Altri sistemi fisici che hanno proprietà simili, come i vetri di spin (v. cap. 4), sono stati studiati attentamente e la struttura delle differenti fasi è nota in dettaglio. Questi risultati, che mostrano l'esistenza di sistemi fisici relativamente semplici con una descrizione macroscopica complessa, permettono di incominciare a costruire una teoria fisica della complessità. La maggior parte di questi sistemi ha un comportamento ‛caotico' molto interessante: un piccolo cambiamento nella forma delle leggi che ne regolano il movimento ne cambia completamente il comportamento macroscopico. Questo fenomeno è ben noto in biologia: la sostituzione di un singolo amminoacido in una proteina può alterarne la funzionalità, una singola mutazione in un essere vivente può portare alla comparsa di una nuova specie o alla morte.
Dato che un piccolo cambiamento può influenzare così profondamente il comportamento macroscopico del sistema e che questo effetto diventa sempre più rilevante con l'aumentare del numero degli elementi che lo compongono, è praticamente impossibile fare previsioni sul comportamento macroscopico del sistema, in quanto i risultati dipendono da un numero enorme di dettagli microscopici. Questo fenomeno è ben noto a tutti coloro che hanno provato a calcolare (molto spesso senza grande successo) il modo in cui le proteine si ripiegano, a partire dalla loro composizione chimica.
Difficoltà simili non sono senza precedenti nella fisica. Infatti, l'osservazione che per un dato sistema la traiettoria attuale è estremamente sensibile alle condizioni iniziali (si pensi a una palla da biliardo) esclude la possibilità di effettuarne il calcolo per tempi lunghi, anche nel caso di un numero piccolo di particelle. La giustificazione dei metodi della meccanica statistica è strettamente legata a questo fenomeno. L'imprevedibilità della traiettoria in senso deterministico fa sì che si possano ottenere solo predizioni statistiche per il comportamento del sistema. Già nel secolo scorso Boltzmann suggerì di rinunciare a studiare il moto del sistema per condizioni iniziali date e di concentrare l'attenzione sulla sua evoluzione a partire da condizioni iniziali generiche.
Nello stesso spirito possiamo rinunciare a calcolare quali siano le descrizioni macroscopiche di un particolare sistema complesso (v. Mézard e altri, 1987; v. Parisi, 1992) e allo stesso tempo guadagnare la possibilità di ottenere predizioni statistiche sul tipo di comportamento. Questo punto di vista è diverso da quello usuale della meccanica statistica. Tradizionalmente, il sistema ha a sua disposizione un solo stato macroscopico e il formalismo statistico viene utilizzato per calcolare la probabilità di ciascuna delle differenti realizzazioni microscopiche di questo stato. Al contrario, qui la descrizione macroscopica è molto ricca e la meccanica statistica può essere utilizzata per calcolare la probabilità che un sistema generico (appartenente a una data classe) abbia un dato numero di stati differenti e le relazioni esistenti tra questi stati. Possiamo anche studiare altre quantità, come per esempio il tempo medio che il sistema passa in uno stato prima di saltare in un altro.
Uno dei risultati più notevoli della teoria è che in molti casi una scelta generica (e quindi casuale) del sistema implica l'esistenza di un gran numero di stati. Scegliendo a caso le leggi otteniamo automaticamente un comportamento macroscopico molto ricco: non abbiamo bisogno di scegliere accuratamente i parametri di controllo per aver molti stati, in quanto questa proprietà è già presente nel caso generico. Possiamo quindi dire che la scelta casuale delle leggi del moto genera la complessità.
Molto spesso lo studio dei sistemi complessi è stato portato avanti sia analiticamente, sia effettuando simulazioni su calcolatore; i vantaggi dei due approcci si combinano sinergicamente, poiché i calcolatori permettono di effettuare simulazioni di sistemi di complessità crescente, in maniera da estrarre leggi quantitative e qualitative da sistemi di complessità moderata, prima di cimentarsi con sistemi veramente complessi. L'analisi in parallelo dei risultati analitici ottenuti su sistemi più semplici e delle simulazioni numeriche di sistemi di complessità intermedia sembra essere molto efficace e ha permesso di compiere notevoli progressi.
Una comprensione profonda del comportamento dei sistemi complessi sarebbe estremamente importante. In questi ultimi anni l'attenzione si è concentrata su sistemi composti da un gran numero di elementi di tipo diverso, che interagiscono fra loro secondo leggi più o meno complicate, in cui sono presenti molti circuiti di controreazione che stabilizzano il comportamento collettivo. In questi casi, il punto di vista riduzionista tradizionale sembrerebbe non portare da nessuna parte; in pratica, non è possibile ricostruire il comportamento collettivo del sistema a partire dalla sua struttura microscopica, in quanto una piccola variazione delle leggi microscopiche porta a un grande cambiamento al livello macroscopico.
La teoria dei sistemi complessi, che si cerca di costruire, parte sempre dal comportamento dei singoli costituenti, come in un approccio riduzionista, ma con in più l'idea che i dettagli minuti delle interazioni tra i componenti siano irrilevanti e che le proprietà statistiche del comportamento collettivo non cambino se si variano di poco le leggi microscopiche. Non si cerca quindi di predire esattamente il comportamento collettivo del sistema, ma ci si limita a calcolare le probabilità delle possibili alternative.
L'ideale sarebbe riuscire a classificare i tipi di comportamenti collettivi e mostrare come al cambiare delle componenti un sistema rientri in questa classificazione (v. Rammal e altri, 1986; v. Parisi, 1992). In altri termini, i comportamenti collettivi dovrebbero essere strutturalmente stabili, nel senso di Thom (v., 1972), e quindi suscettibili di classificazione. Si tratta di un cammino molto lungo che è stato appena incominciato.
2. Il prototipo di un sistema complesso
Il più semplice esempio di sistema complesso è dato da una singola particella che può muoversi interagendo con un potenziale con molti massimi e minimi. Consideriamo, per esempio, il caso di una particella immersa in un fluido viscoso che si muove in una dimensione subendo l'effetto della forza generata dai potenziali disegnati nella fig. 1. L'equazione del moto della particella è nel limite di alta viscosità, trascurando l'inerzia,
dove la forza F (x) è proporzionale al gradiente del potenziale (F (x) = – C dV/dx) e la costante C è inversamente proporzionale alla viscosità. L'evoluzione temporale è tale da portare la particella nei minimi del potenziale.
In presenza di un solo minimo la particella, lasciata a se stessa, raggiungerà, in tempi più o meno lunghi, il minimo (v. fig. 1A). Nel caso di due minimi (v. fig. 1B), la particella, dopo un tempo lungo, sarà vicina a uno dei due minimi, ma la scelta del minimo dipenderà dalle condizioni iniziali; con un potenziale con tanti minimi (v. fig. 1C), la particella andrà vicino a uno di questi minimi. Per descrivere lo stato della particella a tempi lunghi dobbiamo specificare vicino a quale minimo (v. fig. 1D) essa si trovi.
Si può arricchire il modello supponendo che la particella sia molto piccola, per esempio visibile all'ultramicroscopio, e che quindi, come nel caso del moto browniano, risenta dell'agitazione termica delle molecole. Per descrivere questa situazione si deve aggiungere un termine casuale alle equazioni del moto e scrivere l'equazione di Langevin,
dove η(t) è una forza fluttuante al variare del tempo (tecnicamente un rumore bianco) con varianza proporzionale alla temperatura; più precisamente abbiamo che formula,
dove la barra indica la media sul rumore. La presenza del rumore permette alla particella di risalire il potenziale e di passare da un minimo a un altro. Questo processo può essere anche estremamente lento, in quanto il tempo necessario per passare spontaneamente da un minimo a un altro è esponenzialmente grande: a basse temperature è dato da
exp (βΔV), (3)
dove β = 1/kT (k essendo la costante di Boltzmann e T la temperatura assoluta) e ΔV è la barriera di potenziale da attraversare. Se la temperatura è sufficientemente bassa (β è quindi elevato) e al tempo zero la nostra particella parte da un punto scelto casualmente, possiamo distinguere tre fasi nella sua dinamica: 1) la particella si muove verso il minimo locale più vicino, come nel caso a temperatura zero; 2) la particella salta da un minimo locale a un altro, muovendosi in media verso minimi locali con energia sempre minore; 3) la particella ha fatto un gran numero di salti e ha raggiunto il minimo assoluto del potenziale. In quest'ultima fase, la particella frequenta ciascuno dei minimi locali con una probabilità proporzionale a exp (– βV (x)).
Se la differenza di energia tra il minimo assoluto e i minimi locali è elevata, la particella starà quasi sempre vicino al minimo assoluto; se al contrario ci sono minimi locali con energia paragonabile a quella del minimo assoluto, questi minimi verranno frequentati con una probabilità elevata. In quest'ultimo caso i vari minimi locali corrispondono ai vari stati di equilibrio del sistema.
La complessità della forma del potenziale si riflette quindi nella complessità del comportamento del sistema. Nel caso di una singola particella, un potenziale con molti minimi e massimi può essere artificioso. Consideriamo invece un sistema formato da molte particelle che interagiscono fra loro a coppie: il potenziale totale dipende dalla somma dei potenziali delle singole coppie,
Le variabili xi, essendo i = 1, ..., N, sono le coordinate delle N particelle e Vi, k (xi – xk) è il potenziale tra l'i-esima e la k-esima particella.
Si può dimostrare che in molti casi il potenziale globale ν ha moltissimi minimi per N grande (a volte il loro numero diverge esponenzialmente con N), anche se i singoli potenziali Vi, k(x) hanno un solo minimo. La complessità del sistema nasce naturalmente dall'interazione tra molti sistemi semplici.
3. I sistemi amorfi
Un sistema formato da atomi di una o più specie chimiche può trovarsi in uno stato solido, liquido o gassoso. Nel caso dello stato solido, dobbiamo distinguere ancora due possibilità: il solido regolare e il solido amorfo. Se si tratta di un solido regolare, gli atomi formano un cristallo e sono localizzati attorno a posizioni fisse del reticolo cristallino. Nel caso in cui sia costituito da due o più specie chimiche, un cristallo regolare si può formare solo quando queste sono in precise proporzioni.
L'amorfo può essere considerato come un liquido congelato (v. Balian e altri, 1979): gli atomi sono in posizioni disordinate, come in un liquido, ma non possono allontanarsi dalla posizione che hanno assunto al momento della formazione dell'amorfo, in quanto la maggiore densità (di regola) rispetto a quella di un liquido e la minore agitazione termica impediscono il movimento. Gli esempi più comuni di materiali amorfi sono il vetro, la cera e, più in generale, le leghe in cui i diversi elementi sono disposti microscopicamente in maniera casuale.
A volte gli amorfi non sono stati stabili, ma metastabili. Se si aspetta un tempo sufficientemente lungo (per esempio dell'ordine dell'età dell'universo), le rarissime fluttuazioni termiche, che sono in grado di spostare gli atomi, riconducono il sistema in uno stato regolare. La distinzione tra stati amorfi stabili e metastabili è importante per comprendere la dinamica della formazione dei sistemi amorfi, ma è irrilevante per quanto concerne la descrizione della fase amorfa a bassa temperatura su scale di tempi paragonabili a quelli della vita umana.
Possiamo quindi ritenere a tutti gli effetti che le posizioni di equilibrio degli atomi di un sistema amorfo siano congelate e che gli atomi compiano solo piccole oscillazioni rispetto alla posizione d'equilibrio. La forma di queste oscillazioni dipende dal modo in cui gli atomi si sono posizionati al momento del loro congelamento. Se noi escludiamo la possibilità di riscaldare di nuovo il sistema e consideriamo come gradi di libertà solo le piccole oscillazioni, le leggi che le governano (in particolare l'espressione dell'energia delle piccole oscillazioni) dipendono dal modo casuale in cui gli atomi si sono disposti al momento della formazione dell'amorfo.
Le piccole oscillazioni intorno alla posizione d'equilibrio formano un sistema intrinsecamente disordinato, in cui le leggi stesse del moto sono scelte in maniera casuale. Nel caso degli amorfi, si tratta di un fenomeno generale. Come abbiamo visto, gli atomi si dispongono casualmente quando l'amorfo è ottenuto raffreddando il liquido. Una volta che l'amorfo si è formato, le componenti del sistema che non sono congelate sono soggette a forze (per esempio le oscillazioni degli atomi e le interazioni degli elettroni, nel caso delle leghe metalliche o dei semiconduttori) la cui espressione matematica è scelta in maniera casuale tra le tante possibili.
Nello studio dei sistemi intrinsecamente disordinati è necessario capire quali sono le proprietà del sistema che dipendono dalla sua realizzazione fisica e quali sono le proprietà che, nel caso di sistemi macroscopici, non dipendono da tale realizzazione. Per esempio, consideriamo due campioni di vetro con la stessa composizione chimica: anche se procediamo alla loro preparazione utilizzando lo stesso protocollo, le posizioni dei singoli atomi risultano differenti, ma ci aspettiamo (e l'esperimento lo conferma) che la conducibilità termica, come altre proprietà fisiche, siano le stesse per i due campioni.
La conducibilità termica dei due campioni è localmente differente e dipende dalla disposizione degli atomi in quel determinato punto. Al contrario, le differenze di conducibilità termica in tutto il campione sono molto piccole, e poiché nel caso di un sistema macroscopico le fluttuazioni locali si compensano risulta estremamente difficile osservarle.
Se invece facciamo cadere i due campioni di vetro per terra, anche se procediamo il più possibile nello stesso modo, essi si frattureranno diversamente, in pezzi più o meno grandi e dalle forme più varie. Infatti, la linea di frattura segue la disposizione dei singoli legami più deboli. In questo caso la diversa disposizione degli atomi ha un effetto macroscopico sul sistema e il risultato dell'esperimento dipende dalla scelta del campione. Sarà quindi compito della teoria discriminare le proprietà che dipendono dalla disposizione microscopica degli atomi da quelle che ne sono indipendenti.
Lo studio teorico degli amorfi non deve essere fatto su un singolo sistema; bisogna considerare simultaneamente una classe di sistemi che differiscano gli uni dagli altri per una componente casuale. In molti casi il disordine, ovvero la presenza di termini casuali nella forma dell'energia, non produce effetti qualitativamente importanti; in altri casi il disordine induce proprietà del tutto nuove e il sistema può essere classificato come complesso.
4. I vetri di spin
I vetri di spin, detti anche magneti amorfi, sono tra i più studiati sistemi fisici in cui il disordine induce nuovi effetti. Questi materiali, per lo più leghe metalliche, non rientrano nella consueta classificazione stilata in base alle proprietà magnetiche (che distingue i materiali in ferromagnetici, antiferromagnetici, ecc.) e hanno un comportamento magnetico anomalo a basse temperature. In fisica, i vetri di spin sono il prototipo di un sistema complesso.
a) Considerazioni generali
Prima di entrare nei dettagli delle proprietà di questi materiali, è opportuno presentare alcune considerazioni generali e un esempio familiare.
Supponiamo che in una stanza ci sia un certo numero di persone che si conoscono. Queste persone vengono divise a caso in due gruppi e successivamente a ciascuna di esse viene domandato se vuole passare da un gruppo all'altro (ogni interpellato risponde sì o no a seconda delle proprie simpatie o antipatie); in caso di risposta positiva la persona cambia gruppo immediatamente. Dopo un primo giro, non tutti saranno ancora soddisfatti: qualcuno che aveva cambiato di posto (o che non aveva cambiato al primo giro), vorrà riconsiderare la propria situazione dopo i cambiamenti effettuati dagli altri. Si procede a un secondo giro di spostamenti e si va avanti così, finché non c'è più nessuno che richiede di essere spostato. A uno stadio successivo, possiamo provare a spostare non solo i singoli, ma anche più persone contemporaneamente (può capitare infatti che un cambiamento di gruppo sia vantaggioso solo se fatto in compagnia), finché non si raggiunge uno stato di soddisfazione generale.
La possibilità di soddisfare tutte le richieste dei singoli dopo un numero finito di giri dipende crucialmente dall'ipotesi che il rapporto di simpatia sia simmetrico, ovvero che, se Tizio è simpatico a Caio, anche Caio sia simpatico a Tizio. Possiamo però avere anche situazioni asimmetriche: Tizio ha simpatia per Caio, ma Caio non può sopportare Tizio. Se situazioni di questo tipo sono molto comuni, il procedimento sopra indicato non tenderà mai a uno stato stabile: Tizio insegue Caio che scappa e i due non si fermeranno mai. Il caso in cui il rapporto è asimmetrico differisce profondamente da quello in cui è simmetrico; solo in quest'ultimo le volontà dei singoli sono tutte orientate verso lo stesso scopo di ottimizzazione della soddisfazione generale.
Ovviamente, la configurazione finale dipenderà dai sentimenti reciproci e dalla configurazione iniziale, e quindi non è direttamente calcolabile in assenza di queste informazioni. Possiamo tuttavia pensare di calcolare approssimativamente alcune proprietà generali di questa dinamica (per esempio quanti giri bisogna fare prima che tutti siano contenti) facendo l'ipotesi che la distribuzione delle simpatie e delle antipatie sia casuale.
Supponiamo di conoscere la distribuzione di probabilità delle simpatie, ipotizzando, ad esempio, che la probabilità che due persone scelte casualmente si siano simpatiche sia p, dove p è un numero compreso fra 0 e 1 (spesso si considera il caso p =1/2).
Bisogna a questo punto verificare se questa modellizzazione dei rapporti sia corretta o se invece la situazione reale non sia più complicata (per esempio, possiamo introdurre una gradazione nell'antipatia e supporre che i vicini di casa abbiano rapporti molto intensi, mentre persone che abitano lontano si siano praticamente indifferenti). Una volta ottenuta una modellizzazione accurata della distribuzione di probabilità delle simpatie, possiamo cercare di fare previsioni sul sistema, che saranno di natura puramente probabilistica e diventeranno tanto più precise (ovvero con un errore relativo sempre più piccolo) quanto più il sistema diventerà grande (ovvero nel limite in cui il numero dei componenti tende a infinito).
Il sistema descritto, nel caso simmetrico corrisponde puntualmente (dal punto di vista matematico) ai vetri di spin (v. Mézard e altri, 1987; v. Balian e altri, 1979): se sostituiamo le parole ‛simpatico' e ‛antipatico' con ‛ferromagnetico' e ‛antiferromagnetico' e identifichiamo i membri dei due gruppi con spin orientati in direzioni differenti, otteniamo una descrizione precisa dei vetri di spin. Infatti, a basse temperature un sistema fisico si evolve in maniera da minimizzare l'energia e questa dinamica è molto simile al processo di ottimizzazione appena descritto, a patto di identificare l'energia con l'insoddisfazione generale.
In quest'ultimo decennio i vetri di spin sono stati ampiamente studiati e attualmente siamo in grado di rispondere a molte delle domande che erano state poste al riguardo. Le caratteristiche forse più interessanti di questi sistemi sono costituite dall'esistenza di un gran numero di stati di equilibrio differenti (se spostiamo una sola persona alla volta) e dalla grande difficoltà a trovare la configurazione ottimale al variare di un numero arbitrariamente grande di elementi. I vetri di spin sono infatti uno degli esempi più noti di quei problemi di ottimizzazione (detti NP completi, per motivi che non vale la pena di discutere in questa sede; v. Garey e Johnson, 1979), la cui soluzione può essere trovata solo mediante un numero di passi estremamente elevato (esponenzialmente crescente col numero degli elementi del sistema).
La presenza di un gran numero di diversi stati di equilibrio può essere considerata come una delle caratteristiche più tipiche dei sistemi complessi (almeno in una delle tante accezioni del termine): ciò che non si può modificare con il tempo non è complesso, mentre un sistema che può assumere molte forme diverse è certamente complesso. La scoperta inattesa fatta in quest'ultimo decennio è che la complessità emerge naturalmente dal disordine delle leggi del moto. Per ottenere un sistema complesso non dobbiamo sforzarci di scegliere leggi molto particolari: basta sceglierle a caso, ma con distribuzioni di probabilità ben determinate.
b) I vetri di spin reali
I vetri di spin sono materiali magnetici in cui l'interazione fra coppie di spins è a volte ferromagnetica e a volte antiferromagnetica. Il caso più semplice è dato dai vetri di spin sostituzionali, costituiti da un composto terziario. Il 50% degli atomi appartiene a una sostanza magnetica (che indichiamo con M) mentre l'altro 50% appartiene a due sostanze non magnetiche in proporzione fissa (che indichiamo convenzionalmente con A e B). Per certi tipi di materiale gli atomi M si dispongono su un reticolo cubico, mentre gli atomi delle sostanze non magnetiche sono situati al centro dei segmenti che congiungono gli atomi magnetici. Se le proprietà stereochimiche delle due sostanze non magnetiche sono relativamente simili, al momento della formazione del composto cristallino la posizione degli atomi delle sostanze non magnetiche sarà del tutto casuale.
Tuttavia, la disposizione nello spazio degli atomi non magnetici ha conseguenze importantissime sulle proprietà magnetiche. Infatti la forza che causa l'ordinamento degli atomi magnetici dei normali ferromagneti agisce solo tra atomi vicini, in quanto è proporzionale alla sovrapposizione delle funzioni d'onda. Nel caso del composto che stiamo considerando, gli atomi magnetici sono molto distanti tra loro e quindi in prima approssimazione non interagiscono. Rimane però un'interazione residua dovuta alla presenza degli altri atomi e questa interazione dipende crucialmente dal tipo di atomo: se l'atomo intermedio è A, l'interazione (ferromagnetica) tra i dipoli magnetici dei due atomi è tale da orientarli nello stesso verso; se invece l'atomo intermedio è B, l'interazione (antiferromagnetica) è tale da orientare i due atomi in versi opposti.
Al variare della percentuale x di atomi di A (la percentuale di B sarà quindi 50 – x passiamo da un caso di ferromagnetismo perfetto (x = 50) a un sistema antiferromagnetico (x = 0). Per x = 25 le interazioni saranno casualmente ferromagnetiche o antiferromagnetiche e quindi otteniamo il modello descritto precedentemente in cui solo i vicini di casa nutrono antipatia o simpatia reciproche.
I vetri di spin sono stati ampiamente studiati sperimentalmente. La suscettività magnetica χ ha un comportamento molto interessante. Conviene introdurre una suscettività magnetica dipendente dalla frequenza χ = χ(ω), proporzionale alla magnetizzazione di un sistema sottoposto a un piccolo (più precisamente, a un infinitesimo) campo magnetico alternato di frequenza ω. In altri termini, la quantità χ(ω) è la risposta lineare del sistema a un campo magnetico alternato. Per un sistema normale nel limite di basse frequenze (ω che va a zero) χ(ω) diventa l'usuale suscettività statica.
Nella fig. 2 possiamo vedere la suscettività χ(ω) in funzione della temperatura per diversi valori della frequenza. Nella zona di alta temperatura i risultati sono indipendenti dalla frequenza. Al contrario, nella zona di bassa temperatura si osserva una forte dipendenza dalla frequenza, anche nella regione in cui le oscillazioni del campo magnetico hanno un periodo di un minuto, tempo enormemente più grande del tempo microscopico necessario per rovesciare un singolo spin (10-12 s). I processi collettivi attraverso i quali la magnetizzazione cambia al variare del campo magnetico diventano lentissimi a basse temperature.
Una delle caratteristiche più salienti dell'andamento in esame è la presenza di un picco ben pronunciato che si sposta verso le temperature più basse al diminuire della frequenza. Sebbene lo spostamento del picco sia piccolo, esso è circa costante ogni volta che si diminuisce la frequenza di un fattore 10. L'estrapolazione a frequenza zero è molto difficile e può essere fatta solo basandosi su ipotesi al momento attuale non completamente certe. Indichiamo con χR il valore della suscettività misurata su una scala di tempo macroscopica (ovvero a una frequenza dell'ordine di 1 Hz): il valore di χR cambia molto poco, quando cambiamo la scala di tempo su cui misuriamo la suscettività da un secondo a un'ora.
Una definizione differente di suscettività può essere ottenuta raffreddando il campione in presenza di un campo magnetico h. In questo caso si misura la magnetizzazione m (h). La magnetizzazione misurata con questa tecnica dipende molto poco dalla velocità con cui il sistema viene raffreddato; per questo motivo si ritiene comunemente che sia molto vicina al valore meq (h) che dovrebbe avere all'equilibrio termico. Nello stesso modo si può definire la suscettività magnetica raffreddata sotto campo (per esempio a h = 0) come
La suscettività χeq ha il comportamento illustrato nella fig. 3. Ad alte temperature essa coincide con χR, ma a basse temperature diventa circa costante, al contrario di χR, che diminuisce notevolmente con la temperatura (v. fig. 2).
La differenza fra le due suscettività è connessa alla presenza di fenomeni di isteresi magnetica. Se si raffredda il sistema in presenza di un campo magnetico e successivamente si rimuove il campo, la magnetizzazione del sistema non scompare velocemente, ma rimane diversa da zero e continua a decrescere molto lentamente con lo scorrere del tempo (magnetizzazione residua). Al contrario, la magnetizzazione meq (h) è praticamente indipendente dal tempo.
La dipendenza dal tempo della magnetizzazione residua è varia ed è influenzata da molti parametri, quali l'ampiezza della variazione del campo magnetico e il tempo in cui il sistema è rimasto a bassa temperatura prima di rimuovere il campo magnetico. Per brevità consideriamo solo il caso in cui la variazione del campo magnetico è grande: sperimentalmente si trova che la magnetizzazione residua m (t) decade approssimativamente come
In questa formula (valida per T <Tc) A è circa 0,3 e Tc è la temperatura a cui la suscettività alternata a basse frequenze ha un picco (per esempio circa 21 K nel caso del materiale in figg. 2 e 3). Questa formula implica un decadimento molto lento della magnetizzazione residua. Per esempio, a una temperatura uguale a un terzo di Tc la magnetizzazione decade come t-1: questo comportamento, anche per un grande intervallo di tempo di misura, non è facilmente distinguibile da una dipendenza logaritmica, ovvero m (t) = m0 – m1 ln (t), dove m0 e m1 sono costanti opportune.
Diversamente da altre transizioni di fase, il calore specifico non mostra anomalie degne di nota. Si osserva solamente un massimo molto largo a una temperatura circa il 50% più alta di Tc. Alcune di queste caratteristiche peculiari dei vetri di spin possono essere ben spiegate dalla teoria.
c) Un modello microscopico
Un modello molto semplice può essere usato per descrivere i vetri di spin sostituzionali. Gli spins, localizzati sugli atomi magnetici, vengono schematizzati come variabili che possono prendere due valori e sono definite sui nodi di un reticolo regolare. Anche le costanti d'accoppiamento possono avere due valori e sono definite sui legami dello stesso reticolo.
Il sistema è descritto da N variabili σi (dove i varia da 1 a N), che possono assumere due valori possibili (1 o – 1) e corrispondono agli spins. Per ogni possibile coppia di punti primi vicini (i,k), viene introdotta una variabile Ji,k, che viene scelta casualmente pari, a 1 o a – 1 con uguale probabilità. L'energia HJ [σ] è data dalla somma su tutte le coppie (i,k) di Ji,kσiσk più il contributo magnetico,
dove la prima somma è ristretta solamente alle coppie di punti primi vicini. Il campo magnetico esterno, h, tende a far assumere agli spins il suo stesso segno. Per il momento ci limitiamo a considerare il caso h = 0.
Se Ji,k è positivo, la minimizzazione del contributo della coppia (i, k) all'energia H si ottiene scegliendo gli stessi valori per i due spins σi e σk. Le variabili J sono casuali e indipendenti l'una dall'altra. Per ogni scelta delle variabili J possiamo definire un valore medio statistico,
dove g (σ) è una funzione generica di σ.
Per ipotesi la distribuzione di probabilità delle variabili J non è alterata dalla loro interazione con gli spins σ. Si tratta di un'approssimazione molto buona, in quanto l'interazione magnetica è rilevante solo a temperature molto più basse della temperatura di fusione del composto metallico e può essere quindi trascurata durante la formazione della lega. Quando l'interazione magnetica diventa importante (a una temperatura di qualche decina di kelvin), gli atomi possono solo oscillare intorno alla loro posizione di equilibrio e non possono più cambiare posizione. Se durante la preparazione del campione la temperatura viene diminuita abbastanza rapidamente, la posizione degli atomi non è minimamente influenzata dalla loro interazione magnetica e le variabili possono essere considerate a buon diritto indipendenti le une dalle altre. Questo tipo di disordine viene spesso chiamato ‛congelato'.
A ogni campione differente corrisponde una scelta diversa delle variabili J. Se le quantità termodinamiche intensive, come la magnetizzazione e l'energia interna per unità di volume, dipendessero dalla scelta del campione, la situazione sarebbe imbarazzante, in quanto campioni preparati con lo stesso procedimento avrebbero proprietà differenti. Fortunatamente è possibile dimostrare che per campioni sufficientemente grandi le proprietà termodinamiche non dipendono dalla scelta del campione.
Per calcolare le proprietà del sistema è necessario stimare il valore medio ≺g (σ)≻J per una scelta generica delle variabili J. Dato che questa quantità non varia troppo bruscamente al variare delle variabili J, possiamo limitarci a calcolare
dove abbiamo indicato con una linea orizzontale la media sulle variabili J.
Una quantità molto interessante è la suscettività magnetica. Se si utilizza il formalismo usuale della meccanica statistica per la risposta alle piccole perturbazioni, si ottiene
dove m(i)J ≡ 〈σi〉J è la magnetizzazione, che dipende dal nodo del reticolo, e qEA ≡ m(i)²j è il cosiddetto parametro d'ordine di Edwards e Anderson (v., 1975).
La formula precedente non può essere esatta a basse temperature, in quanto non fa distinzione fra le varie suscettività che abbiamo precedentemente introdotto. La teoria della risposta lineare a piccole perturbazioni non si può applicare in questo caso. Vedremo successivamente come procedere in modo corretto.
Semplici argomenti fisici implicano che ad alte temperature e a campo magnetico esterno h uguale a zero non c'è magnetizzazione spontanea e di conseguenza qEA = 0. A basse temperature ogni campione sviluppa la sua magnetizzazione spontanea (la magnetizzazione mi varia da punto a punto e da campione a campione) e di conseguenza qEA ≠ 0 in questa regione. La transizione di fase vetrosa è caratterizzata da un valore di qEA diverso da zero.
Un concetto molto importante nell'analisi teorica dei vetri di spin è dato dalla frustrazione che si introduce nel seguente modo: associamo a un circuito chiuso sul reticolo (C) il prodotto W (C) di tutti i legami del circuito (v. fig. 4). Possiamo quindi definire
La quantità W (C) prende i valori ± 1. Se W (C) = – 1, il circuito è detto frustrato: non è possibile trovare un insieme di spins tali che Ji, kσiσk sia uguale a 1 per tutti i legami che appartengono al circuito.
Il caso più semplice di un circuito frustrato è composto da tre spins (v. figg. 5 e 6): due legami sono ferromagnetici e uno è antiferromagnetico. È evidente che non è possibile trovare tre spins tali da rendere uguali a 1 tutti i contributi all'energia. In generale, se esistono circuiti frustrati, devono anche esserci difetti, ovvero legami che danno un contributo positivo all'energia. La frustrazione è molto importante, in quanto la sua presenza fa sì che il calcolo della configurazione di energia più bassa non sia banale.
Anche se il modello di Edwards e Anderson è una schematizzazione molto semplificata dei vetri di spin sostituzionali, tuttavia è possibile verificare che esso tiene conto delle caratteristiche salienti di tali sistemi. Simulazioni numeriche effettuate con il calcolatore hanno dimostrato che tutti i fenomeni caratteristici osservati sperimentalmente nei vetri di spin sono riprodotti fedelmente da questo modello, che può essere quindi considerato un ottimo punto di partenza.
d) Un modello risolubile
Il precedente modello di Edward e Anderson è molto difficile da studiare direttamente. La maggior parte dei progressi teorici è venuta dallo studio di un modello semplificato, introdotto da Sherrington e Kirkpatrick (v., 1975). La forma dell'energia è identica a quella di un vetro di spin (7):
I due modelli sono differenti in quanto in questo caso la somma viene fatta su tutte le possibili coppie (i, k), non è cioè limitata ai primi vicini, e la variabile Ji, k prende i valori ± N-1/2. La scelta della normalizzazione delle costanti J è tale che la densità di energia E [σ] = HJ [σ] /N ha un limite finito quando N tende a infinito. Questo modello è sufficientemente semplice da essere risolubile esattamente; per esempio, è possibile calcolare esattamente la densità di energia minima.
In generale scelte differenti delle variabili Ji, k corrispondono a sistemi con energie diverse. La teoria fornisce stime precise sul comportamento dei sistemi nel limite in cui N tende a infinito. Molte proprietà diventano infatti indipendenti dalla scelta delle variabili J e sono le stesse praticamente per tutte le realizzazioni del sistema. In particolare, la densità di energia minima del sistema (il valore minimo di E [σ]) è uguale a circa – 0,7633.
Il processo di minimizzazione successiva descritto precedentemente corrisponde a scegliere sequenzialmente, per ogni i, la variabile σi in modo da minimizzare il suo contributo all'energia. Si può dimostrare che se si parte da una configurazione casuale si arriva a una densità di energia finale circa uguale a – 0,73 e quindi decisamente più grande della minima.
Un procedimento di ricerca sequenziale del minimo, una variabile dopo l'altra, non porta quindi al minimo globale, ma semplicemente a un minimo locale, ovvero a una configurazione la cui energia non diminuisce cambiando un singolo spin alla volta. Il fatto che l'evoluzione del sistema si blocchi in un minimo locale è connesso all'esistenza di un numero elevatissimo di minimi locali. Il numero totale di minimi locali differenti aumenta circa come 200,30N (si tratta di un aumento esponenziale esattamente come per il numero totale di configurazioni, che aumenta come 2N).
Il calcolo analitico dell'energia minima non è affatto semplice e può essere fatto utilizzando il metodo delle repliche. Questo metodo si basa su alcune ipotesi che, pur essendo molto ragionevoli, non sono dimostrate in maniera completamente rigorosa. Se si segue questa strada, per calcolare l'energia minima è necessario calcolare contemporaneamente il numero delle configurazioni con energia vicina a quella del minimo e le correlazioni esistenti fra la differenza in energia e la distanza fra due configurazioni, definita come la percentuale di spins differenti. Vedremo in seguito che le configurazioni con energia vicina alla minima possono essere classificate secondo una struttura ad albero, simile a quelle utilizzate in biologia. Questo risultato, completamente inaspettato, è molto interessante, in quanto mostra la grande ricchezza e complessità di un sistema apparentemente così semplice.
L'interesse per il modello di Sherrington e Kirkpatrick nasce anche dal fatto che il comportamento della suscettività magnetica e quello della magnetizzazione residua riscontrati nei dati sperimentali si osservano anche in questo caso semplificato; ciò sembra indicare che la stessa spiegazione teorica si possa applicare a entrambi i casi.
5. L'approssimazione di campo medio per i vetri di spin
Molto spesso è possibile ottenere una comprensione sia qualitativa che quantitativa dei fenomeni collettivi che avvengono nei materiali usando l'approssimazione di campo medio, introdotta da P. Weiss all'inizio del secolo. La teoria si basa sul presupposto che il comportamento di un singolo componente di sistema (in questo caso del singolo spin) dipenda solo dalle proprietà medie degli altri componenti del sistema. Le ipotesi necessarie per sviluppare la teoria sono soddisfatte nel caso del modello di Sherrington e Kirkpatrick, il cui studio permette quindi di formulare la teoria di campo medio nella sua forma più semplice.
a) Formulazione generale
Prima di presentare lo studio teorico del modello di Sherrington e Kirkpatrick, conviene esporre la teoria di campo medio per un'interazione ferromagnetica. Consideriamo un modello di spin ferromagnetico in cui tutti gli spins interagiscono tra loro. L'energia è data da:
L'interazione tra due spins non dipende dagli spins e la costante J è uguale a 1/N.
Questo modello è interessante perché in questo caso l'approssimazione di campo medio è esatta. Infatti è possibile dimostrare, in maniera semplice e rigorosa, che la funzione di partizione della meccanica statistica,
(trascurando fattori moltiplicativi inessenziali) può scriversi esattamente come:
dove la funzione F (m) è data da:
βF(m) = m2 /2 + ln (2 cosh(β(Jm + h)). (16)
Nel limite N → ∞, troviamo che la densità di energia libera è data dal minimo della funzione FP (m). Questo minimo può essere calcolato risolvendo l'equazione di Curie-Weiss,
m = tanh(β(Jm + h)). (17)
Nel caso h = 0, la funzione F (m) ha un solo minimo per T > Tc = 1/kB J e ha due minimi per T < Tc. Il valore di m al minimo corrisponde alla magnetizzazione del sistema (v. fig. 7). A basse temperature appare una magnetizzazione spontanea ms: esistono due possibili stati di equilibrio che corrispondono alle due possibili magnetizzazioni ± ms. L'insieme dei possibili stati di equilibrio (ovvero dei minimi di F (m)) è invariante sotto la trasformazione
m → – m. (18)
Nella regione delle basse temperature, i singoli stati di equilibrio non sono più invarianti sotto una tale trasformazione. Questa situazione viene descritta in maniera concisa dicendo che la simmetria introdotta nell'equazione (18) è rotta spontaneamente.
b) Il metodo delle repliche
In un sistema disordinato dobbiamo calcolare non le proprietà del sistema per una data scelta delle interazioni microscopiche (v. eq. 8), ma la media di queste proprietà al variare dei parametri che caratterizzano microscopicamente le interazioni (v. eq. 9); tale calcolo è però tecnicamente molto difficile. Il metodo delle repliche ci permette di aggirare questa difficoltà.
Vediamo in concreto come si procede per il calcolo dell'energia libera. Nel formalismo della meccanica statistica, la densità di energia libera è data da:
β N FJ (β) = - ln ZJ (β), (19)
dove la funzione di partizione (che dipende da J) è definita come:
Il metodo delle repliche si basa su queste due formule elementari:
Nella prima formula devono apparire n fattori A e quindi n deve essere un intero. Al contrario, nella seconda formula n deve poter variare con continuità. La strategia alla base del metodo delle repliche consiste nel calcolare
per valori interi e nell'effettuare la continuazione analitica del risultato a n = 0, applicando le formule precedenti.
Un calcolo dettagliato dimostra che nel limite N → ∞ si ha che
dove Q è una matrice n × n, con tutti gli elementi diagonali uguali a zero (Qa, a = 0); F(n) (β) è il minimo della funzione F (β, Q) al variare della matrice Q. La funzione F(n) (β Q) è la generalizzazione della funzione F (m) precedentemente introdotta. Un calcolo dettagliato mostra che
dove
Tutti i calcoli devono essere fatti per n generico e solo alla fine bisogna effettuare il limite per n che tende a zero.
Sfortunatamente c'è una difficoltà nascosta nella continuazione analitica in n: al variare di n un massimo può trasformarsi in un minimo e viceversa. Un'analisi più approfondita mostra che dobbiamo considerare non solo i minimi della funzione F(n) (β, Q), ma anche i massimi e i punti di sella. Il numero di punti in cui
cresce con l'aumentare di n. La continuazione analitica a n = 0 diventa molto complicata, in quanto bisogna tener conto di questo proliferare di punti stazionari per valori elevati di n.
Queste complicazioni non sono state risolte rigorosamente. Il metodo delle repliche è una tecnica priva di contraddizioni interne, che permette di ottenere risultati estremamente ragionevoli. È interessante notare che gli stessi risultati si possono ottenere in modo molto più lungo e meno compatto usando tecniche probabilistiche, che non fanno riferimento alle repliche. L'esistenza di questa alternativa è considerata un'indicazione molto forte della correttezza del metodo delle repliche.
Lo studio dei punti stazionari della funzione F(n) (β, Q) può essere semplificato se utilizziamo considerazioni basate sulle simmetrie di questa funzione. Nel metodo delle repliche il sistema ha una simmetria nascosta. Infatti l'espressione (25) è invariante sotto l'azione del gruppo delle permutazioni S (n) che agisce sugli indici di replica della matrice Q. Un calcolo esplicito mostra che nella regione delle basse temperature i punti stazionari rilevanti non sono invarianti sotto il gruppo S (n), e in questo senso la simmetria delle repliche è rotta spontaneamente. La regione nel piano (temperatura-campo magnetico), dove la simmetria delle repliche è rotta, è mostrata nella fig. 8.
Dopo una lunga serie di manipolazioni algebriche si trova che nella regione delle basse temperature la densità di energia libera a n = 0 può essere scritta come
dove F (β) [q] è un funzionale di q (u). La funzione q (u) è definita sull'intervallo 0 - 1 ed è connessa con le matrici Q che sono soluzione dell'equazione (26) per valori interi di n.
Il metodo delle repliche permette di calcolare esattamente le proprietà del modello nel limite in cui N → ∞ e i risultati sono in buon accordo con le simulazioni numeriche. Per esempio in questo modo, per la densità di energia minima, si ottiene il valore - 0,7633 (v. cap. 4, § d); nella fig. 9 sono mostrati i risultati delle simulazioni per questa quantità a vari valori di N.
La derivazione dei risultati ottenuti con la tecnica delle repliche ha ancora molti lati oscuri; tuttavia, questo modo di affrontare la questione, una volta superati i problemi di principio, è il più compatto dal punto di vista matematico ed è anche il più fruttuoso.
c) Conseguenze fisiche della rottura spontanea della simmetria delle repliche
Esiste un'interpretazione molto semplice della rottura della simmetria delle repliche: se la simmetria delle repliche è rotta spontaneamente, per ogni realizzazione delle costanti di accoppiamento J a bassa temperatura sono presenti molti stati di equilibrio con differenti magnetizzazioni locali.
Possiamo indicare con wα la probabilità di trovare il sistema nello stato etichettato con α e con mαi la magnetizzazione locale (ovvero il valor medio di σi nello stato α). La ‛sovrapposizione' tra stati differenti può essere definita come
Un calcolo esplicito mostra che per ogni funzione g (q) è valida la seguente relazione:
La probabilità di trovare due stati con sovrapposizione q è quindi controllata dalla funzione q (u).
Il numero di stati di equilibrio tende a infinito nel limite in cui N → ∞. Infatti il numero di stati con probabilità maggiore di ε (N (ε)) diverge come ε-y quando ε → 0; y può essere calcolato in termini della funzione q (u). I vetri di spin forniscono quindi esempi di sistemi estremamente complessi.
Un'analisi più accurata permette di studiare le proprietà relative di questi stati. Un risultato di grande rilievo è la possibilità di classificare tali stati disponendoli su un albero gerarchico (v. Rammal e altri, 1986). Per prima cosa definiamo una ‛distanza' tra due stati α, γ come
Gli stati sono tali che queste distanze soddisfano una proprietà particolare, la cosiddetta ultrametricità:
dα, c = max (dα, b, dβ, c) ∀ β. (31)
Questa diseguaglianza implica la possibilità di disporre gli stati come se fossero le foglie di un albero (v. fig. 10), in modo tale che la distanza tra due foglie sia uguale all'altezza alla quale, per poter passare dall'una all'altra, è necessario risalire lungo l'albero. Gli stati possono quindi essere descritti in maniera tassonomica. Esiste un teorema che afferma che a ogni distanza ultrametrica è possibile associare una classificazione tassonomica e che a ogni classificazione tassonomica è possibile associare una distanza ultrametrica.
L'esistenza di molti stati di equilibrio caratterizza la fase in cui la simmetria delle repliche è rotta. Questo fenomeno permette di spiegare molte proprietà dei vetri di spin reali. Se la simmetria delle repliche è rotta, un cambiamento nel campo magnetico esterno altera profondamente la struttura microscopica degli stati: gli stati d'equilibrio in presenza del nuovo campo magnetico sono diversi dagli stati di equilibrio nel campo magnetico originale. Quando viene aumentato il campo magnetico, la suscettività magnetica riceve due contributi: 1) la variazione della magnetizzazione dentro lo stesso stato; 2) la variazione della magnetizzazione dovuta al fatto che i nuovi stati di equilibrio in presenza del nuovo campo magnetico hanno in media una magnetizzazione maggiore degli stati di equilibrio in presenza del vecchio campo magnetico. Questo secondo contributo è presente solo se il sistema ha il tempo necessario per passare da uno stato di equilibrio a un altro. In generale questo tempo può essere molto grande e questo spiega l'esistenza di due differenti suscettività magnetiche.
Un'analisi dettagliata mostra che si possono calcolare le due suscettività (χR e χeq) corrispondenti ai due differenti protocolli sperimentali descritti nel cap. 4, § b: 1) la suscettività magnetica corrispondente alla variazione del campo magnetico misurata su scale di tempo tali che il sistema non abbia il tempo di cambiare lo stato di equilibrio. Questa suscettività è data da χR = β (1 – qEA); 2) la suscettività magnetica corrispondente alle variazioni del campo magnetico misurata su scale di tempo tali che il sistema abbia il tempo di cambiare lo stato di equilibrio. Questa suscettività è data da χeq = β (1 – ∫ duq (u)) ed è più grande della precedente dal momento che q (u) ≤ qEA. La differenza fra queste due suscettività (v. fig. 11) è una delle caratteristiche principali dei vetri di spin ed è molto ben spiegata dalla teoria.
d) Problemi aperti
L'approssimazione di campo medio, che è esatta nel modello di Sherrington e Kirkpatrick, è esatta anche in un modello realistico, tipo quello di Edwards e Anderson, nel limite in cui il numero di dimensioni dello spazio (D) tende a infinito. Le correzioni alla teoria di campo medio diventano sempre più piccole all'aumentare della dimensione D.
Il difetto principale dell'approssimazione di campo medio sta nel fatto che essa trascura gli effetti delle fluttuazioni. Per avere predizioni teoriche più precise per i sistemi reali, è necessario andare al di là dell'approssimazione di campo medio e tener conto esplicitamente delle fluttuazioni. Studi intensivi sono stati fatti in questa direzione, ma sfortunatamente nel caso dei vetri di spin il calcolo delle correzioni all'approssimazione di campo medio è molto complicato e al momento attuale sono disponibili solamente risultati preliminari.
Informazioni complementari alle considerazioni analitiche ci vengono dalle simulazioni numeriche. Simulazioni effettuate per reticoli quadridimensionali sembrano indicare che la teoria di campo medio sia un'approssimazione molto buona per questi sistemi, mentre quelle relative a sistemi tridimensionali non hanno ancora prodotto un quadro completamente chiaro. Le correzioni alla teoria di campo medio sembrano essere molto forti.
È ragionevole pensare che quando nuovi risultati ci permetteranno di controllare le correzioni alla teoria di campo medio saremo anche in grado di fare previsioni molto più precise sul comportamento dei sistemi tridimensionali. L'analisi teorica è assai difficile e i progressi sono molto lenti.
6. Dinamica dei sistemi complessi
Finora abbiamo considerato le proprietà all'equilibrio e non abbiamo studiato l'evoluzione temporale. Dato che prendiamo in esame sistemi che non sono isolati, ma interagiscono con un bagno termico, è opportuno prendere in esame le equazioni del moto in cui si tiene conto in maniera esplicita delle fluttuazioni termiche.
Quando il sistema è descritto da variabili continue, un'approssimazione molto buona è fornita dall'eq. 2 (di Langevin). Se sono presenti gradi di libertà discreti, per i quali non è possibile scrivere un'equazione di Langevin, molto spesso si suppone che il sistema si evolva secondo una dinamica di Glauber: la probabilità di rovesciare lo spin σi in un intervallo di tempo infinitesimo dt è data da
exp (– β ΔHi/2) dt, (32)
dove ΔΗi è la variazione d'energia prodotta da questo cambiamento. Per entrambe le dinamiche si può dimostrare che per un sistema finito la distribuzione di probabilità tende a quella di equilibrio quando il tempo tende a infinito.
Lo studio della dipendenza dal tempo delle proprietà di un sistema complesso, in particolare dei vetri di spin, è un problema molto difficile e al momento attuale ci sono solo alcuni risultati parziali nell'ambito dell'approssimazione di campo medio. In generale possiamo distinguere tre regioni temporali.
1) Il sistema è stato portato da molto tempo nelle condizioni in cui vengono effettuate le misure e ha quindi raggiunto l'equilibrio termico. In questa situazione viene studiata la dinamica veloce che corrisponde al decadimento delle correlazioni a tempi molto più piccoli dei tempi necessari per equilibrare il sistema. Una tipica quantità che viene calcolata è la funzione di correlazione,
C (t, t′) ≡ <σi (t) σi (t′)〉, (33)
che dipende solo dalla differenza dei tempi t - t′ (in quanto siamo all'equilibrio termico). In questo caso sono noti molti risultati, specialmente nell'approssimazione di campo medio: per esempio sappiamo che nel modello di Sherrington e Kirkpatrick, a basse temperature e per grandi tempi t, la funzione di correlazione è data da
C (t, 0) ~ qEA + Ct-δ(T) + O (t-2δ(T)), (34)
dove la funzione δ (T) è stata calcolata ed è compresa tra 0,35 e 0,5.
2) Come nel caso precedente, consideriamo un sistema all'equilibrio termico. Ora studiamo la dinamica lenta che corrisponde alle transizioni del sistema tra due differenti stati di equilibrio. Questa situazione si può realizzare praticamente solo per sistemi piccoli, in quanto un sistema grande ha probabilità pressoché nulla di passare da uno stato di equilibrio a un altro stato di equilibrio; il tempo caratteristico per una tale transizione, infatti, diverge esponenzialmente con le dimensioni del sistema. In questa regione ci sono pochissimi risultati analitici certi, molte simulazioni numeriche e alcuni argomenti semieuristici. Sembra certo che nel modello di Sherrington e Kirkpatrick il tempo caratteristico per transizioni fra due stati di equilibrio diverge come exp(CNλ) con λ non lontano da 1/3; in altri sistemi disordinati diverge ancora più velocemente ed è proporzionale a exp (CN). Questi tempi diventano giganteschi per valori di N non eccessivamente grandi; a tutti gli effetti pratici, a basse temperature, un sistema all'equilibrio rimane congelato in un singolo stato.
3) Il sistema era originariamente a una temperatura elevata ed è stato raffreddato alla temperatura finale al tempo zero. In presenza di un gran numero di stati il sistema non raggiunge mai l'equilibrio e si evolve passando per configurazioni di energia sempre minore (v. Bouchaud, 1992). La dipendenza dell'energia dal tempo è ben approssimata da
E (t) = E∞ + Ct-ν (T), (35)
dove E∞ è l'energia del sistema all'equilibrio. L'energia tende lentamente verso il suo valore all'equilibrio. In questo caso la funzione di correlazione temporale di due spins ha un comportamento più complesso: C (t, t′) non dipende più solamente dalla differenza dei tempi. Per tempi grandi – nella regione (t/t′) ≫ 1 – in alcuni casi è vera la relazione
C (t, t′) ≈ G (t/t′). (36)
Si può scrivere una corrispondente equazione per le funzioni di risposta. Queste due equazioni implicano che i risultati della misura di certe quantità (per esempio della suscettività) dipendono fortemente dalla storia precedente del campione. Spesso si osserva una dipendenza dal tempo trascorso dal momento in cui il sistema è stato portato alla temperatura a cui si effettuano le misure. Questo fenomeno (detto ‛invecchiamento') è molto interessante. In un esperimento tipico, il sistema viene raffreddato al tempo zero in assenza del campo magnetico e dopo un tempo tω viene applicato un campo magnetico h molto piccolo. La magnetizzazione osservata dipende dal rapporto t/tω (v. fig. 12).
L'invecchiamento è stato osservato sperimentalmente sia nei vetri di spin che in altri sistemi disordinati (per esempio il vetro e la gomma). Dal punto di vista teorico l'invecchiamento viene studiato nell'ambito dell'approssimazione di campo medio, nel quale sono stati ottenuti promettenti risultati analitici.
Questo particolare problema dinamico è di grande interesse, in quanto le previsioni teoriche possono facilmente essere confrontate con i dati sperimentali. L'invecchiamento è uno fra i problemi su cui è attualmente concentrata l'attenzione degli studiosi dei sistemi disordinati.
7. Altri sistemi complessi
I vetri di spin che abbiamo visto sono solo uno dei tanti esempi di sistemi fisici complessi. Si possono fare infinite variazioni sul tema dei vetri di spin, per esempio introducendo spins con più componenti o interazioni a più spins. In alcuni casi appaiono fenomeni nuovi, per esempio ci sono sistemi in cui l'equazione (35) è valida, ma la quantità E∞ è più grande dell'energia all'equilibrio: in questo caso siamo in presenza di stati metastabili.
Ci sono molti altri sistemi fisici che hanno un carattere complesso, per esempio gli eteropolimeri, le interfacce in presenza di un disordine esterno e forse anche i vetri. Il numero di differenti sistemi biologici complessi è estremamente elevato. In questo articolo ci limiteremo a descrivere in dettaglio un altro sistema fisico complesso molto diverso dai vetri di spin (le interfacce in presenza di impurezze) e a discutere brevemente le possibilità di applicare gli strumenti concettuali sviluppati in fisica allo studio dei sistemi biologici.
a) Le interfacce
Immaginiamo di avere un sistema ferromagnetico omogeneo in assenza di campo magnetico a bassa temperatura. La magnetizzazione non è necessariamente omogenea spazialmente e può essere una funzione non banale del punto, m(x), dove indichiamo con x il vettore con componenti (x, y, z).
In un esempio molto semplice la magnetizzazione è data da
m (x) = g (z), (37)
dove la funzione g vale ms, per z grande e positivo, – ms per z grande e negativo e cambia segno a z = 0. Una forma possibile della funzione g è
g (z) = ms tanh (z/ξ), (38)
dove ξ è lo spessore dell'interfaccia. In questo caso l'interfaccia che separa la regione con magnetizzazione positiva da quella con magnetizzazione negativa corrisponde al piano z = 0. A campo magnetico esterno uguale a zero quest'interfaccia è stabile. Differenti profili di magnetizzazione, del tipo
m (x) = g (z - w), (39)
hanno la stessa energia, ma corrispondono a diverse posizioni dell'interfaccia.
Nel caso di un sistema non spazialmente omogeneo, per esempio a causa di impurezze non magnetiche, l'interfaccia tende a passare vicino a questi difetti. In prima approssimazione possiamo assumere che la magnetizzazione sia data da
m (x) = g (z – w (x, y)), (40)
dove w (x, y) rappresenta l'altezza dell'interfaccia al variare di x e y. L'energia dell'interfaccia può essere calcolata in termini della funzione w e delle posizioni casuali delle impurezze. Ci sono molte configurazioni dell'interfaccia che corrispondono a minimi locali dell'energia; queste configurazioni sono separate da alte barriere. La dipendenza dell'energia dalle configurazioni è molto simile a quella che si ottiene nel caso dei vetri di spin e possiamo quindi applicare a questo problema le considerazioni qualitative che abbiamo già esposto.
È interessante notare che, quando aggiungiamo un piccolo campo magnetico, l'interfaccia di un sistema omogeneo si sposta con una velocità proporzionale al campo magnetico. Nel caso di un sistema disomogeneo, l'interfaccia rimane ‛inchiodata' alle impurezze e in prima approssimazione resta ferma, almeno per campi magnetici molto ‛piccoli' (un campo magnetico ‛forte' è sempre in grado di ‛schiodare' l'interfaccia). Si tratta dello stesso meccanismo che è alla base sia della differenza delle due suscettività nel caso dei vetri di spin (χR ≠ χeq), sia del fenomeno, ben più familiare, dell'attrito statico: la presenza di disomogeneità fa sì che una piccola forza non riesca a muovere il sistema che rimane intrappolato in un minimo locale del potenziale.
Applicando le tecniche teoriche sviluppate per i vetri di spin anche a questo problema di interfacce in mezzi disordinati, si ottengono risultati assai promettenti che ci consentono di calcolare molte proprietà statistiche di questi sistemi.
b) Sistemi biologici e reti neuronali
In questi ultimi decenni la biologia ha fatto progressi straordinari, specialmente per quanto riguarda la comprensione dei meccanismi biologici fondamentali. Siamo in possesso di un'enorme quantità di dati sui meccanismi che, a partire dalle informazioni contenute nel codice genetico, controllano e regolano la sintesi delle proteine. Conosciamo inoltre con notevole precisione gli effetti di un grandissimo numero di sostanze diverse che vengono utilizzate per scambiare informazioni tra le varie cellule degli organismi superiori (ormoni, linfochine, neurotrasmettitori, fattori di crescita, ecc.).
Proprio a causa del suo successo, la biologia si trova a dover compiere un salto di qualità: utilizzare le informazioni raccolte sulla natura dei componenti per dedurre il comportamento del sistema globale. I sistemi biologici sono per la maggior parte sistemi complessi, composti da molti componenti, e hanno un comportamento collettivo che non è facilmente deducibile dall'analisi del singolo componente (v. Kauffman, 1993). Capire concretamente tale comportamento è impresa estremamente difficile, ma necessaria se vogliamo arrivare a una comprensione profonda dei fatti biologici.
Questo tipo di problematica è stato affrontato con ottimi risultati nella fisica. Storicamente, il primo successo della meccanica statistica (poco più di un secolo fa) è stato la deduzione, a opera di Boltzmann, delle leggi della termodinamica (fra cui l'aumento irreversibile dell'entropia) a partire dalla struttura atomica della materia: un comportamento macroscopico veniva dedotto a partire dalle leggi microscopiche del moto. È ragionevole pensare che l'uso delle tecniche della meccanica statistica in biologia sia estremamente promettente e possa essere cruciale per ulteriori progressi.
Esiste anche un altro modo di studiare i fenomeni biologici: partire dal comportamento del sistema globale, da quelli che sarebbero i fenomeni collettivi dal punto di vista della biologia molecolare, e scoprire le leggi empiriche che regolano il sistema. Si può successivamente decomporre il sistema in sottosistemi e rifare lo stesso tipo di analisi per i sottosistemi. Usando un linguaggio informatico possiamo dire che invece di un approccio down-top, in cui si parte dai dettagli microscopici per ricostruire il sistema, si utilizza un approccio di tipo opposto, top-down, dove il punto di partenza è costituito dal sistema nella sua interezza.
La meccanica statistica cerca di fare da ponte fra i due punti di vista e di spiegare qualitativamente (e se possibile quantitativamente) le osservazioni fatte sul comportamento del sistema a partire dalla conoscenza dei costituenti elementari. Queste considerazioni si applicano molto bene alla situazione attuale degli studi sul cervello. Infatti, la neurobiologia ha avuto un successo straordinario e ha raccolto informazioni molto dettagliate e pienamente soddisfacenti sul funzionamento dei singoli neuroni. Tuttavia queste conoscenze non ci permettono di capire direttamente in che modo un miliardo di neuroni possa comportarsi come il cervello di un mammifero.
Il punto di partenza della psicologia è l'opposto di quello della neurobiologia molecolare. Le proprietà dei singoli neuroni (e più in generale le proprietà chimico-fisiche del cervello) sono del tutto irrilevanti. Questa scienza si è faticosamente forgiata sue proprie categorie concettuali che permettono di descrivere il pensiero umano prescindendo dai meccanismi specifici che fanno sì che un insieme di neuroni possa pensare.
La distanza tra la neurobiologia cellulare e la psicologia è così grande che colmarla sembrerebbe un'impresa disperata. Fortunatamente la situazione è migliore di come appare a prima vista. Negli ultimi decenni si è sviluppato un settore specializzato, la psicologia cognitiva, dedicata allo studio dettagliato dei meccanismi e dei processi attraverso i quali l'uomo percepisce il mondo, organizza la sua conoscenza e le sue attività.
Anche se la biologia cellulare e alcuni rami della psicologia cognitiva stanno progressivamente affrontando temi sempre più vicini tra loro, il loro incontro diretto è molto difficile. Tuttavia la meccanica statistica, con la sua capacità di dedurre i comportamenti macroscopici a partire dalla teoria microscopica, può fare da ponte fra questi due modi diversi di studiare il cervello. Nell'ultimo decennio sono stati pubblicati numerosissimi articoli dedicati a questa problematica. Come effetto di questa attività si è sviluppata una teoria sul funzionamento delle reti di neuroni che permette di comprendere il comportamento collettivo di un insieme di neuroni sotto opportune schematizzazioni e ipotesi.
La memoria è stata forse il tema principale su cui, a partire dall'articolo di Hopfield (v., 1982), si è concentrata l'applicazione delle tecniche di meccanica statistica; l'obiettivo consiste nell'identificare i meccanismi che permettono a un insieme di neuroni di memorizzare e di riconoscere un grande numero di oggetti (o concetti); è opinione molto diffusa che una piena comprensione di questi meccanismi sia un passaggio obbligato per capire le altre funzioni del cervello (v. Amit, 1989).
L'uso di tecniche mutuate dalla meccanica statistica dei sistemi disordinati è certamente molto utile nel caso dell'apprendimento e, più in generale, allo scopo di studiare le reazioni di un organismo al mondo esterno.
Le informazioni che riceviamo hanno sia una componente deterministica che una componente casuale. Per esempio, le facce delle persone che conosciamo hanno una componente costante (una bocca, un naso, due occhi, ecc.) e una componente variabile, propria di ogni individuo. Queste informazioni producono modifiche nel cervello (principalmente una variazione delle proprietà delle sinapsi tra neuroni) e la natura casuale degli eventi da memorizzare si riflette nella crescita casuale delle sinapsi tra i vari neuroni. In questo modo si forma un sistema sinaptico disordinato.
Molti studi hanno lo scopo di capire in che modo il cervello si modifica durante l'apprendimento così da memorizzare l'esperienza del passato. Si vorrebbe inoltre capire come il cervello riesca a esaminare la propria esperienza per trovarvi regolarità che gli permettono di prevedere il futuro. A questo scopo vengono costruiti modelli composti di un numero elevato di componenti che dovrebbero essere in grado di svolgere questo tipo di compiti. I modelli più interessanti sono quelli in cui gli elementi di base hanno un comportamento simile a quello dei veri neuroni. Tali elementi possono essere connessi in modo da ricordare l'esperienza del passato, organizzarla in categorie e talvolta indovinare le regole cui soggiace l'esperienza. Queste reti neuronali sono state ampiamente studiate (v. Amit, 1989) utilizzando le stesse tecniche sviluppate per lo studio dei sistemi disordinati, per esempio il metodo delle repliche; un'attenzione speciale è stata dedicata al tentativo di comprendere in quale modo queste reti possano funzionare come memorie. Questo problema particolare sembra essere ben compreso, almeno in alcuni sistemi modello.
Ancora aperto è il problema relativo allo studio delle reti in grado di generalizzare a partire dagli esempi (v. Carnevali e Patarnello, 1987; v. Denker e altri, 1987; v. Seung e altri, 1991). Qui ci sono molte sottigliezze da affrontare: un dato insieme di esempi può non essere sufficiente per determinare la regola; questa, inoltre, può avere alcune eccezioni, che vengono apprese in uno stadio successivo. È possibile confrontare i modi in cui differenti reti neuronali generalizzano la stessa regola e paragonare gli errori che commettono con quelli fatti da un essere umano che affronta lo stesso problema.
Questo campo è in rapido sviluppo e probabilmente giocherà un ruolo sempre più importante nella comprensione dei meccanismi che ci permettono di imparare e di pensare.
BIBLIOGRAFIA
Amit, D. J., Modeling brain function: the world of attractor neural networks, Cambridge-New York 1989 (tr. it.: Modellizzare le funzioni del cervello, Padova 1995).
Anderson, P. W., Suggested models for prebiotic evolution: the use of chaos, in ‟Proceedings of the National Academy of Sciences", 1983, LXXX, pp. 3386-3390.
Balian, R., Maynard, R., Toulouse, G. (a cura di), Ill-condensed matter, Amsterdam-New York 1979.
Bangone, G., Carlini, F., Carrà, S., Cini, M., D'Eramo, M., Parisi, G., Ruffo, S., Gli ordini del caos, Roma 1991.
Bouchaud, J.-P., Weak ergodicity breaking and aging in disordered systems, in ‟Journal de physique", 1992, II, pp. 1705-1713.
Carnevali, P., Patarnello, S., Boolean networks which learn to compute, in ‟Europhysics letters", 1987, IV, pp. 1199-1204.
Denker, J., Schwartz, D., Wittner, B., Solla, S., Horward, S., Jackel, L., Hopfield, J. J., Automatic learning, in ‟Complex systems", 1987, I, pp. 877-888.
Edwards, S. F., Anderson, P. W., Theory of spin glasses, in ‟Journal of physics: condensed matter", 1975, V, pp. 965-974.
Garey, M. R., Johnson, D. S., Computers and intractability: a guide to the theory of NP-completeness, San Francisco 1979.
Hopfield, J. J., Neural networks and physical systems with emergent collective computational abilities, in ‟Proceedings of the National Academy of Sciences", 1982, LXXIX, pp. 2552-2558.
Iben, I. E. T., Braunstein, D., Doster, W., Frauenfelder, H., Hong, M. K., Johnson, J. B., Luck, S., Ormos, P., Schulte, A., Steinbach, P. J., Xie, A. H., Young, R. D., Glassy behaviour of a protein, in ‟Physical review letters", 1989, LXII, pp. 1916-1919.
Iori, G., Marinari, E., Parisi, G., Random self-interacting chains: a mechanism for protein folding, in ‟Journal of physics A: mathematical and general", 1991, XXIV, pp. 5349-5362.
Kauffman, S. A., The origins of order: self-organization and selection in evolution, New York 1993.
Livi, R., Parisi, G., Ruffo, S., Vulpiani, A., Il computer: da abaco veloce a strumento concettuale, in ‟Il ponte", 1986, XLII, 4-5, pp. 41-55.
Livi, R., Ruffo, S., Ciliberto, S., Buiatti, M. (a cura di), Chaos and complexity, Singapore 1988.
Mézard, M., Parisi, G., Virasoro, M. A., Spin glass theory and beyond, Singapore 1987.
Parisi, G., Field theory, disorder and simulations, Singapore 1992.
Peliti, L., Vulpiani, A. (a cura di), Measures of complexity: proceedings of the conference held in Rome, September 30-October 2, 1987, Berlin-New York 1988.
Rammal, R., Toulouse, G., Virasoro, M. A., Ultrametricity for physics, in ‟Reviews of modern physics", 1986, LVIII, pp. 765-795.
Seung, H. S., Sompolinsky, H., Tishby, N., Statistical mechanics of learning from examples, in ‟Physical review. A", 1991, XXXIII, pp. 1978-1982.
Shaknovich, E. I., Gutin, A. M., The nonergodic (spin glass like) phase of heteropolymer with quenched disordered sequence of links, in ‟Europhysics letters", 1989, VIII, pp. 327-332.
Sherrington, D., Kirkpatrick, S., Solvable model of a spin-glass, in ‟Physical review letters", 1975, XXXV, pp. 1792-1796.
Thom, R., Stabilité structurelle et morphogénèse; essai d'une théorie générale des modèles, Reading, Mass., 1972 (tr. it.: Stabilità strutturale e morfogenesi. Saggio di una teoria generale dei modelli, Torino 1980).