cervello, modelli per l’attività su larga scala del
Il cervello esprime straordinarie capacità di elaborazione grazie all’azione coordinata, nello spazio e nel tempo, di popolazioni di neuroni densamente interconnesse. A specificità localizzate e ben identificabili dell’attività nervosa, come quelle dei campi recettivi delle prime vie sensoriali, si affianca l’attivazione distribuita e concertata di estese porzioni del cervello nell’espressione di funzioni cognitive. Un approccio teorico maturo ed efficace al funzionamento del cervello deve dunque saper descrivere la dinamica dell’attività neuronale su larga scala, e allo stesso tempo essere compatibile con, e vincolato da, la dinamica a scale inferiori, fino a quella dei singoli neuroni e delle sinapsi che ne realizzano le connessioni. Qui viene descritta la logica, e in parte la storia, di alcuni passi importanti verso la costruzione di una tale teoria, ed è delineata una possibile prospettiva teorica tramite esempi di contatto tra teoria ed esperimenti. [➔ informazione neurale; neuroni e sinapsi, modelli teorici; reti neurali]
Quando guardiamo le magnifiche ricostruzioni dei neuroni e delle reti da essi formate, fatte a china all’alba del secolo scorso da Santiago Ramón y Cajal usando il metodo di colorazione di Golgi, il cervello ci appare come una rete complessa ed eterogenea, dotata di principi di organizzazione, densamente interconnessa e caratterizzata da un numero immenso di nodi (neuroni) e connessioni (sinapsi).
La varietà di tecniche sperimentali sviluppate nelle neuroscienze ha confermato questo quadro, integrando informazioni di carattere funzionale con quelle strutturali. La conoscenza di una rete, infatti, non può limitarsi allo studio della sua architettura, ma deve includere l’analisi della sua dinamica: cioè il modo in cui agenti esterni e interni inducono cambiamenti nello stato di neuroni e sinapsi della rete stessa. Molte caratteristiche strutturali di questa rete complessa, come l’organizzazione in strati e la relativa composizione in specie neuronali, sono relativamente omogenee in tutta la corteccia, a dispetto della varietà di funzioni espresse; inoltre la comunicazione tra i nodi della rete, i neuroni, avviene essenzialmente attraverso un codice universale e indipendente dalla funzione: sequenze di impulsi brevi e stereotipati (spikes), dei quali sono modulate, secondo le circostanze, la frequenza media e la temporizzazione. Ciò che definisce la funzione è lo schema di connessioni con le vie afferenti (per es., talamiche), efferenti (per es., motorie), e il cablaggio interno specifico di un ‘hardware corticale’ generico. La complessità della rete neurale è quindi il frutto della ricchezza di interazioni tra elementi relativamente semplici come i neuroni, che nel loro insieme si coordinano come componenti di un’orchestra per eseguire ‘canzoni corticali‘ (locuzione realmente usata in un articolo su una prestigiosa rivista scientifica internazionale) alla base di funzioni cognitive di alto livello.
A partire dagli anni Settanta del secolo scorso, veniva elaborata una serie di teorie sui campi neuronali in cui si rinunciava a un percorso bottom-up dal singolo elemento della rete alla descrizione della popolazione neuronale, ma si affrontava direttamente quest’ultima, essenzialmente su base fenomenologica. La forma matematica del modello di popolazione dipende dalla descrizione continua/discreta nello spazio o nel tempo. Nel caso continuo, il modello prende tipicamente la forma di un sistema di equazioni integro-differenziali, in cui la variazione istantanea di una delle variabili di interesse (per es., il livello di attività del campo neuronale in un certo punto dello spazio) dipende sia da una funzione del valore (istantaneo o ritardato) della variabile stessa, sia dalla sovrapposizione (integrale) delle risposte (non lineari) ai livelli di attività nel resto del campo, eventualmente ritardate e pesate dall’efficacia delle connessioni sinaptiche. Nel modello proposto da Shun-ichi Amari in una serie di lavori classici negli anni Settanta, la popolazione neuronale, priva di ritardi e spazialmente omogenea, era descritta da un singolo campo scalare. L’interazione sinaptica era descritta da una funzione ‘a cappello messicano’, con eccitazione a breve distanza e inibizione a lunga distanza. Benché molto stilizzata, questa descrizione aveva il pregio di esporre una ricchezza di fenomeni dinamici che possono essere alla base delle proprietà computazionali delle reti neuronali; per es., la capacità di autosostenere un’attività localizzata, innescata da uno stimolo, anche dopo la scomparsa di questo (una forma di memoria di lavoro), o la possibilità di tenere traccia, nelle configurazioni del campo, di successioni di stimoli. Nello stesso periodo Hugh R. Wilson e Jack D. Cowan formularono una teoria di campi neuronali in cui si teneva conto del tempo necessario per la propagazione di informazione da un punto all’altro del campo, e si prendeva in considerazione l’interazione tra una popolazione eccitatoria e una inibitoria. Il repertorio di regimi dinamici in questo modello è risultato molto più ricco, in quanto include oltre a stati stazionari di attivazione localizzata anche oscillazioni globali e onde viaggianti.
Fin dagli esperimenti di Edgar D. Adrian nella prima metà del secolo scorso, che segnarono l’inizio dell’indagine elettrofisiologica del cervello, la frequenza di emissione di impulsi da parte di un neurone è stata considerata un veicolo fondamentale di informazione sulla selettività del neurone stesso rispetto a stimoli specifici. Se si passa a considerare una popolazione di neuroni interconnessi, è naturale pensare al numero medio di impulsi emessi nella rete (eventualmente variabile nel tempo) come una buona descrizione dello stato dinamico del sistema. I campi neuronali alla Wilson-Cowan sopra riferiti offrono una descrizione di questo tipo, in cui la forma specifica dei termini non lineari della dinamica è dettata da considerazioni fenomenologiche, e i parametri che definiscono le scale di tempo della dinamica sono arbitrari (da ottenersi in linea di principio da un fit di dati sperimentali). Dagli anni Settanta a oggi molta strada è stata fatta, con il risultato in parte paradossale di essere tornati al punto di partenza, ma meglio equipaggiati e pronti per viaggi più ambiziosi. Infatti, a partire da questo stesso periodo, utilizzando la disponibilità di nuovi modelli teorici di singoli neuroni, la descrizione analitica della dinamica neuronale ha continuato a essere perfezionata, fino ad arrivare a modelli capaci di riprodurre una dinamica collettiva di popolazione confrontabile anche quantitativamente con la realtà biologica. Questo sforzo ha portato a ottenere una formulazione teorica di campo analoga a quella introdotta con approcci più fenomenologici, sostituendo però parametri, funzioni di risposta e scale temporali arbitrarie con quelli derivati direttamente dagli elementi microscopici del sistema, accessibili almeno in linea di principio alla misura sperimentale. Tale sviluppo ha finalmente permesso di estendere l’orizzonte dell’investigazione teorica anche a un livello mesoscopico in cui è l’interazione tra popolazioni neuronali a fornire la chiave di lettura dei meccanismi che determinano l’attività nervosa osservata attraverso metodi d’indagine di larga scala come EEG, MEG (MagnetoElettroencefaloGrafia) e fMRI (functional Magnetic Resonance Imaging). L’evoluzione di questa descrizione teorica è stata possibile grazie ad alcuni passaggi determinanti. Innanzi tutto, come già accennato, la dimostrazione che l’attività elettrica di un singolo neurone poteva essere rappresentata efficacemente da un modello approssimato integrate-and-fire (IF), che nella sua forma più semplice era stato proposto già agli inizi del secolo scorso. Il neurone IF è puntiforme, ed è descritto dal solo potenziale di membrana del soma, che evolve nel tempo integrando la corrente in input; una condizione ad hoc implementa la soglia di emissione dello spike, incorporando le relative non linearità tenute in conto in modelli più dettagliati. Di questo neurone sono state ricavate, con l’ausilio della teoria dei processi stocastici, le proprietà statistiche della sequenza di impulsi emessi in funzione della corrente risultante dal continuo bombardamento sinaptico a cui è sottoposta una cellula nervosa. La corrente di input dall’albero dendritico è quindi il risultato di una sovrapposizione nel tempo di eventi sinaptici separati da intervalli praticamente casuali, e guida il potenziale del neurone IF a comportarsi come una variabile fluttuante e aleatoria. In queste condizioni l’elevato numero di connessioni e il piccolo contributo dovuto al singolo evento sinaptico cooperano a rendere le proprietà statistiche della corrente sinaptica praticamente uguali per tutti i neuroni. Le cellule nervose in questa approssimazione, che va sotto il nome di campo medio, sono allora altrettante repliche di uno stesso neurone tipico, sollecitate da differenti realizzazioni delle correnti in input fluttuanti, tutte con le stesse proprietà medie. Questa pietra miliare nella teoria delle reti neuronali permette di ridurre la dinamica di una popolazione neuronale all’evoluzione temporale della distribuzione dei potenziali di membrana, analogamente a quello che si farebbe osservando in un limpido tramonto d’autunno le complesse evoluzioni delle nubi in cui si aggregano gli stormi di uccelli migratori, e dove l’identità dei singoli individui (del potenziale dei singoli neuroni) viene persa. La dinamica di questa distribuzione è regolata dell’equazione di Fokker-Planck, trasformando la dinamica aleatoria dei singoli potenziali di membrana nell’evoluzione deterministica della loro distribuzione statistica, in funzione della statistica della corrente afferente ai neuroni. D’altro canto la stessa corrente sinaptica si può esprimere come funzione della frequenza media degli impulsi emessi dalla popolazione neuronale, che si può calcolare dalla distribuzione del potenziale di membrana. In questo modo si realizza una descrizione autoconsistente dell’attività nervosa di popolazione nel tempo (in partic., determinando gli stati di equilibrio del sistema). Il passaggio che conclude il ritorno alle equazioni di Wilson-Cowan, ora costruite a partire da una descrizione microscopica del sistema, consiste nel rappresentare l’intera distribuzione dei potenziali di membrana solo con il suo centro di massa, riducendo il numero di gradi di libertà necessari a descrivere lo stato del sistema a una sola variabile, direttamente legata anche questa alla frequenza degli impulsi emessi istante per istante dall’intera rete di neuroni. Da questi modelli dinamici, detti di massa neuronale, si passa a una descrizione di campo integrando nel modello la connettività sinaptica tra più popolazioni, con la sua estensione e distribuzione spaziale nel tessuto nervoso.
Se da un lato la formulazione matematica della teoria è insostituibile, dall’altro la capacità di ricavarne in forma analitica le conseguenze e le predizioni è spesso molto limitata, e quanto più essa evolve e si complica, tanto più le simulazioni al calcolatore si rendono indispensabili come ‘motore’ numerico per generare in modo approssimato ‘storie’ dinamiche rappresentative, per specifiche condizioni e scelte dei parametri, di quello che le equazioni della teoria descrivono implicitamente in tutta generalità. Questi esperimenti in silico svolgono una funzione euristica insostituibile nella validazione dei modelli e nella comprensione delle loro implicazioni; essi consentono di verificare la validità delle ipotesi teoriche in situazioni relativamente semplici e di formulare previsioni in situazioni complesse, fino a poter guidare in linea di principio la progettazione di nuovi esperimenti. Oggi le simulazioni, oltre a essere pratica quotidiana del ricercatore che vuole meglio comprendere situazioni specifiche, stanno evolvendo verso rappresentazioni realistiche su larga scala, grazie alla disponibilità di una quantità crescente di informazioni quantitative sulla connettività anatomica e funzionale nel cervello; esse ambiscono così a fornire piattaforme flessibili, realistiche e di validità abbastanza generale da poter essere utilizzate in molti contesti diversi. Eugene M. Izhikevich e Gerald M. Edelman nel 2008 hanno sviluppato una simulazione su larga scala (circa un milione di neuroni, mezzo miliardo di sinapsi, una ventina di tipi neuronali) basata sulla conoscenza della connettività talamo-corticale. Nel presentare la simulazione gli autori, oltre a sottolinearne il realismo anatomico, ne hanno evidenziato la capacità di riprodurre regimi dinamici su più scale spaziali e temporali. Nel 2005, presso il Politecnico di Losanna, è stato avviato un progetto in collaborazione con l’IBM (Blue brain) che, utilizzando il supercomputer parallelo Blue gene, con 8.192 processori, mira a realizzare una simulazione realistica di un tipico modulo corticale (molte decine di migliaia di neuroni), includendo in essa il maggior numero possibile di dettagli morfologici e biofisici.
Il pensiero come fenomeno dinamico collettivo di una complessa rete di neuroni è da sempre un’ipotesi attraente, e gli strumenti teorici e computazionali finora introdotti possono essere un veicolo efficace per esplorarne la validità e le potenzialità. Per stabilire il necessario ponte tra modelli ed esperimenti bisogna sciogliere l’inevitabile tensione tra l’esigenza di una corrispondenza quantitativa e dettagliata tra esperimento e modello e lo sforzo di ridurre il numero di parametri che servono a descrivere l’attività su larga scala del sistema, rendendolo accessibile a una descrizione di ‘grana grossa’. Tra i primi esempi di successo vale la pena di ricordare il modello di Walter J. Freeman di dinamica ad attrattori caotici proposto negli anni Ottanta per descrivere la percezione degli odori come fenomeno collettivo su larga scala nel sistema olfattivo dei mammiferi. I valori dei tracciati EEG, registrati simultaneamente dal bulbo olfattivo di animali addestrati a riconoscere diversi odori usati come coordinate in uno spazio astratto, venivano chiaramente rappresentati da orbite caotiche ben stereotipate e distinte per ogni odore riconosciuto, verso le quali la dinamica nervosa veniva attratta. Il modello di sistema olfattivo proposto da Freeman consisteva in una rete di popolazioni neuronali eccitatorie e inibitorie che, interagendo in competizione, producevano le oscillazioni osservate nell’EEG, mentre la non linearità della dinamica della rete e lo schema specifico delle sue connessioni determinavano il repertorio di attrattori. L’elaborazione visiva è stata un’altra palestra ideale per lo studio del ruolo della risposta non lineare di una rete di moduli neuronali. Partendo da un’accurata descrizione dei nuclei subcorticali fino ad arrivare alla corteccia visiva primaria, è stato dimostrato come, dalla cooperazione e competizione tra popolazioni neuronali selettive a diverse proprietà di uno stimolo, possa emergere un mosaico di attività che di volta in volta codifica, in modo distribuito e univocamente determinato, una particolare percezione visiva. È interessante notare come questi stati collettivi, attrattori della dinamica, possano in linea di principio codificare una percezione fittizia, un’illusione. Un esempio è quello studiato nel 2005 da David W. McLaughlin e colleghi presso l’Università di New York, che hanno descritto la dinamica spazio-temporale della corteccia visiva in risposta a stimoli capaci di indurre l’illusione di una barra in movimento. Quando due barre allineate e di diversa lunghezza vengono presentate in rapida successione, la percezione che ne risulta è quella di una barra che in modo continuo incrementa la sua estensione. Nel modello, a seguito della prima stimolazione, la risposta corticale corrisponde alla rappresentazione retinotopica della barra corta, ma, grazie alla connettività laterale tra popolazioni corticali, i dintorni dell’area stimolata diventano più eccitabili per la presenza di un’attività nelle vicinanze. Questo fa sì che alla comparsa del secondo stimolo le prime popolazioni a rispondere sono quelle prossime alla prima attivazione, fino a ricoprire col passare del tempo tutta l’area corrispondente al nuovo stimolo. Un’analoga dinamica spazio-temporale del campo si osserverebbe fornendo come stimolo una barra la cui lunghezza cresce in modo continuo. L’anno precedente alla pubblicazione di questo studio, nel laboratorio israeliano di Amiram Grinvald, un risultato analogo risultava da un esperimento in cui l’attività della corteccia striata di un primate veniva filmata attraverso la luce emessa da coloranti sensibili al potenziale della membrana neuronale, in condizioni di stimolazione visiva identiche a quelle studiate nel modello di McLaughlin.
In una rete di neuroni capaci di un forte incremento della frequenza di emissione in risposta a piccole variazioni della corrente sinaptica in ingresso, non deve stupire che il grado di eccitabilità del sistema sia il principale elemento di controllo del tipo di dinamica espressa. A partire da questo concetto, analogamente a quanto discusso per l’illusione delle barre in movimento, Stanislas Dahaene e collaboratori presso l’INSERM francese hanno proposto un modello su larga scala che dà conto di come la percezione cosciente di uno stimolo visivo subliminale possa maturare o meno a seconda che un circuito dell’attenzione intervenga per amplificare o attenuare la capacità di reazione dei neuroni nella rete. Il flusso di informazioni visive dalle aree sensoriali si trasforma e si propaga alle aree associative più profonde solo in condizioni di eccitabilità elevata. Se pensiamo all’attivazione di popolazioni neuronali come al propagarsi di un incendio in una foresta, l’attenzione agisce in modo analogo a modulare l’intensità del vento o della pioggia, e fa sì che il fuoco si propaghi più o meno rapidamente. Il livello di eccitabilità del campo è anche il perno intorno al quale ruotano le transizioni tra sonno e veglia, secondo quanto proposto ed esplorato da Giulio Tononi e collaboratori presso l’Università del Wisconsin. In questo caso la velocità di reazione dei neuroni, nel modello di circuito talamo-corticale proposto, veniva guidata dal rilascio di neuromodulatori capaci di modificare l’intensità dei contatti sinaptici. Ai due estremi della modulazione il campo neuronale mostrava due regimi dinamici qualitativamente differenti. In condizioni di bassa eccitabilità, l’attività su larga scala del modello appariva irregolare e con frequenze di emissione dei neuroni piuttosto contenute, analogamente a quanto osservato in un normale stato di veglia a riposo. All’altro estremo, una serie di onde viaggianti in successione attraversava l’intera area corticale simulata. A ogni istante solo una porzione di popolazioni neuronali mostrava un’attività elevata, mentre le altre si trovavano in uno stato quiescente, in attesa di recuperare le risorse necessarie alla ripresa dell’attività sostenuta. Tali profili spazio-temporali riproducevano con successo quelli osservati nelle fasi di sonno profondo. Spingere a livelli ancora più elevati l’eccitabilità del campo, per es. deprimendo la componente inibitoria della comunicazione neuronale o amplificandone la componente eccitatoria, porta le reti di questo tipo ad avere un’ulteriore transizione di fase in cui tutte le popolazioni del modello contribuiscono a sostenere uno stato collettivo di riverberazione parossistica ad altissima attività neuronale, spesso suggerita come il substrato neuronale di una condizione patologica come quella espressa durante un attacco epilettico. Paolo Del Giudice, Maurizio Mattia