dispositivi neuromorfi
Lo sviluppo dei dispositivi neuromorfi mira a emulare funzioni sensoriali e cognitive espresse nel sistema nervoso, attraverso circuiti microelettronici che riproducono in forma semplificata la struttura e la dinamica di neuroni e sinapsi che costituiscono la rete nervosa naturale. Questo approccio, diverso per obbiettivi e strumenti da quello classico dell’intelligenza artificiale, è sviluppato da una comunità scientifica nuova ed eterogenea, in cui si integrano competenze in neuroscienze, elettronica, fisica e matematica. A partire dalla fine degli anni Novanta del secolo scorso vi sono stati progressi incoraggianti e il settore sta raggiungendo una maturità in termini di standard condivisi, riviste internazionali di settore ed eventi scientifici di riferimento. D’altra parte, mentre gli aspetti tecnologici di questo approccio si stabilizzano, diventa sempre più chiaro che progressi importanti dipenderanno dalla capacità di integrare lo sviluppo di dispositivi neuromorfi con una teoria della computazione neuronale profondamente radicata nella conoscenza sperimentale del funzionamento del cervello su larga scala. [➔ corteccia cerebrale; neurone; neurotrasmissione;organi sensoriali artificiali; potenziale d’azione]
Il libro di Carver Mead (del California institute of technology) Analog VLSI and Neural Systems ha segnato l’atto di nascita del settore scientifico dei dispositivi neuromorfi. Nel 1982 un’iniziativa didattica, innovativa e visionaria, era stata lanciata dallo stesso Mead (un esperto di elettronica integrata), da John J. Hopfield (un biofisico che sarebbe stato in seguito un pioniere delle reti neurali) e da Richard P. Feynman (fisico teorico, mente straordinaria, originale ed eclettica), in cui si proponeva un approccio multidisciplinare a una fisica della computazione. Mead, in partic., sottolineava la differenza (qualitativa, non solo quantitativa) tra il funzionamento di un computer e quello del cervello, negando legittimità a una analogia che aveva sedotto molti nei decenni precedenti. Se da un lato l’inadeguatezza dell’analogia cervello-computer era ormai ampiamente riconosciuta, Mead assumeva un punto di vista costruttivo, suggerendo che il funzionamento di neuroni e sinapsi come ‘macchine elettrochimiche’ potesse trovare una controparte naturale nel funzionamento dei dispositivi di base dei circuiti microelettronici, in particolari regimi operativi. Un elemento di ispirazione per questa analogia fu il ruolo dei processi di diffusione che governano i flussi ionici attraverso i canali della membrana neuronale, e di quelli che presiedono allo spostamento dei portatori di carica nel canale di un transistor nel regime ‘sotto-soglia’. Mead concepì una realizzazione elettronica in cui la fisica dei dispositivi aveva una corrispondenza diretta con i processi alla base della comunicazione neuronale, da cui la locuzione coniata in seguito di dispositivi neuromorfi. Questo approccio implicava un radicale cambiamento di prospettiva rispetto all’intelligenza artificiale classica. Non si trattava più di astrarre la logica della computazione, fino a dare una definizione procedurale di un comportamento ‘intelligente’, indipendente dal substrato specifico della computazione, e codificare un algoritmo tipicamente implementato su una piattaforma di calcolo digitale; piuttosto, il comportamento intelligente veniva concepito come una proprietà emergente del substrato (la rete di neuroni e sinapsi), e la realizzazione elettronica (non più digitale, ma analogica) deve condividere con gli elementi del substrato biologico le proprietà fondamentali che ne determinano il comportamento collettivo. Lasciamo la parola allo stesso Mead: «Le nostre ‘battaglie’ con i computer digitali ci hanno insegnato molto sul modo in cui non avviene la computazione neuronale. Sfortunatamente, ci hanno insegnato relativamente poco sul modo in cui avviene. La ragione di questo fallimento risiede in parte nel fatto che una quota rilevante della computazione neuronale viene realizzata in modo analogico, piuttosto che digitale». E ancora: «La complessità di un sistema computazionale non deriva dalla complessità degli elementi che lo compongono, ma dalla miriade di modi in cui un numero molto elevato di tali elementi può interagire […] Non siamo in grado di ‘copiare’ i sistemi nervosi biologici, più di quanto non sappiamo creare una macchina volante con penne e ali. Tuttavia possiamo utilizzare quei principi di organizzazione come base per i nostri sistemi di silicio, allo stesso modo in cui un aliante costituisce un modello eccellente di un uccello che plana». Scorrendo l’indice del libro di Mead si è impressionati dal ventaglio di d. n. illustrati: seehear (un convertitore di segnali visivi in segnali acustici, pensato come ausilio per non vedenti); sensore ottico di movimento; coclea elettronica; retina di silicio (il dispositivo che più di ogni altro ha portato l’approccio neuromorfo alla ribalta). Oltre venti anni fa, dunque, la scienza dei d. n. si presentava come una realtà vigorosa, pronta per entrare nella sua maturità e offrire soluzioni innovative per la costruzione di dispositivi che fossero intelligenti ‘alla maniera del cervello’. In realtà, come spesso succede dopo una fase iniziale di grande eccitazione per una novità promettente, il progresso di questa disciplina non è stato il cammino trionfale che, forse ingenuamente, si era immaginato. Si noterà, infatti, che l’elenco, pur sorprendente, di dispositivi descritti da Mead, riguarda in tutti i casi funzioni sensoriali (uditive, visive) le quali, per quanto elaborate, affascinanti e di potenziale interesse applicativo, sono lontane dalle funzioni cognitive complesse che associamo spontaneamente al comportamento intelligente: alla capacità, per es., di utilizzare le informazioni sensoriali per adottare azioni appropriate che possono essere diverse secondo il contesto (ambientale e mentale), assegnando un significato a tali informazioni. Lo sviluppo di chip neuromorfi dotati di capacità di elaborazione complesse, evocative di capacità cognitive, è un obbiettivo ambizioso e, come vedremo, ancora lontano, per ragioni profonde e non semplicemente tecnologiche.
Le realizzazioni pionieristiche volte a emulare funzioni sensoriali primarie come la visione retinica, hanno avuto uno sviluppo tuttora ricco e vitale. La retina di silicio. Un esempio, che vale a illustrare lo stadio di sviluppo in questo ambito, è la retina di silicio creata nel 2006 da Tobias Delbruck e collaboratori presso l’Istituto di neuroinformatica di Zurigo. come nel caso del chip retinico di mead, dal quale peraltro differisce per molti aspetti, questo sensore reagisce dinamicamente a variazioni locali di contrasto luminoso; le sue caratteristiche sono notevoli (128x128 pixel, una dinamica di 120 dB, un consumo di soli 23 mW, una elevata sensibilità pari al 2,1% di contrasto, e tempi di risposta di 15 ms). La caratteristica principale sottolineata dagli autori, che segna una differenza sostanziale rispetto ai dispositivi di acquisizione visiva convenzionali, è la indipendenza del dispositivo dalla logica di acquisizione a fotogrammi. Al posto della lettura temporizzata dell’intera matrice di pixel, indipendentemente dal contenuto informativo associato, il dispositivo retinico è basato su eventi: solo i neuroni associati ai pixel con variazioni dinamiche di contrasto si attivano e codificano tali variazioni in modo asincrono come impulsi stereotipati (spikes) analoghi ai potenziali d’azione dei neuroni biologici. In questo modo si ottiene una rappresentazione visiva molto economica e temporalmente fedele, si elimina molta ridondanza e non si richiedono temporizzazioni digitali veloci (il che consente i consumi molto bassi sopra riportati, che rendono il dispositivo appetibile per impieghi in condizioni naturali anche per tempi lunghi). La rete WTA. mentre si perfezionavano i chip neuromorfi con funzioni sensoriali, ben presto l’orizzonte concettuale si è esteso a chip ispirati a funzioni di elaborazione nervosa, immaginando nel lungo periodo lo sviluppo di sistemi piccoli, autonomi e a basso consumo in cui si integrassero funzioni sensoriali e capacità di elaborazione in tempo reale. Una tipica funzione di valore computazionale generale è la scelta tra diverse alternative, in funzione dell’input proposto (per es., focalizzare l’attenzione su un oggetto di interesse all’interno di una scena visiva complessa e rumorosa). A questo riguardo, uno dei possibili ‘atomi computazionali’ che ha attratto l’attenzione di diversi ricercatori è la cosiddetta rete winner-take-all (WtA). In questo tipo di rete i neuroni vicini (nel senso che hanno proprietà di risposta simili a certe caratteristiche dell’input) si eccitano a vicenda (sono connessi da sinapsi eccitatorie), mentre neuroni lontani si inibiscono reciprocamente (sinapsi inibitorie); questo schema di connessione sinaptica è qualitativamente compatibile con l’organizzazione colonnare della corteccia, e realizza un meccanismo globale di cooperazione/competizione in cui lo stato di attivazione di ogni neurone dipende dalla distribuzione di input a tutti i neuroni e dal loro stato. Semplici reti WtA sono state realizzate in chip neuromorfi da diversi gruppi, e le loro proprietà sono state studiate in contesti semplici: per es., dato un input distribuito sui neuroni della rete secondo un profilo bimodale, con picchi di intensità leggermente diversa, la rete amplifica la differenza in modo tale che essenzialmente solo i neuroni che ricevono l’input maggiore rimangono attivi. In un contesto più complesso, un sistema composto da sensori retinici neuromorfi e reti WtA (oltre ad altri elementi) ha dimostrato la capacità di tracciare oggetti in movimento in tempo reale (progetto europeo cAVIAr, Context Aware Vision using Image-based Active Recognition).
Dinamica ad attrattori e memoria associativa. Un altro elemento computazionale generico di interesse, probabilmente rilevante nell’espressione di diverse funzioni corticali, è costituito da configurazioni della rete neurale che agiscono come attrattori della dinamica, cioè della evoluzione temporale della rete. Un livello sufficiente di mutua eccitazione tra specifici gruppi di neuroni della rete fa sì che quando un sottoinsieme dei neuroni di un gruppo viene attivato da un input, esso sia in grado di reclutare gli altri neuroni dello stesso gruppo, e la rete evolve nel tempo verso uno stato di equilibrio in cui l’intero gruppo di neuroni rimane globalmente attivo per effetto della mutua eccitazione, anche quando lo stimolo viene rimosso. Il livello di attività globale della rete viene controllato da un bilanciamento opportuno tra componente eccitatoria e inibitoria della trasmissione sinaptica. L’insieme di configurazioni iniziali della rete (possibili sottogruppi stimolati) per le quali la rete converge nel tempo allo stesso attrattore (configurazione di equilibrio) definisce il bacino di attrazione. L’interesse computazionale della dinamica ad attrattori risiede nel fatto che un sistema dotato di diversi attrattori agisce come una memoria associativa (gli attrattori sono i ‘ricordi’, e i loro bacini sono gli stimoli in grado di suscitare quei ricordi), ed esprime proprietà di correzione di errore (recuperare un dato archiviato da una informazione parziale). In una prospettiva più ampia, gli attrattori sono stati inoltre proposti come elementi dinamici di base per la modellizzazione di una varietà di processi, tra cui quelli che presiedono alla decisione, o sottendono le ambiguità percettive. Negli ultimi due anni, un lavoro in collaborazione tra l’Istituto superiore di sanità e l’università di magdeburgo, ha permesso di riprodurre una dinamica collettiva di questo tipo in un chip neuromorfo, il che rappresenta un passo importante verso sistemi neuromorfi di classificazione.
Sistemi neuromorfi complessi. Questi sistemi devono includere chip diversi, talvolta eterogenei, tra loro interagenti, e richiedono una infrastruttura di comunicazione appropriata per la quale, ancora una volta, il sistema nervoso offre l’ispirazione. I neuroni comunicano tra loro attraverso un alfabeto semplice e universale: i potenziali d’azione, o spikes, impulsi stereotipati che vengono emessi da un neurone quando la differenza di potenziale tra l’interno e l’esterno della sua membrana cellulare supera una soglia e che, mediante il rilascio di diversi tipi di neurotrasmettitori attraverso la giunzione sinaptica e il loro legame con recettori specifici sul neurone ricevente, ne determinano una variazione del potenziale transmembrana che lo può avvicinare (eccitazione) o allontanare (inibizione) a sua volta dalla soglia di emissione (➔ neuroni e sinapsi, modelli teorici di). La rete neurale bidimensionale realizzata su chip non può duplicare l’elevatissima connettività di cui si serve la rete nervosa naturale; un sistema di comunicazione per chip neuromorfi proposto già nel 1993 (AEr, Address-Event Representation), e tuttora ampiamente adottato, realizza un interessante compromesso: è di fatto un bus di comunicazione asincrono, sul quale viene resa disponibile, ogni volta che un neurone della rete emette uno spike, la sua identità; tale informazione è digitale, mentre gli intervalli temporali tra gli spike costituiscono una informazione analogica (non c’è alcun clock a governare il bus). recenti sviluppi hanno arricchito lo schema AEr di varie possibilità di gestione programmata, interfacciando il sistema neuromorfo con un computer, in modo da poter pianificare e gestire dei veri e propri esperimenti complessi su sistemi neuromorfi. Chip neuromorfi ‘plastici’. fin qui abbiamo considerato reti neurali su silicio con connessioni sinaptiche fissate a priori. tuttavia il cervello esprime proprietà straordinarie di plasticità, ossia di riconfigurazione dinamica della rete nervosa secondo le esigenze imposte dall’ambiente. Il substrato di tale plasticità si pensa risieda nella capacità delle sinapsi di modificare la propria efficacia, cioè l’effetto di uno spike sul neurone ricevente. Sono stati proposti diversi modelli teorici di plasticità sinaptica, ispirati in vario modo ai risultati degli esperimenti. La rilevanza della plasticità ha spinto i progettisti di chip neuromorfi a dotare le sinapsi di proprietà plastiche, e molti dei modelli teorici proposti hanno trovato una realizzazione in questo ambito, con l’obiettivo di dotare i chip di capacità di apprendimento. Oltre alla scelta del meccanismo specifico di plasticità sinaptica, il modo in cui l’interazione con l’ambiente influenza tale plasticità si può articolare secondo diversi schemi di apprendimento: supervisionato, non supervisionato, di rinforzo, ecc. Un esempio: nel 2009 due lavori svolti presso l’Istituto superiore di sanità e presso l’Istituto di neuroinformatica di Zurigo, hanno affrontato un problema di classificazione eseguito da chip neuromorfi. Le reti neurali realizzate su chip dovevano imparare a separare in due classi, secondo una regola assegnata, una serie di configurazioni di input, segnalando la classe riconosciuta mediante il livello di attivazione di un gruppo di neuroni di output. L’apprendimento in questo caso è semisupervisionato, nel senso che in una fase preliminare di addestramento lo stato in output viene forzato al livello di attività desiderato per ogni classe, e le sinapsi della rete si riorganizzano in modo autonomo, secondo una dinamica specifica proposta da Stefano fusi (columbia University).
Neurofisiologia su silicio. Una rete neuronale di silicio è un sistema dinamico complesso; sebbene sia molto più semplice, dal punto di vista circuitale, dei complicatissimi chip digitali che fanno funzionare i nostri computer, al contrario di questi possiede spesso un comportamento predicibile solo a livello statistico e, a seconda dell’architettura e del modello implementato, il repertorio dei comportamenti dinamici esibiti può essere molto ricco. In altre parole, effettuare esperimenti con un chip neuromorfo implica una comprensione della dinamica del sistema implementato che va molto al di là della conoscenza elettronica dei circuiti realizzati, e richiede un dialogo continuo con la teoria. La sperimentazione su chip neuromorfi realizza così una specie di neurofisiologia su silicio.
Nel confrontare le capacità di elaborazione di segnali naturali da parte di sistemi nervosi anche semplici e quelle che riusciamo a ottenere dai nostri calcolatori, si afferma spesso che una differenza cruciale risiede nella natura essenzialmente seriale del calcolo digitale, e di quella intrinsecamente parallela della computazione neuronale. tale distinzione, senz’altro valida, non deve trarre in inganno. già negli anni Ottanta del 20° sec. le architetture dei calcolatori evolvevano, in varie forme, verso il parallelismo; la scelta di avere un numero relativamente piccolo di processori molto potenti (l’approccio al supercomputing di quegli anni) si rivelò praticabile e utile, ma non implicava un cambiamento radicale della logica computazionale. Approcci più spinti, a elevato parallelismo, basati su migliaia di microprocessori connessi tra loro in topologie complesse, naufragarono dopo molte speranze iniziali, fondamentalmente per la mancanza di strategie di programmazione in grado di sfruttare la potenza di calcolo potenziale, ossia capaci di adattare in modo ragionevolmente automatizzato la logica seriale degli algoritmi all’architettura parallela del computer. Nel considerare l’elaborazione dell’informazione nel cervello, e l’elevato parallelismo della architettura neuronale, dobbiamo apprezzare il fatto che tale ricchissima architettura viene utilizzata dal cervello in modo del tutto non convenzionale, e che tuttora non ne comprendiamo che alcuni dettagli. A parte, forse, alcune aree di input sensoriale e di output motorio, il parallelismo della computazione nervosa non è assimilabile alla elaborazione parcellizzata e simultanea di porzioni identificabili di informazione. Quando si misura l’attività del cervello in relazione a funzioni complesse, si osserva in effetti l’attivazione concertata di molte popolazioni neuronali; la specificità di questi schemi di attivazione si mappa in certa misura su moduli neuronali con una controparte anatomicamente identificabile nelle colonne corticali, all’interno di aree genericamente ascrivibili a diverse categorie di funzioni (visive, motorie ecc.). tuttavia tale specificità non è univoca: le rappresentazioni neuronali di elaborazioni diverse sono spesso ampiamente sovrapposte, e la logica che presiede alla formazione di tali rappresentazioni distribuite ci è tuttora ignota. Un ingrediente fondamentale per gettare un po’ di luce in questa oscurità è la capacità, in rapida evoluzione, di osservare sperimentalmente il cervello in azione su più scale temporali e spaziali (dalle misure elettrofisiologiche di singolo neurone e di popolazione, all’imaging ottico, alla risonanza magnetica funzionale): poter osservare mappe e rappresentazioni mentali nel loro sviluppo dinamico, in relazione a contesti sensoriali e comportamentali controllati, e nello stesso tempo avere accesso alla dinamica di neuroni e sinapsi che ne costituiscono il substrato microscopico, può fornire alla teoria l’insieme minimale di caratteristiche microscopiche in grado di dar conto dei fenomeni emergenti macroscopici. I limiti attuali dello sviluppo di d. n. in grado di emulare funzioni complesse non sembra risiedere tanto nella inadeguatezza dell’hardware, quanto nella primitiva comprensione del paradigma sotteso alla computazione nervosa. Progressi importanti potranno derivare quindi dallo sviluppo congiunto delle tecniche sperimentali, degli approcci teorici e dei dispositivi neuromorfi. forse, la menzionata molteplicità di scale oggi accessibili alla registrazione dell’attività nervosa potrà suggerire di volta in volta non solo il livello appropriato di descrizione teorica, ma anche quello della migliore implementazione elettronica. Paolo Del Giudice