Il contributo è tratto da Storia della civiltà europea a cura di Umberto Eco, edizione in 75 ebook
Pur originandosi concettualmente nella seconda metà dell’Ottocento, soltanto negli ultimi quarant’anni le neuroscienze si costituiscono come impresa coordinata di ricerca. L’integrazione è stata promossa dalle acquisizioni di diverse linee di ricerca legate all’affermazione della teoria del neurone agli inizi del Novecento, in particolare dagli studi sulla trasmissione nervosa nelle sue dimensioni elettrofisiologiche e farmacologiche. Dagli anni Trenta la crescente disponibilità di informazioni e tecniche di indagine avvia la ricerca sulle basi biologiche del comportamento, delle emozioni, delle funzioni cognitive, impresa che compirà un nuovo salto teorico e operativo dagli anni Sessanta con l’avvento della biologia molecolare.
L’affermarsi della teoria del neurone
Il termine neuroscienze è stato utilizzato per la prima volta dal neurofisiologo statunitense Francis Otto Schmitt nel gennaio 1962. In quel periodo Schmitt raccoglie alcuni eminenti studiosi del cervello presentando loro un progetto dal titolo Neurosciences Research Program, che ha lo scopo di coordinare le ricerche di base sul sistema nervoso, a livello fisiologico, biochimico, genetico-molecolare, farmacologico, anatomo-istologico, patologico, per dar luogo a un nuovo corpo di discipline, le neuroscienze, caratterizzate da elevato interscambio, cooperazione, da obiettivi e strategie didattico-formative del tutto proprie.
La possibilità di definizione delle neuroscienze come corpus di ricerche articolato ma sostanzialmente unitario è legata all’affermazione e agli sviluppi della teoria neuronica, ovvero del neurone. Proposta nel 1889 dallo spagnolo Santiago Ramón y Cajal (1852-1934), tale teoria afferma che le cellule nervose, al pari di quelle degli altri tessuti, devono essere considerate come unità indipendenti. Il sistema nervoso, quindi, non va considerato, come voleva Camillo Golgi, alla stregua di un reticolo continuo di fibre senza soluzione di continuità. L’affermazione della teoria neuronale di Cajal segna una rivoluzione nello studio del sistema nervoso. Ciò è dimostrato peraltro dal fatto che i termini centrali del dizionario concettuale delle moderne neuroscienze vengono introdotti tutti successivamente all’elaborazione della teoria. I termini dendrite (una delle ramificazioni del neurone che trasporta il segnale nervoso in direzione centripeta) e assone (il collegamento del corpo cellulare di un dato neurone con altri neuroni) vengono introdotti rispettivamente nel 1890 da Wilhelm His e nel 1896 da Albrecth von Kolliker; il termine neurone è proposto nel 1891 da Wilhelm von Waldeyer; la parola sinapsi è coniata nel 1897 da Charles Scott Sherrington come nome di una ancora ipotetica struttura di contiguità ma di non continuità tra neuroni.
La scoperta dei meccanismi della trasmissione nervosa e gli sviluppi della neurofarmacologia
L’affermazione della dottrina neuronica impone alla ricerca il problema di come l’impulso nervoso potesse propagarsi attraverso la discontinuità della sinapsi.
La prima ipotesi sulla mediazione chimica nell’impulso nervoso è legata alle ricerche sui meccanismi delle regolazioni cardiovascolari, in particolare alla scoperta dell’azione dell’estratto di ghiandola surrenale sul sistema cardiovascolare fatta da George Oliver (1841-1915) ed Edward Albert Sharpey-Schafer nel 1894. Nel tentativo di interpretare i meccanismi fisiologici di tale fenomeno, il fisiologo inglese Thomas Renton Elliot (1877-1961), ipotizza nel 1904 che i nervi del sistema nervoso simpatico possano agire liberando adrenalina.
In questo stesso periodo, John Newport Langley (1852-1925) elabora un complesso modello teorico di trasmissione nervosa chimicamente mediata. Nei suoi studi sull’antagonismo fra nicotina e curaro nelle terminazioni nervose del muscolo di rana, Langley osserva che l’effetto stimolante della nicotina persisteva anche dopo la denervazione. Questo fatto costituiva una notevole anomalia per la teoria elettrica della trasmissione nervosa e dell’eccitazione muscolare. Langley interpreta il fenomeno ipotizzando che la mediazione chimica dell’impulso nervoso si realizzi attraverso l’azione di una sostanza recettiva che reagisce ai farmaci secondo le leggi della chimica.
Altri studi farmacologici condotti nei primi vent’anni del Novecento soprattutto da Henry Hallet Dale (1875-1968), indicano un possibile ruolo dell’acetilcolina nella conduzione dell’impulso nervoso nel sistema parasimpatico. Sulla base di queste evidenze, nel 1921, il farmacologo austriaco Otto Löwi (1873-1961), mette a punto a Graz un protocollo sperimentale col quale dimostra che la trasmissione nervosa è un fenomeno neuroumorale mediato a livello delle terminazioni nervose da sostanze con azione farmacologica potente e specifica.
Col progresso delle tecniche sperimentali, soprattutto istologiche, istochimiche e in virtù della disponibilità di nuove molecole attive sul sistema nervoso, nuovi neurotrasmettitori vengono rapidamente scoperti nel sistema nervoso centrale. La noradrenalina, come abbiamo detto, identificata come neurotrasmettitore nel 1947; la serotonina, già isolata nell’intestino da Vittorio Ersparmer nel 1937, ma allora chiamata enteramina, viene individuata isolata e cristallizzata come sostanza vasocostrittrice nel siero da Irvine Heinley Page (1901-1991) e da Maurice M. Rapport e perciò chiamata serotonina nel 1948; la dimostrazione del ruolo dell’acido gamma-aminobutirrico (GABA) nella fisiologia delle sinapsi inibitorie encefaliche da Harry Grundfest (1904-1983) presso i Marine Biological Laboratories a Woods Hole nel Massachusetts, nel 1958, lo stesso anno in cui Arvid Carlsson (1923-) dimostra la presenza della dopamina nel cervello.
L’evoluzione dell’elettrofisiologia e le sue applicazioni allo studio delle funzioni integrate del cervello
Le tappe fondamentali della storia dell’elettrofisiologia sono determinate soprattutto dalle innovazioni delle tecniche di misurazione e registrazione dei fenomeni elettrici: il galvanometro per la scoperta del potenziale d’azione verso la metà dell’Ottocento; l’elettrometro capillare per la dimostrazione nel 1899 del periodo refrattario dei nervi, quella proprietà elettrofisiologica per cui una fibra nervosa non può scaricare immediatamente dopo aver condotto un impulso nervoso, acquisizione con cui si accerta che le fibre nervose trasmettono l’informazione attraverso schemi di impulsi discreti piuttosto che flussi continui. Così anche nel Novecento il primo significativo progresso nelle indagini elettrofisiologiche si deve a una innovazione negli strumenti di rilevazione dei processi elettrici nell’organismo, l’elettrometro a corda con cui nel 1902 Wilhelm Einthoven esegue il primo elettrocardiogramma della storia.
Attraverso l’elettrometro a corda Julius Bernstein descrive l’eccitazione nervosa come scomparsa della polarizzazione dello stato di riposo, cioè come depolarizzazione successiva a un improvviso aumento della permeabilità ionica della membrana neuronale. L’idea di Bernstein, che sarà indicata come teoria di membrana dell’eccitazione, suggerisce finalmente la via corretta per la descrizione dei fenomeni di trasmissione e conduzione nervosa: nella propagazione di un’onda di depolarizzazione attraverso le fibre nervose. Lo studio dei fenomeni elettrofisiologici si sposta così finalmente verso le proprietà della membrana cellulare, e questa struttura di separazione ancora grossolanamente descritta tra il mezzo interno e il mezzo esterno, iniziò ad assumere una connotazione chimico-fisica.
La svolta cruciale nella storia delle indagini sulla natura dell’impulso nervoso giungerà diversi anni più tardi, con lo sviluppo degli amplificatori termoionici e con il loro uso unito a quello del tubo a raggi catodici nell’oscilloscopio introdotto nel 1921 da Herbert Gasser (1888-1963) e Joseph Erlanger (1874-1959) alla Washington University di Saint Louis.
Negli anni immediatamente successivi, l’oscilloscopio a raggi catodici permette a Edgar Douglas Adrian (1889-1977) di dettagliare finalmente i meccanismi di codifica elettrofisiologica dei segnali nervosi fino al livello del singolo neurone. Negli anni Venti, Adrian è già noto per aver dimostrato nel 1914 il principio tutto-o-nulla del segnale elettrico, quella proprietà dell’eccitabilità nervosa per cui un neurone scarica o meno rispetto a una soglia di stimolazione indipendentemente da quanto lo stimolo superi o sia al di sotto della soglia stessa.
Nel 1926, Adrian riesce a studiare l’attività elettrica di una cellula nervosa isolata. I risultati di questo esperimento epocale segnano l’inizio della neurofisiologia contemporanea, in particolare perché stabiliscono definitivamente che una modulazione a codice di impulsi è il mezzo attraverso cui le cellule nervose codificano l’informazione.
Allo stesso modo dei progressi nella strumentazione per la misurazione dei segnali elettrici, anche gli sviluppi dei modelli sperimentali sono stati determinanti nell’evoluzione della neurofisiologia. A questo proposito va ricordata l’introduzione nella prassi sperimentale dell’assone gigante del calamaro a opera di John Zacharias Young nel 1936.
Attraverso questo preparato Alan Lloyd Hodgkin e Bernard Katzdimostrano che il potenziale d’azione del nervo del calamaro diminuisce di ampiezza riducendo la concentrazione extracellulare del sodio. Ciò suggerisce che l’impulso nervoso sia la conseguenza di una modificazione specifica della permeabilità di membrana indotta dallo stimolo elettrico. Durante il trasporto dell’impulso nervoso avviene cioè sulla membrana il passaggio da una permeabilità selettiva al potassio a una permeabilità selettiva al sodio. La teoria di Hodgkin e Katz e il carattere attivo della neurotrasmissione vengono dimostrati conclusivamente nel 1952 grazie all’utilizzo di una nuova innovazione nei mezzi di indagine, la tecnica del voltage-clamp sviluppata nel 1949.
Negli anni successivi le indagini hanno chiarito il meccanismo della permeabilità agli ioni e del flusso ionico implicato nell’eccitabilità di membrana e nella conduzione dell’impulso nervoso a livello molecolare. Ancora una volta, in questo senso più che gli sviluppi concettuali, determinante è stato il progresso delle tecniche di indagine: l’invenzione, nel 1976, da parte di Erwin Neher e Bert Sakmanndella tecnica del patch-clamp per registrare gli eventi elettrici elementari della membrana, la corrente che passa attraverso una singola molecola del meccanismo di permeazione presente nella struttura di membrana. Le registrazioni a patch-clamp hanno dimostrato conclusivamente che la corrente di membrana è legata al passaggio selettivo di ioni attraverso strutture proteiche incastonate nella membrana stessa, i canali ionici.
La scoperta dell’elettroencefalografia
È Hans Berger, nel 1924, il primo studioso a utilizzare il galvanometro per registrare l’attività elettrica del cervello in soggetti umani, con l’obiettivo dichiarato di “oggettivare l’anima”. Nelle sue osservazioni, Berger rileva i due tipi di attività elettrica cerebrale normale: il ritmo alfa e il ritmo beta, proponendo il termine elettroencefalogramma per indicare questa nuova tecnica di analisi delle funzioni del sistema nervoso. Al di là dell’importanza delle registrazioni dell’attività elettrica del cervello, il significato delle osservazioni di Berger risiede nella conclusione stabilita fra i mutamenti dei ritmi elettrici e quelli degli stati di coscienza.
Pubblicate nel 1929, le ricerche di Berger vengono accolte con grande scetticismo. La comunità scientifica ritiene infatti che i tracciati EEGrafici di Berger costituiscano degli artefatti, data la natura ancora imprecisa delle misurazioni di voltaggi bassi come quelli cerebrali da parte di questi primi apparecchi.
Soltanto nel 1935 questo perdurante scetticismo viene definitivamente superato con una dimostrazione plateale dell’origine nervosa delle onde cerebrali offerta da Edgar Adrian e Brian Matthews nel corso di una seduta della Società Inglese di Fisiologia, utilizzando l’oscilloscopio a raggi catodici.
Neurobiologia degli stati di coscienza
L’evoluzione delle tecniche di indagine elettrofisiologica e l’affermazione dell’elettroencefalografia sono state peraltro determinanti alla comprensione dei meccanismi di regolazione degli stati di coscienza. Un primo contributo importante in tal senso si deve negli anni Trenta agli studi di Frederic Bremer (1892-1982).
Osservando gli effetti della resezione delle fibre sensoriali afferenti a vari livelli dell’encefalo, Bremer dimostra che il sonno e la veglia non sono processi passivi e regolati dall’esterno, dalla presenza o dall’assenza di stimoli sensoriali. Il preparato sperimentale di Bremer indica l’esistenza di un sistema di controllo attivo situato nel tronco cerebrale. Sarà Giuseppe Moruzzi a chiarire definitivamente la questione con la scoperta del sistema reticolare fatta assieme a Horace Magoun nel 1949 e con le successive ricerche condotte su questo apparato fisiologico col suo gruppo di collaboratori a Pisa.
Neuroscienze e comportamento: il problema delle emozioni
Un altro importante capitolo della ricerca neuroscientifica, anche per le sue implicazioni cliniche, è stato quello della ricerca sulla biologia delle emozioni.
Agli inizi del Novecento questo filone di indagine è ispirato dalla teoria periferica delle emozioni proposta tra il 1884 e il 1885 dal filosofo e psicologo americano William James e dal fisiologo danese Carl Lange secondo la quale gli stati affettivi vanno considerati effetto della percezione delle reazioni fisiologiche innescate da eventi in cui è in gioco l’integrità ovvero la sopravvivenza dell’individuo o della specie.
Nei primi due decenni del Novecento i progressi nella caratterizzazione delle reazioni fisiologiche concomitanti alle emozioni dimostrano l’inconsistenza della teoria James-Lange e indirizzano decisamente la ricerca verso la localizzazione dei centri cerebrali implicati nelle emozioni. Prima organica espressione di questo nuovo orientamento è la cosiddetta teoria talamica, formulata nel 1927 dal fisiologo statunitense Walter Bradford Cannon e così chiamata in quanto identificava il centro organizzatore della risposta emotiva nel nucleo del talamo.
Il grado crescente di risoluzione degli strumenti e delle tecniche di indagine davano impulso a una progressiva focalizzazione dell’approccio localizzazionistico. Un allievo di Cannon, Philip Bard, osservando nei gatti che le risposte emotive integrate cessano a seguito dell’asportazione dell’ipotalamo, ipotizza così che questo centro nervoso profondo sia la struttura centrale per l’organizzazione e l’espressione delle emozioni.
Un importante avanzamento nelle tecniche di indagine sperimentale sul cervello fu in quegli anni la generalizzazione dell’uso del metodo stereotassico. Il metodo stereotassico permette di posizionare in modo preciso e riproducibile elettrodi nelle strutture profonde del cervello degli animali da esperimento, attraverso un sistema a tre coordinate in grado di localizzare i nuclei sottocorticali. Lo stereotassico, così, consente di stimolare i centri profondi del cervello senza procedimenti chirurgici. Diventa quindi possibile osservare i meccanismi dell’ipotalamo finalmente privi delle inevitabili alterazioni funzionali prodotte dalle tecniche invasive usate per raggiungere e stimolare questo centro cerebrale profondo.
L’applicazione dello stereotassico al problema della localizzazione dei centri emotivi consente di identificare la complessa planimetria funzionale dell’ipotalamo. In questo filone di ricerca si distinguono le indagini di Walter Hess, condotte su animali svegli, con elettrodi impiantati nel cervello e collegati a lunghi cavi flessibili. In questo modo, Hess può studiare gli effetti della stimolazione elettrica mentre gli animali sono liberamente impegnati nelle loro normali attività. I risultati degli esperimenti così condotti dimostrano che l’ipotalamo è suddividibile in due regioni, ognuna deputata al controllo di due opposti schemi emotivi e comportamentali, quelli funzionali alla lotta e alla fuga e quelli finalizzati al reintegro e al recupero delle energie e alla riproduzione.
Una visione meno localizzazionistica e semplificata di quelle sopra esposte, frattanto, viene fornita dal medico francese James Papez. Alla fine degli anni Trenta, sulla base di evidenze cliniche e anatomiche Papez propone di correlare le emozioni a un insieme funzionale di strutture del cervello definite lobo limbico da Paul Broca nel 1878, strettamente connesse all’ipotalamo e contenenti l’ippocampo, il nucleo dell’amigdala e del setto; un’organizzazione funzionale capace di integrare le diverse dimensioni del fatto emotivo, da quella fisiologica e omeostatica a quella cognitiva.
Neurofarmacologia delle emozioni
Con l’affermazione della neurofarmacologia e con la progressiva caratterizzazione delle possibili correlazioni tra neurotrasmettitori e comportamenti affettivi, il programma localizzazionistico trova in prima istanza un nuovo fecondo campo di applicazione. Si è tentato di individuare le dimensioni particolari dell’universo emotivo con le funzioni di specifici mediatori chimici dell’impulso nervoso, in particolare le cosiddette amine biogene, noradrenalina, serotonina e dopamina. Tra il 1950 e il 1970, però, le acquisizioni sui correlati biologici delle risposte affettive dimostrano la natura eterogenea ma integrata delle dimensioni fisiologiche in gioco, da quelle metaboliche a quelle del sistema nervoso centrale. Importanti a questo proposito le scoperte realizzate dalla neuroendocrinologia e quelle sui fenomeni della neurosecrezione, in particolare le scoperte dei fattori di rilascio ipotalamici che, proprio applicate alla comprensione del fatto emotivo, dimostrano le fitte correlazioni tra sistemi fisiologici diversi, le influenze e le reciproche regolazioni tra i processi endocrini, autonomici, cerebrali e immunitari. La scoperta dell’importanza dell’ubiquità funzionale di molti fattori e messaggeri chimici endogeni e delle corrispondenze funzionali tra sistemi hanno così dimostrato in modo definitivo che l’organizzazione dell’attività nervosa non si esaurisce soltanto in una struttura connessionistica fatta di vie nervose e sinapsi, ma include anche un sistema proprio di segnali chimici in grado di codificare e comunicare le informazioni in maniera estesa, persistente, precisa.
La costruzione del cervello
Il superamento del classico paradigma connessionistico è legato anche agli studi su altri fattori e processi chimici cruciali nella costruzione del sistema nervoso centrale e nelle dinamiche epigenetiche che modellano il cervello attraverso l’influenza delle esperienze. Questo campo di indagine viene sostanzialmente aperto negli anni Quaranta dalle ricerche di Roger Wolcott Sperry (1913-1994) e si afferma definitivamente negli anni Sessanta in seguito alla scoperta del fattore di crescita nervoso, l’NGF, da parte di Rita Levi Montalcini.
Sperry aveva iniziato a lavorare su problemi di sviluppo del sistema nervoso con Karl Lashley e Paul Weiss. In particolare con quest’ultimo, Sperry indaga, con ingegnose tecniche di omotrapianto sugli animali, i processi di reinnervazione e di rigenerazione delle fibre nervose, scoprendo il carattere specifico delle connessioni tra parti del corpo e organizzazione del sistema nervoso.
Proseguendo le ricerche neuroembriologiche, Sperry dimostra l’impossibilità di spiegare il carattere preordinato della ricostruzione dei circuiti nervosi facendo semplicemente riferimento a processi meccanici. Nel 1943 inizia così a ipotizzare che la specificità dell’indirizzamento delle proiezioni nervose dipenda da intrinseche qualità fisico-chimiche proprie di ogni connessione. Egli propone così di spiegare la rigenerazione come un processo promosso e regolato da fattori di crescita biochimici. Nei dieci anni successivi Sperry elabora compiutamente il modello della chemoaffinità, secondo cui le fibre nervose sono guidate da un doppio gradiente chimico allo stesso tempo del bersaglio e della fibra a esso afferente; una teoria che costituisce ancora oggi lo schema interpretativo per la comprensione e l’indagine sui processi di formazione sinaptica.
Sperry va ricordato anche per aver individuato la sindrome da disconnessione tra emisferi cerebrali negli animali, fatta con Ronald Myers nel 1953. È una scoperta che avvia un importante progetto di ricerca che porterà lo stesso Sperry e Michael Gazzaniga nel 1961 ad accertare nell’uomo l’esistenza di una specifica organizzazione tra emisferi del cervello e a dare impulso così ai fondamentali studi sulle specializzazioni e lateralizzazioni funzionali degli emisferi cerebrali.
Nello stesso periodo in cui Sperry elabora il modello della chemoaffinità, la Levi Montalcini avvia il filone di ricerca decisivo per la scoperta dell’NGF (Nerve Growth Factor, fattore di crescita nervosa), iniziando a lavorare sull’embrione di pollo con innesti di sarcoma 180, un tumore maligno del topo. I particolari effetti di questo trapianto nella crescita e nella distribuzione della fibre nervose suggeriscono alla Levi Montalcini l’idea che le cellule tumorali del sarcoma rilasciassero una qualche sostanza diffusibile in grado di stimolare la differenziazione e la crescita delle cellule nervose recettive alla sua azione.
Negli anni successivi la Levi Montalcini riproduce gli esperimenti sull’embrione di pollo in preparati di tessuto nervoso coltivati in vitro. Nel 1954 con la collaborazione di Stanley Cohen arriva a isolare e identificare una frazione nucleo-proteica tumorale in grado di stimolare la crescita nervosa (NGF), e di cui vengono rapidamente determinati la natura proteica, il peso molecolare e le proprietà fisico-chimiche.
Nel 1958 si identifica un’altra ricca sorgente di NGF nelle ghiandole sottomandibolari del topo. Cohen estrae la molecola attiva dell’NGF e la Levi Montalcini riproduce tutti gli esperimenti sino ad allora condotti ottenendo di nuovo gli stessi risultati.
A questo punto va chiarita la questione dell’eventuale ruolo di questa molecola nel normale sviluppo embriologico del sistema nervoso. Nel 1959, un esperimento condotto con un antisiero specifico contro l’NGF iniettato in cavie ai primi giorni di vita prova che l’inattivazione dell’NGF endogeno determina una marcata atrofia dei gangli simpatici: a dimostrazione che l’NGF costituisce un fattore fondamentale nel normale sviluppo del sistema nervoso. Dal 1960 in poi vengono determinati i meccanismi d’azione dell’NGF, le relazioni con i recettori, i vari ruoli funzionali, l’identità chimica, la dimensione genetica, l’interazione con il sistema nervoso centrale, con quello immunitario e con il sistema endocrino, l’influenza sul comportamento. La ricerca sull’NGF ha aperto inoltre il filone di studio relativo ai fattori di crescita ed è così diventata un programma di indagine a carattere paradigmatico che ha mutato il volto e indicato nuove frontiere della ricerca nelle neuroscienze.
Neuroscienze e funzioni cognitive
La struttura concettuale che informa e orienta lo studio neuroscientifico delle funzioni cognitive emerge nei circa cinquant’anni che vanno dalla definizione della teoria neuronale di Cajal, alla teoria delle assemblee cellulari formulata nel 1949 da Donald Hebb. Questo modello teorico si basa sull’idea che l’apprendimento e i contenuti mnestici (legati alla memoria) dipendano da cambiamenti nella forza e nell’efficienza di specifiche connessioni sinaptiche. Questa impostazione concettuale ha determinato la divisione e l’avvicendarsi di due diversi filoni di ricerca nello studio della neurobiologia della memoria e dell’apprendimento: l’indagine sui sistemi dell’apprendimento e della memoria e la questione della natura molecolare dell’apprendimento e della memoria. Il primo, che caratterizza tutti i lavori iniziali di neuroscienze cognitive, tenta di comprendere dove vengano immagazzinati gli apprendimenti e i contenuti di memoria e in che modo i circuiti neurali lavorino assieme per fissare, analizzare e richiamare le memorie. Il secondo invece si è concentrato sui meccanismi di modificazione sinaptica alla base dell’apprendimento e dei processi mnestici.
Le straordinarie scoperte relative alla localizzazione cerebrale delle funzioni linguistiche e motorie della seconda metà dell’Ottocento avevano imposto un modello teorico localizzazionistico e promosso un programma di ricerca teso alla mappatura delle funzioni cognitive e in particolare della memoria. Agli inizi del Novecento il paradigma localizzazionista viene ulteriormente rafforzato dalla scoperta di Paul Flechsig (1847-1929) di differenze regionali nella maturazione della sostanza bianca e della corteccia cerebrale sulla mielogenesi (il processo di formazione della guaina mielinica che inizia durante la vita endouterina e si completa dopo la nascita, portando a termine la maturazione del sistema nervoso) e dai riscontri sulla topografia istologica della corteccia di Korbinian Brodmann (1868-1918).
Tuttavia, già in quel periodo diveniva evidente la debolezza dell’approccio localizzazionistico al problema dell’individuazione della sede delle funzioni cognitive. Nel 1902 Shepherd Ivory Franz (1874-1933) dimostra che l’ablazione di porzioni anche molto vaste di tessuto cerebrale negli animali non impedisce il ricordo dei comportamenti appresi né nuovi apprendimenti.
Proseguendo le ricerche di Franz, Karl Spencer Lashley (1890-1958) dimostra l’impossibilità di localizzare singole tracce di memoria, i cosiddetti engrammi, in alcuna parte del cervello. Sulla base di questi risultati, Lashley formula la teoria dell’azione di massa o della facilitazione di massa e la teoria dell’equipotenzialità, che spiega gli apprendimenti e il ricordo come risultato dell’attività di meccanismi interconnessi e diffusi ovvero il prodotto della riorganizzazione di un esteso sistema di associazioni, di interrelazioni tra milioni di neuroni delle diverse aree del cervello.
Negli stessi anni in cui Lashley negava la possibilità di localizzare l’engramma, il neurochirugo americano Wilder Penfield (1891-1976) produce le prime precise evidenze sulla localizzazione delle strutture cerebrali necessarie all’apprendimento e alle funzioni mnestiche.
Penfield e il suo gruppo neurochirurgico usano la stimolazione elettrica su pazienti in anestesia locale per localizzare esattamente i foci epilettogeni prima della loro effettiva escissione. La stimolazione corticale su pazienti svegli permette tra l’altro a Penfield di disegnare una mappa accurata della rappresentazione dei muscoli sulla corteccia motrice precentrale e di precisare la proiezione della sensibilità corporea sulla corteccia post-centrale: l’ homunculus motorio e quello somatosensitivo.
Nel 1933, Penfield scopre in un paziente che la stimolazione elettrica della corteccia temporale poteva produrre il recupero mnestico di esperienze del passato. La ripetizione di questa esperienza in molti altri suoi pazienti indicava il coinvolgimento di questa regione corticale nella memoria. Un contributo importante in questa direzione veniva nel 1957, quando William Scoville e Brenda Milner descrivevano il caso di H.M., un paziente epilettico cui nel 1953 era stata praticata la rimozione bilaterale di due terzi anteriori dell’ippocampo, del giro paraippocampale e dell’amigdala e che a seguito di ciò sviluppava una grande forma di amnesia anterograda. Lo studio di H.M. avvalorava la distinzione già formulata tra questa memoria (o memoria di lavoro) e la memoria a lungo termine ma dimostrava la complessità dei sistemi della memoria e il carattere non unitario di questa facoltà cognitiva, per cui dovevano essere riconosciute almeno due diverse modalità funzionali: una di tipo dichiarativo e una di tipo procedurale. Con il progredire delle ricerche questa semplice tassonomia dicotomica è stata finemente articolata in una visione, fondata su chiare risultanze neurobiologiche, che la memoria è composta di sistemi multipli e distinti centrati su strutture encefaliche diverse ma correlate, come soprattutto l’ippocampo, l’amigdala, il neostriato e il cervelletto.
L’approccio molecolare allo studio delle funzioni cognitive emerge alla fine dell’Ottocento, quando Santiago Ramón y Cajal, ipotizza che le basi biologiche dell’apprendimento siano da individuare nella proliferazione delle fibre cellulari e nel potenziamento delle connessioni tra neuroni.
All’inizio del Novecento, Georg Elias Müller (1850-1934), docente all’Università di Gottinga e il suo allievo Alfons Pilzecker definiscono l’idea di consolidamento, un altro fondamentale concetto per la definizione delle basi teoriche delle ricerche sui correlati cellulari e molecolari dell’apprendimento e della memoria.
Nel 1949 Donald Hebb (1904-1985) propone la teoria della doppia traccia della memoria: una responsabile della registrazione “a breve termine” attraverso processi di riverberazione dell’attività neuronale e una seconda traccia che subentra alla prima con la stabilizzazione dei circuiti riverberanti e la codifica delle informazioni in forma duratura.
Nel 1958 Holger Hyden inizia a fare luce sui meccanismi genetici e molecolari dei processi cognitivi, dimostrando il ruolo dell’RNA e del DNA nell’apprendimento e nella memoria. Attraverso ingegnose tecniche autoradiografiche egli osserva che i livelli di RNA e di sintesi proteica nel cervelletto e in alcune aree cerebrali si innalzavano significativamente in ratti che erano stati sottoposti all’apprendimento di un esercizio fisico di coordinazione e di equilibrio.
Ricerche che dimostrano gli effetti dell’apprendimento e dell’esperienza differenziale sulla chimica e sull’anatomia fine delle reti nervose cerebrali, sono pubblicati per la prima volta agli inizi degli anni Sessanta. Successivamente, nel 1971, Mark Rosenzweig, in uno studio ormai classico, dimostra che i cambiamenti nella struttura e nella densità delle reti nervose prodotti dall’esperienza individuale sono legati a mutamenti nel rapporto RNA/DNA e cioè da modificazioni della sintesi proteica, oggi diremmo dalla modulazione ambientale della regolazione dell’espressione genica, delle funzioni di trascrizione.
Più recentemente, negli anni Ottanta, Eric Kandel ha dimostrato elegantemente in una serie di innovativi esperimenti su Aplysia, un piccolo mollusco marino, come le connessioni sinaptiche possono essere modificate a lungo termine o permanentemente dalla regolazione dell’espressione genica mediata dall’apprendimento.