Linguaggio e scienza cognitiva
Premessa
«La questione più importante nello studio del linguaggio umano è quella del suo posto nella natura: di che tipo di sistema biologico si tratta, e in che rapporto sta con gli altri sistemi, nella nostra specie e in altre specie» (Pinker, Jackendoff 2005, p. 202). Questa affermazione di due tra i più noti scienziati cognitivi di questi anni esprime bene l’orientamento di buona parte della ricerca cognitiva attuale sul linguaggio. Con la sua presa di posizione naturalistica, anzi biologistica, segna un netto distacco dalla scienza cognitiva ‘classica’ degli anni Settanta-Ottanta del secolo scorso. Pur non essendo antinaturalistica, la scienza cognitiva classica muoveva dalla convinzione che i processi cognitivi, compresi quelli che hanno a che fare con il linguaggio, andassero identificati e studiati a un livello di astrazione più alto di quello della loro realizzazione biologica, in particolare nella specie umana. Un processo cognitivo è un algoritmo che può essere realizzato da sistemi, naturali o artificiali, anche molto diversi tra loro: da un cervello umano (o, in certi casi, animale) come da un computer digitale. Per la comprensione di un processo cognitivo i dettagli di una sua particolare realizzazione non sono essenziali, e anzi possono essere d’intralcio, complicando i problemi fino a renderli intrattabili e impedendo di cogliere l’essenziale del processo. In questo spirito vengono realizzati, da studiosi come William A. Woods, Terry Winograd, Mitchell P. Marcus, Graeme Hirst e altri, sistemi ormai classici di elaborazione automatica del linguaggio naturale (analisi sintattica, ‘comprensione’ e sintesi), e psicologi come Philip N. Johnson-Laird propongono teorie della comprensione del linguaggio di cui è parte integrante una realizzazione computazionale.
Verso la fine del secolo scorso questo impianto teorico, pur essendo ancora praticato (come lo è del resto anche oggi), comincia a perdere consenso per effetto di due pressioni del tutto indipendenti ma di fatto convergenti: quella del connessionismo e quella delle neuroscienze. Il movimento connessionista comincia con la proposta di un’architettura dei sistemi artificiali diversa da quella classica: un’architettura in cui il sistema artificiale non viene più istruito a compiere in sequenza una serie di operazioni su dati discreti in ingresso, ma viene invece addestrato ad assumere stati finali che esprimono l’elaborazione dei dati in ingresso, rappresentati a loro volta dallo stato iniziale complessivo del sistema. Se il sistema è interpretato come soggetto di un processo cognitivo, il processo non coincide più con il programma eseguito dal sistema e in linea di principio separabile da esso, ma con il modo di operare intrinseco al sistema, una volta che esso sia stato opportunamente addestrato. Questa proposta architettonica è ispirata dalla convinzione che i processi cognitivi umani (e animali in generale) non possano essere efficacemente emulati da sistemi artificiali il cui funzionamento è radicalmente diverso da quello del cervello umano: si contesta, cioè, la tesi classica dell’indifferenza del sostrato materiale per l’identificazione (e l’emulazione) dei processi cognitivi. I sistemi connessionistici sono detti reti neurali proprio perché si propongono di riprodurre almeno alcune caratteristiche del sostrato cerebrale dei processi cognitivi animali.
Questo spostamento del fuoco della ricerca, dagli algoritmi astratti e generali alle caratteristiche strutturali dell’hardware cerebrale (come si sarebbe detto ai tempi della scienza cognitiva classica), viene accentuato dai forti progressi delle neuroscienze, che permettono la nascita di una neuroscienza cognitiva: che cioè si propone di ricercare i ‘correlati neurali’ dei processi cognitivi, e non solo di indagare l’anatomia e la fisiologia del cervello e del sistema nervoso. L’intensificarsi dello studio dei pazienti cerebrolesi, le nuove tecniche di neuroimmagine rese possibili dal progresso tecnologico, e singole scoperte come quella dei neuroni specchio (v. La comprensione del linguaggio), il cui funzionamento appare direttamente correlato a un processo cognitivo come la comprensione delle azioni e delle intenzioni altrui, sembrano rendere possibile lo studio dei processi cognitivi – inclusa l’elaborazione del linguaggio – come studio del funzionamento del cervello umano e animale. Come si vedrà, siamo ancora lontani da veri e propri modelli neuroscientifici del linguaggio, ma le prospettive appaiono abbastanza promettenti da polarizzare l’interesse dei ricercatori e motivare affermazioni come quella di Jackendoff e Pinker.
Un prodotto secondario di questi sviluppi è il distacco della ricerca cognitiva sul linguaggio dall’intelligenza artificiale, che aveva avuto un ruolo di primo piano negli anni Settanta e Ottanta. Naturalmente l’informatica continua a occuparsi di linguaggio naturale, se non altro per i problemi di reperimento di informazioni formulate in linguaggio naturale drammatizzati dall’enorme diffusione di Internet e dal suo peso economico e culturale; ma questo tipo di ricerca, anche se può a volte sfruttare conoscenze di scienza cognitiva, appartiene, per metodi e scopi, alla tecnologia e non allo studio dei processi cognitivi.
Sviluppi della linguistica generativa
La teoria linguistica di Noam Chomsky è sempre stata considerata un paradigma di scienza cognitiva: perché si propone di descrivere il linguaggio come componente del sistema mente/cervello (e non, per es., come sistema di segni o come insieme di comportamenti), perché postula liberamente enti mentali (‘interni’) inaccessibili all’osservazione diretta e perché ritiene che il nucleo della facoltà del linguaggio sia un meccanismo computazionale. Chomsky, dal canto suo, ha espresso riserve di fondo sulla scienza cognitiva. Secondo lui, la sua teoria della facoltà del linguaggio non descrive direttamente processi neurocerebrali solo per ‘limiti temporanei’, ma il suo oggetto è, in linea di principio, un componente del ‘sistema mente/cervello’, cioè la realizzazione biologica di un sistema di processi cognitivi. Molti teorici della scienza cognitiva pensano invece che i processi cognitivi vadano identificati e descritti a un livello di astrazione più alto, in cui la realizzazione biologica è irrilevante: ‘la teoria della mente più cogente è una teoria che vale sia per noi, sia per eventuali macchine’. Ma, secondo Chomsky (2000), se è intesa a questo modo la scienza cognitiva non fa parte delle scienze naturali.
Nonostante queste divergenze, la ricerca linguistica chomskiana rientra nella scienza cognitiva del linguaggio, ed è intrecciata con ricerche neuroscientifiche, antropologiche e di biologia evoluzionistica, oltre che, occasionalmente, con l’intelligenza artificiale. Nell’ultimo decennio, questa ricerca è stata dominata dal programma minimalista (N. Chomsky, The minimalist program, 1995): non una nuova teoria della grammatica, come la teoria standard estesa (anni Settanta) o la teoria dei principi e parametri (maturata negli anni Ottanta), ma un programma in continua e rapida evoluzione. Così rapida che è difficile dare una presentazione del minimalismo che non sia invecchiata, almeno nei suoi aspetti formali, nel momento stesso in cui viene formulata.
Alcune idee di fondo, tuttavia, sono chiare e relativamente stabili. Il minimalismo nasce dalla convinzione di Chomsky, già espressa in fasi precedenti della sua ricerca, che il linguaggio umano sia una soluzione ottimale del problema dell’espressione di pensieri mediante suoni (cosa tutt’altro che ovvia, perché solitamente i sistemi biologici, essendo prodotti dal bricolage evolutivo, non sono ottimali; per es., sono di solito ridondanti). ‘Ottimale’ qui significa ‘massimamente economico’: il linguaggio adempie la sua funzione con il minimo dispendio di risorse sia rappresentative sia computazionali. Se è così, allora la costruzione di un’espressione linguistica («derivazione» nella terminologia chomskiana) dovrebbe essere sottoposta soltanto a tre tipi di vincoli:
a) i vincoli propri del nucleo computazionale della facoltà del linguaggio (il meccanismo ricorsivo che costruisce le espressioni linguistiche), riconducibili, presumibilmente, a principi generali di economia computazionale;
b) i vincoli derivanti dal fatto che un’espressione linguistica deve assumere una forma fonetica, cioè imposti dall’interfacciamento tra meccanismo computazionale e sistema sensomotorio (per es., la linearizzazione delle strutture gerarchiche);
c) i vincoli derivanti dal fatto che un’espressione linguistica deve essere interpretabile (avere un significato), cioè imposti dall’interfacciamento tra il meccanismo computazionale e il sistema che Chomsky chiama «concettuale-intenzionale».
I principi della grammatica universale (e, in definitiva, tutte le regole grammaticali delle singole lingue) dovrebbero risultare conseguenze dell’azione combinata di questi soli vincoli. Il programma minimalista si propone di dimostrare che è proprio così. Ciò comporta importanti novità rispetto alla versione originaria della teoria dei principi e parametri. In quella versione, la derivazione di un’espressione linguistica prevedeva quattro livelli di rappresentazione (struttura-d [= ‘profonda’], struttura-s [= ‘superficiale’], forma logica, forma fonetica). I vincoli sulla buona formazione di un’espressione erano distribuiti sui quattro livelli: per es., l’assegnazione dei ruoli tematici ai costituenti di una frase era determinata al livello della struttura-d; i vincoli di legamento (come la determinazione di quale è l’antecedente di un pronome) erano stabiliti al livello della struttura-s; mentre le trasformazioni (per es., l’operazione che trasforma una frase attiva nella corrispondente passiva) erano concepite come modifiche della struttura-d che producevano una struttura-s e modifiche della struttura-s che producevano la forma logica della frase. Ora, invece, tutti i vincoli sono assorbiti nel processo di derivazione. Anche l’inserimento delle unità lessicali (i ‘mattoni’ di cui è composta un’espressione linguistica), che avveniva nella struttura-d, è ora possibile in qualsiasi fase della derivazione; e tutte le fasi della derivazione sono sottoposte a controllo di compatibilità sia fonetica sia semantica (sicché sia la forma fonetica, sia la forma logica scompaiono come livelli di rappresentazione terminali). Ciò significa che tutti i vincoli grammaticali sono vincoli sul processo di derivazione, e devono essere dedotti – come si è già detto – soltanto dalle proprietà del meccanismo computazionale e degli interfaccia. Un esempio di questo genere di deduzioni è il seguente (Lasnik 2002). Chiamiamo movimento-wh l’operazione che deriva da (1) la struttura esemplificata da (2):
(1) Dici che Giorgio ha preso il libro
(2) Chi dici che t ha preso il libro? [‘t’ indica la ‘traccia’ lasciata dalla cancellazione di ‘Giorgio’].
È una regola della grammatica (condizione di superiorità) che, quando diverse unità possono essere spostate in una lingua che consente di spostarne una sola (come, per es., l’inglese), a essere spostata sia l’unità ‘superiore’: (3) è una struttura accettabile, mentre (4) non lo è.
(3) Who t will read what
(4) *What will who read t
La regola può essere dedotta da un principio di economia computazionale: si deve scegliere (3) e non (4) perché il soggetto è più vicino dell’oggetto al punto d’arrivo del movimento (cioè all’inizio della frase).
Ovviamente, a partire da un insieme di unità lessicali sono possibili molte derivazioni diverse, non tutte legittime; dunque dev’essere in qualche modo controllata la loro compatibilità con i vari vincoli. Questo controllo non può avvenire sulle derivazioni ultimate, perché il carico computazionale sarebbe eccessivo: al contrario, bisogna che, a ogni passo di una derivazione, sia determinato il passo corretto immediatamente successivo, e sia determinato senza ambiguità, da algoritmi che agiscono automaticamente. Un tale requisito non è facile da rispettare. Ciò ha indotto alcuni critici (per es., Pinker, Jackendoff 2005) a rifiutare il minimalismo, a cui viene rimproverato di imporre al modulo linguistico della mente umana un carico computazionale esorbitante e di non essere davvero in grado di dedurre le regole grammaticali dai vincoli che il programma riconosce, se non attraverso manovre ad hoc.
L’evoluzione del linguaggio
Che cos’è, propriamente, un linguaggio, nel senso in cui sono linguaggio le lingue naturali come l’italiano, lo swahili o l’urdu? Due condizioni sono state individuate come essenziali affinché un sistema di segni (vocali, o gestuali come nei sistemi di comunicazione usati dai sordomuti) sia un linguaggio: devono esserci segni usati per riferirsi a oggetti o tipi di oggetti indipendentemente dal contesto, e il sistema dev’essere composizionale, cioè dev’essere possibile combinare i segni in espressioni complesse, il cui valore espressivo e comunicativo (= significato) dipende da quello dei segni semplici di cui sono costituite. Se è così, in natura solo gli esseri umani, Homo sapiens, sono dotati di linguaggio. Il cercopiteco verde, Chlorocebus pygerythrus, usa segnali vocali distinti per indicare ai conspecifici la presenza di predatori – a seconda del segnale, aquile, leopardi o serpenti – ma lo fa solo difronte all’esistenza di una minaccia. Le api, con le loro danze, sono in grado di segnalare alle altre api la presenza di cibo anche a grande distanza dall’alveare in cui la danza si svolge, ma il loro linguaggio non è composizionale. Anche i primati più simili a noi, come scimpanzé e bonobo, sono incapaci di composizionalità.
In che modo la nostra specie ha sviluppato questa sua prerogativa? Secondo Michael Tomasello (The cultural origins of human cognition, 1999; trad. it. 2005), i 7 milioni di anni che ci dividono dall’antenato (presumibilmente non dotato di linguaggio) che abbiamo in comune con gli scimpanzé sono un periodo troppo breve perché il linguaggio possa essere un’evoluzione biologica. Per Tomasello, il linguaggio sarebbe dunque un’evoluzione culturale, che ha alla base una singola modificazione biologica: la capacità di interpretare il comportamento altrui sulla base della somiglianza con sé stessi. Questa capacità non è posseduta dai primati, che sanno ‘leggere’ il comportamento altrui ma (secondo molti studiosi) non sono in grado di attribuire stati mentali e intenzioni ai loro conspecifici (non hanno una teoria della mente); e nemmeno hanno quella capacità di imitazione che è alla base dell’accumulazione culturale. Infatti le culture animali, come la pratica dei macachi di Koshima di lavare le patate dolci nell’acqua di mare, non sono cumulative: si diffondono – anche se lentamente – all’interno di un gruppo di animali, ma non migliorano attraverso le generazioni. L’elaborazione di un sistema simbolico come il linguaggio presuppone l’attribuzione di stati mentali ai conspecifici, perché, come ha osservato Charles N. Li (2002), il linguaggio è il mezzo più efficace per modificare gli stati mentali altrui: se non si capisce che gli altri hanno stati mentali, non c’è impulso all’evoluzione di segnali simbolici.
La teoria di Tomasello non chiarisce del tutto la complessa connessione tra evoluzione della capacità di imitazione e sviluppo di una teoria della mente. Ma soprattutto non dà conto dell’universalità di molte proprietà strutturali dei linguaggi umani: se il linguaggio è essenzialmente un’evoluzione culturale, ci aspetteremmo che presenti la stessa varietà di altre forme culturali (dalle pratiche abitative alle religioni). La convinzione, largamente diffusa, che tutte le lingue obbediscano ai principi di una grammatica universale va nella direzione opposta.
Anche Giacomo Rizzolatti e i suoi collaboratori (Rizzolatti, Arbib 1998; Rizzolatti, Sinigaglia 2006) connettono l’origine del linguaggio all’imitazione, o meglio a una delle basi neurali della capacità di imitazione, e cioè il sistema dei neuroni specchio: neuroni che scaricano sia quando si compie una determinata azione (per es., afferrare qualcosa per portarlo alla bocca), sia quando si osserva un conspecifico compiere quella stessa azione. Questi neuroni, scoperti nell’area F5 della corteccia motoria frontale dei macachi, sono stati poi rilevati anche negli umani. Sono i neuroni specchio a farci comprendere immediatamente il significato dei gesti dei nostri simili. Poiché l’area F5 è omologa dell’area di Broca – una delle aree che, nel cervello umano, sono più chiaramente coinvolte nelle funzioni linguistiche – è plausibile ipotizzare che la comprensione dei segnali linguistici sia un’evoluzione della comprensione dei gesti. In altre parole, il linguaggio nascerebbe dall’associazione di suoni a gesti significanti (l’associazione, tuttora presente, tra produzione del linguaggio e gesticolazione è dimostrata da vari esperimenti). Lo sviluppo della vocalizzazione, indispensabile perché si possa parlare di linguaggio vero e proprio, avrebbe richiesto che nuove aree corticali controllassero l’emissione dei suoni: di qui l’evoluzione dell’area di Broca, un adattamento selezionato per la sua capacità di arricchire e controllare un repertorio vocale significante. L’ipotesi di Rizzolatti non tocca l’aspetto sintattico della facoltà del linguaggio (che molti considerano essenziale) e non investe direttamente la questione dell’origine del riferimento (cioè della connessione, stabile e indipendente dal contesto, fra suoni e cose), ma ha il pregio di entrare nel merito dell’evoluzione delle aree del linguaggio.
Secondo un’ipotesi alternativa dovuta a Robin I.M. Dunbar (2004), il linguaggio si sarebbe invece evoluto in funzione della socialità. Gli esseri umani cacciavano in gruppo, come altri mammiferi: l’aumento della numerosità dei gruppi era utile per la caccia, ma creava problemi di regolazione sociale. Un modo di regolazione sociale diffuso fra i primati è il grooming, lo spidocchiamento, che stimola la produzione di oppiacei naturali nell’animale spidocchiato e riduce l’aggressività reciproca. Ma se un gruppo cresce di dimensioni, le sue esigenze di approvvigionamento di cibo riducono il tempo che può essere dedicato al grooming. Al di sopra di una certa soglia di numerosità, il grooming deve essere affiancato da un insieme di segnali vocali, che hanno lo stesso effetto socializzante ma con il vantaggio di coinvolgere più individui contemporaneamente. Il linguaggio si sarebbe evoluto da questo insieme di vocalizzazioni sociali. Steven Mithen (2005) aggiunge che lo sviluppo di un linguaggio composizionale nascerebbe dalla segmentazione dei segnali protolinguistici dei primati, inizialmente non composizionali; non diversamente da come fanno i bambini, che hanno il problema di segmentare in unità linguistiche – parole – il segnale vocale continuo emesso dagli adulti (va detto, però, che i bambini segmentano un segnale che è già articolato sintatticamente e composizionale semanticamente).
Una difficoltà di fondo di questa ipotesi è che la vocalizzazione sociale è comune nelle scimmie, ma rara nei primati più simili a noi. Inoltre, la distanza tra queste vocalizzazioni e i linguaggi umani è immensa, e l’ipotesi di Dunbar non spiega come venga colmata (Reboul 2007).
Sulle trasformazioni biologiche che sarebbero alla base dell’evoluzione del linguaggio queste ipotesi hanno poco da dire (con l’eccezione dell’ipotesi di Rizzolatti). Il problema è ovviamente molto difficile: il comportamento linguistico non lascia tracce fossili, e i dati paleontologici pertinenti all’evoluzione del linguaggio sono pochi e non molto significativi. Si tratta essenzialmente dell’ampliamento del canale vertebrale toracico, dell’abbassamento della laringe e dell’aumento dell’encefalizzazione. Riguardo a quest’ultimo, peraltro, si deve osservare che i principali ‘salti’ nelle dimensioni del cervello – 2 milioni di anni fa, con i primi membri del gruppo Homo (habilis, erectus), e 500.000 anni fa, con la comparsa di Homo sapiens – non corrispondono affatto a discontinuità culturali (e quindi, presumibilmente, cognitive); il secondo salto non coincide con nessun cambiamento di condizioni di vita, e c’è solo una debole correlazione tra il primo salto e la comparsa di nuovi utensili. I due grandi momenti dell’evoluzione cognitiva umana sono molto più recenti: 60.000-30.000 anni fa, con la cosiddetta rivoluzione del Paleolitico (forte diversificazione tecnologica, arte figurativa rupestre) e 10.000 anni fa, con la nascita dell’agricoltura. Tra 60 e 40.000 anni fa ebbe luogo anche una forte espansione demografica, e – sempre 60.000 anni fa – la colonizzazione dell’Australia, che, richiedendo l’attraversamento di tratti ampi e pericolosi di oceano, presuppone notevoli risorse di organizzazione sociale. Queste coincidenze temporali hanno indotto Ch.N. Li (2002) a collocare la ‘cristallizzazione’ del linguaggio intorno a 80.000 anni fa. La tesi di Li è semplice: una cultura complessa deve aver richiesto nuove strutture cognitive e comunicative.
Li ritiene che l’aspetto essenziale della cristallizzazione del linguaggio sia l’incremento del lessico («Un lessico che abbia raggiunto una massa critica contiene tutto ciò che è indispensabile alla comunicazione», p. 441), cioè del numero di espressioni referenziali a disposizione di Homo sapiens, e minimizza l’importanza della grammatica, sostenendo, da un lato, che anche ora esistono lingue la cui grammatica è poverissima, e, dall’altro, che, dato un lessico, la grammatica emerge naturalmente nel giro di qualche generazione (in che modo, Li non dice).
Un punto di vista diametralmente opposto è presentato nell’influente lavoro di Marc D. Hauser, Chomsky e W.Tecumseh Fitch (2002) nel quale la sintassi (o meglio, il meccanismo computazionale che ne costituisce il nucleo) è considerata l’aspetto essenziale del linguaggio umano, probabilmente prerogativa esclusiva degli esseri umani; e viene avanzata l’ipotesi che sia stata l’evoluzione di questo meccanismo (la «ricorsione», nella terminologia di Hauser, Chomsky e Fitch) a determinare l’insorgere del linguaggio. Gli autori (come già il solo Chomsky in scritti precedenti) distinguono tra facoltà del linguaggio in senso lato – un sistema computazionale che ‘ingrana’ da un lato con un sistema sensomotorio, dall’altro con un sistema concettuale-intenzionale – e facoltà del linguaggio in senso stretto, il nucleo ricorsivo del sistema, cioè il meccanismo capace di generare espressioni via via più complesse a partire da unità lessicali, eventualmente riapplicando una regola al risultato della sua precedente applicazione (‘la casa di Maria, la porta della casa di Maria, lo stipite della porta della casa di Maria’ ecc.). La facoltà del linguaggio in senso lato è costituita da componenti di antica evoluzione: lo prova il fatto che molte specie animali hanno capacità di fonazione e di percezione categorica del parlato (cioè sanno discriminare tra suoni linguistici come discriminano i parlanti umani di una lingua), e altre specie hanno ricche rappresentazioni concettuali, anche astratte (che peraltro non sono in grado di connettere ai loro segnali vocali e gestuali). Invece, gli animali non dispongono di sistemi generativi illimitati: per es., gli scimpanzé, in anni di addestramento, apprendono la serie dei numeri fino a 9, ma non afferrano il meccanismo generativo della serie dei numeri (‘+1’). Di qui l’ipotesi che la facoltà del linguaggio in senso stretto coincida con il meccanismo generativo e che essa sia di evoluzione recente: forse non un adattamento (cioè una caratteristica selezionata per la sua utilità in vista della sopravvivenza), ma una conseguenza accidentale di un adattamento. Per es. – ipotizzano Hauser, Chomsky e Fitch – la facoltà del linguaggio in senso stretto potrebbe essersi evoluta da un meccanismo che serviva alla navigazione (la capacità di tenere sotto controllo un itinerario attraverso la valutazione delle distanze rispetto a punti di riferimento: ne sono dotate varie specie animali, per es. le formiche).
Pinker e Jackendoff (2005) hanno criticato molti aspetti di questa posizione. Anzitutto, essi negano che il meccanismo ricorsivo sia il solo aspetto specificamente umano della facoltà del linguaggio: solo gli umani, per es., sono capaci di imitare specificamente suoni linguistici (ma non suoni in generale); solo i linguaggi umani hanno vere e proprie parole; la sintassi stessa – che è specificamente umana – non può essere identificata con il solo meccanismo ricorsivo, perché ha molti aspetti non ricorsivi (vincoli sull’ordine delle parole, sistema dei casi, accordi di genere e numero ecc.); infine, il gene FOXP2, coinvolto in molti aspetti del linguaggio (articolazione, produzione e comprensione) e certo non soltanto nel meccanismo ricorsivo, è specificamente umano (su questo punto, Hauser, Chomsky e Fitch hanno obiettato che l’espressione del gene non investe soltanto il linguaggio, e che il gene umano è quasi identico al suo omologo in altre specie di mammiferi). Secondo Pinker e Jackendoff, è del tutto ovvio che il linguaggio umano nel suo insieme è un sistema di tratti coadattati, che è stato selezionato in vista della comunicazione. L’ipotesi che il linguaggio ‘vero e proprio’ coincida con il solo meccanismo ricorsivo è una conseguenza dell’adesione di Chomsky al minimalismo, che, secondo Pinker e Jackendoff, costituisce una posizione teorica assai azzardata e poco plausibile.
La discussione sull’evoluzione del linguaggio è solo all’inizio, e Hauser, Chomsky e Fitch hanno certamente ragione nel prevedere che essa verrà arricchita da ulteriori studi comparatistici, che ci dicano di più su quali capacità, tra quelle connesse alla facoltà del linguaggio, sono specificamente umane e quali invece sono condivise da altre specie. È altrettanto chiaro che questi studi interagiranno con gli sviluppi della riflessione sulla struttura della facoltà del linguaggio, che è ben lontana dall’aver raggiunto un assetto definitivo: capiremo meglio come si è evoluto il linguaggio solo se se capiremo meglio che cosa si è evoluto.
L’acquisizione del linguaggio
Alla fine degli anni Cinquanta del secolo scorso, Chomsky criticò a fondo il modello comportamentista dell’acquisizione del linguaggio, mostrando – in un modo che parve definitivo – che è impossibile che un essere umano apprenda la propria lingua madre sulla base del rinforzo di associazioni tra uno stimolo e una risposta. Dopo di allora, la maggior parte dei ricercatori diede per scontato che l’acquisizione del linguaggio sia più simile alla maturazione di un organo che all’apprendimento di una tecnica: affinché l’acquisizione sia possibile, nel breve arco di tempo in cui si compie e sulla base del materiale linguistico (in realtà piuttosto esiguo e casuale) con cui il bambino viene a contatto, bisogna supporre che molti aspetti della facoltà del linguaggio siano innati. Tuttavia, questi aspetti innati non possono che essere universali, dato che qualunque bambino è in grado di acquisire qualunque lingua, a condizione di essere immerso, all’età giusta, in quel particolare ambiente linguistico. Si trattava dunque di spiegare come è possibile apprendere una particolare lingua, cioè in che modo la grammatica universale, che – si suppone – fa parte della dotazione innata di ogni essere umano, si specifica nella grammatica dell’italiano o del turco o dello swahili. Una parziale risposta a questa domanda venne fornita dalla teoria chomskiana dei principi e parametri (v. Sviluppi della linguistica generativa): i principi della grammatica universale contengono delle variabili (i parametri) il cui valore viene ‘fissato’ dall’esposizione a un particolare ambiente linguistico. Per es., l’esposizione all’ambiente linguistico inglese determina che l’ordine dei costituenti di una frase (in inglese) sia soggetto-verbo-oggetto (anziché soggetto-oggetto-verbo o verbo-soggetto-oggetto). I parametri possono dipendere l’uno dall’altro: per es., se in una lingua l’ordine dei costituenti è verbo-soggetto-oggetto allora gli aggettivi seguiranno i nomi anziché precederli. Si spiega così come una stimolazione linguistica limitata, certamente insufficiente per apprendere una lingua ‘da zero’, sia invece sufficiente a specificare la grammatica universale nella grammatica di una particolare lingua.
All’impostazione chomskiana, tuttora largamente dominante, non sono mancate le critiche. Secondo alcuni, la presunta non apprendibilità della grammatica dipende dall’estrema complessità delle regole grammaticali come sono state concepite nella teoria di Chomsky; se si adottassero teorie che attribuiscono alle lingue strutture più semplici, l’apprendimento risulterebbe possibile. Altri hanno sostenuto che l’acquisizione del linguaggio dipende certamente da capacità innate, ma queste capacità sono riconducibili all’intelligenza generale, o sono un insieme di capacità diverse che si sono evolute per vari scopi indipendenti dal linguaggio, ma la cui cooperazione consente l’acquisizione del linguaggio. Come si è visto (v. L’evoluzione del linguaggio), quest’ultima posizione non è lontanissima da ciò che sostiene oggi lo stesso Chomsky.
In ogni caso, c’è un aspetto importante del linguaggio che è sicuramente appreso, ed è il lessico: la conoscenza del significato delle parole è «il caso di apprendimento più chiaro che si possa immaginare. Nessuno nasce con la conoscenza del significato della parola inglese rabbit» (P. Bloom, How children learn the meanings of words, 2000, p. 15). Un ragazzo di 18 anni (di lingua inglese) conosce circa 60.000 parole. Questo vuol dire che, in un arco di 17 anni, ha appreso una media di 10 parole al giorno (in realtà, sappiamo che i bambini piccoli sono più ‘lenti’: a 3 anni si apprendono forse 10 parole alla settimana). Come avviene questo processo, straordinariamente rapido? Anche in questo caso, l’associazionismo empiristico non è una strada promettente: è improbabile che i bambini imparino il significato di coniglio perché notano che la parola è usata in presenza di conigli. Di solito le parole non sono usate in presenza dei loro referenti, e anche nel caso dei nomi di oggetti – in cui ciò avviene un po’ più spesso – la ricerca ha evidenziato che solo in una percentuale piuttosto bassa di casi (tra il 30% e il 50%) il nome è usato quando il bambino ‘fa attenzione’ all’oggetto di riferimento. Secondo la teoria di Paul Bloom, oggi piuttosto autorevole, l’apprendimento del lessico dipende da varie capacità: la capacità di acquisire concetti, la comprensione della struttura sintattica delle frasi e capacità generali di apprendimento e di memoria. Ma un ruolo centrale è svolto dal possesso di una teoria della mente, cioè dalla capacità di inferire le intenzioni altrui, e in particolare – in questo caso – le intenzioni referenziali: i bambini connettono l’uso di una parola a un oggetto solo se hanno ragione di pensare che la parola sia usata per denominare l’oggetto (e a ciò si richiede che il parlante sia fisicamente presente: Bloom 2000, p. 64).
La comprensione del linguaggio
La comprensione del linguaggio naturale è stata una delle aree di ricerca privilegiate della scienza cognitiva e dell’intelligenza artificiale ‘classica’ degli anni Settanta-Ottanta. Le ricerche di quegli anni identificavano i processi cognitivi (tra cui la comprensione del linguaggio) con algoritmi capaci di prestazioni intelligenti: gli algoritmi dovevano essere realizzabili anche dalla mente umana (così come da sistemi artificiali quali i computer digitali), ma non ci si doveva necessariamente preoccupare di riprodurre le procedure seguite dalla mente umana nella loro esecuzione. I ricercatori più orientati alla psicologia cognitiva, come Philip N. Johnson-Laird (Mental models, 1983; trad. it. 1988), avevano cura di dimostrare la plausibilità cognitiva delle loro teorie, facendo vedere che esse erano in grado di prevedere certi aspetti delle prestazioni cognitive umane (come le differenze nei tempi di esecuzione di compiti diversi o la frequenza degli errori in rapporto al tipo di compito), e quindi, presumibilmente, caratterizzavano anche il livello delle procedure e non solo quello delle prestazioni; ma nemmeno questi ricercatori si occupavano della realizzazione neurofisiologica dei processi cognitivi che descrivevano (v. Premessa). In seguito, sotto la duplice pressione del connessionismo e delle neuroscienze (v. Premessa), molti ricercatori si sono preoccupati dell’integrabilità dei loro risultati all’interno del quadro neuroscientifico che si veniva configurando, e, in certi casi, hanno cercato di mettere a frutto almeno in parte la lezione del connessionismo.
Per es., un protagonista della scienza cognitiva del linguaggio degli anni Ottanta, Ray Jackendoff, ha sostenuto nei suoi ultimi contributi (Jackendoff 2002 e 2007) che la sua teoria cognitiva del linguaggio è in grado di integrarsi con le nostre conoscenze sul cervello molto meglio delle teorie direttamente ispirate al ‘sintattocentrismo’ chomskiano. Per Jackendoff, la struttura di una frase ha tre livelli principali di realizzazione mentale: la struttura fonologica, la struttura sintattica e la struttura semantico-concettuale. Queste strutture sono parzialmente indipendenti fra loro, anche se sono coindicizzate, nel senso che codificano corrispondenze tra elementi di strutture diverse. A proposito di queste strutture, Jackendoff non parla più di rappresentazioni mentali, anzitutto perché una rappresentazione richiede un interprete (qualcosa è una rappresentazione per qualcuno) e nella mente non ci sono interpreti, e in secondo luogo perché vuol mettere in chiaro che le strutture mentali non ‘vertono’ sul mondo: non viene loro attribuita alcuna intenzionalità. In particolare, la struttura semantico-concettuale (che rappresenta il significato della frase) è ‘interfacciata’ con il terminale interno (upper end) dei sistemi percettivi: la connessione tra mente e mondo (se si vuole, l’intenzionalità delle strutture cognitive in generale) è delegata alla percezione, e non riguarda in modo particolare il linguaggio.
La comprensione di una frase è un processo in cui viene anzitutto costruita una struttura uditiva, da cui un sistema di interfaccia produce una struttura fonologica; altri sistemi producono una struttura sintattica e poi una struttura semantico-concettuale. Nell’intero processo è coinvolta la memoria a lungo termine, che contiene fra l’altro le informazioni lessicali indispensabili per il riconoscimento delle parole e per l’attribuzione delle loro proprietà sintattiche e del loro contenuto semantico. Non è necessario che una struttura venga completata prima di passare alla struttura successiva: così, le informazioni sintattiche possono contribuire a determinare l’interpretazione semantica prima che la struttura sintattica sia stata completamente analizzata.
Jackendoff riconosce che non abbiamo la minima idea di come tutto ciò sia realizzato a livello neurale. Tuttavia, il modello proposto è omogeneo a certi aspetti noti del funzionamento del cervello: la coindicizzazione delle strutture della frase è un esempio di corrispondenza (binding) tra strutture che codificano informazioni di tipo diverso relative allo stesso oggetto (come, nel caso della visione, le informazioni su forma, movimento e colore, che sono realizzate in aree cerebrali diverse senza che vi sia un ‘luogo’ in cui vengono sintetizzate). Per converso, la teoria cognitiva del linguaggio pone dei vincoli alla teoria (neuroscientifica) delle funzioni cerebrali: nessuna teoria neurocerebrale del linguaggio è completa se non spiega come vengono acquisite le informazioni che la teoria della mente individua come indispensabili alla comprensione di una frase. L’idea, in sostanza, è quella seguente: noi abbiamo le risorse per cogliere tutti gli aspetti del significato di una frase. Quindi un modello neurale delle funzioni linguistiche deve spiegare in che modo vengono discriminati tutti gli elementi strutturali che possono fare una differenza per il significato. Il contributo della ricerca cognitiva consiste nell’indicare questi elementi, mostrando che hanno un ruolo discriminante nella determinazione del significato. Per es.: ‘Giorgio ama Maria’ ha un significato diverso da ‘Maria ama Giorgio’, quindi dobbiamo essere in grado di discriminare l’ordine delle parole; ‘Fare il fieno’ è diverso da ‘Fare il pieno’, quindi dobbiamo essere in grado di distinguere tra [f] e [p] ecc.
Una teoria molto diversa è proposta da David J. Townsend e Thomas G. Bever, per i quali il relativo successo dei modelli connessionistici dei processi cognitivi ha parzialmente riabilitato l’associazionismo, cioè la prospettiva secondo cui i processi cognitivi si basano anche sull’abitudine. In particolare, la comprensione del linguaggio «chiama in causa una combinazione della conoscenza della probabilità di certe combinazioni concettuali con la conoscenza delle strutture sintattiche possibili» (Townsend, Bever 2001, p. 86). Nel loro modello, la comprensione di una frase è un processo a tre stadi: nel primo viene formata un’ipotesi sul significato della frase; nel secondo stadio, sulla base di questa ipotesi viene formata una frase pienamente articolata sintatticamente, che – nel terzo stadio – viene confrontata con l’input. Se il confronto ha successo, la frase è stata compresa; altrimenti il processo (o uno dei suoi stadi) viene ripetuto. Il primo stadio ha una base associativa: l’ipotesi semantica viene formulata in base a un’analisi sintattica rudimentale della frase in input, che dipende dalla sua somiglianza con altre frasi già analizzate in passato. In questa analisi ‘pseudosintattica’ ci si limita ad assegnare le parole alle rispettive categorie lessicali, a segmentare la frase nei costituenti principali, a identificare le teste dei costituenti (la testa di un sintagma è la parte essenziale del sintagma, per es. il verbo lavora nel sintagma verbale lavora instancabilmente a Milano) e a determinare le relazioni argomentali fra le teste. È a questa struttura pseudosintattica che viene assegnato un significato, che viene poi espresso, nel secondo stadio, da una frase pienamente articolata. La proposta di Townsend e Bever si richiama esplicitamente a teorie della percezione del linguaggio avanzate alla fine del secolo scorso da Alvin M. Liberman e altri, secondo cui la forma fonetica di una frase è ricostruita da un ascoltatore mediante la produzione attiva di una forma il più possibile simile al segnale ricevuto (‘analisi mediante sintesi’).
Negli anni Novanta, la scoperta dei neuroni specchio (v. L’evoluzione del linguaggio) da parte di Giacomo Rizzolatti e del suo gruppo di Parma (cioè Vittorio Gallese, Leonardo Fogassi e altri) gettò una luce nuova su molti aspetti dell’interazione tra i primati, uomo incluso. Come si è già detto, i neuroni specchio scaricano quando un animale compie una determinata azione – per es. quando afferra un oggetto o lo porta alla bocca – ma anche quando l’animale vede un conspecifico compiere la stessa azione (e anche, per es., quando sente il rumore caratteristico dell’esecuzione di quell’azione). La scarica del neurone quando l’azione viene osservata viene interpretata come (la base della) comprensione di quell’azione: la comprensione consisterebbe nell’esecuzione virtuale della preparazione a quella specifica azione, ovvero nella simulazione del disporsi a quell’azione. Su queste premesse, Vittorio Gallese e George Lakoff (2005) hanno proposto una teoria della realizzazione neurale dei concetti che porta con sé una teoria della comprensione del linguaggio. I concetti (o almeno i concetti di azioni, come afferrare) sarebbero realizzati nel sistema sensomotorio: ciascuna caratteristica di un concetto d’azione (agente, oggetto, condizione iniziale ecc.) sarebbe realizzata dallo stato di attivazione di un gruppo di neuroni. La comprensione di frasi che chiamano in causa concetti come afferrare – per es., ‘Ugo ha afferrato la maniglia’ – non solo richiederebbe ma consisterebbe (almeno in parte) nell’attivazione dei medesimi circuiti neurali che si attivano quando si afferra qualcosa o si vede qualcun altro afferrare qualcosa. In questo senso, anche nel caso del linguaggio ‘comprendere è simulare’. La proposta di Gallese e Lakoff è ancora in uno stadio embrionale, ma è probabile che l’idea di base – la comprensione di certe parole comporta l’attivazione di gruppi di neuroni che caratterizzano l’esecuzione delle azioni corrispondenti alle parole – sia destinata ad avere un futuro.
Linguaggio e neuroscienze
Le due fonti principali, per non dire esclusive, delle nostre conoscenze sulla realizzazione neurocerebrale dei processi cognitivi (inclusa l’elaborazione del linguaggio) sono (1) lo studio delle prestazioni cognitive dei pazienti cerebrolesi e (2) il neuroimaging, cioè l’analisi dello stato di attivazione delle diverse aree cerebrali durante l’esecuzione di prestazioni cognitive, quale è evidenziato da immagini ottenute con tecniche come la tomografia a emissione di positroni (PET), la risonanza magnetica funzionale e altre.
Lo studio dei pazienti cerebrolesi ha vari scopi. Uno scopo tradizionale è quello di localizzare le funzioni cognitive, cioè determinare quali aree cerebrali sono responsabili di una determinata funzione. Se la lesione a una determinata regione del cervello è regolarmente correlata con un certo deficit cognitivo, è sensato ipotizzare che quella regione sia coinvolta nella funzione. Si è spesso trovato che uno stesso deficit può corrispondere a lesioni anche molto diverse; del resto, le più recenti ricerche basate su tecniche di neuroimmagine hanno fatto vedere che quello che appare come un singolo compito cognitivo comporta spesso l’attivazione di diverse aree, non necessariamente adiacenti, che (forse) cooperano alla sua esecuzione. Un buon esempio della difficoltà della localizzazione, che riguarda in particolare il linguaggio, viene offerto dalla storia delle ipotesi sulle funzioni dell’area di Broca.
Fin dalla seconda metà del 19° sec., lo studio delle lesioni cerebrali aveva identificato due aree coinvolte nell’elaborazione del linguaggio: l’area di Broca, nel lobo frontale sinistro, e l’area di Wernicke, nella parte posteriore del lobo temporale sinistro. Le lesioni all’area di Wernicke risultavano associate a disturbi della comprensione del linguaggio in cui la produzione era più o meno preservata (in seguito verrà osservato che anche in questo caso le cose sono più complesse); viceversa, l’area di Broca era ritenuta responsabile della produzione, perché i pazienti con lesioni in quest’area presentavano il disturbo detto appunto afasia di Broca: il loro eloquio era povero, stentato, agrammaticale. In seguito, tuttavia, si è trovato che le lesioni alla sola area di Broca non producono mai l’afasia di Broca, e che questo disturbo si riscontra anche in assenza di qualsiasi lesione all’area stessa (Bechtel 2001). D’altra parte, le tecniche di neuroimmagine hanno mostrato che la produzione linguistica ‘automatica’ – ovvero il parlare spontaneo e non problematico – non attiva significativamente la corteccia prefrontale sinistra: l’area di Broca si attiva soltanto quando si devono svolgere compiti linguistici problematici, come fare un esempio di verbo associato a un determinato nome comune (casa → costruire). Ma, quando anche questi compiti vengono resi facili dall’addestramento, l’area di Broca non si attiva più (R.L. Buckner, S.E. Petersen, Neuroimaging, in A companion to cognitive science, ed. W. Bechtel, G. Graham, 1992, pp. 413-24).
Nel frattempo, fin dagli anni Settanta del secolo scorso era stata formulata l’ipotesi che l’area di Broca fosse responsabile non della produzione, ma dell’analisi grammaticale, sia in fase di produzione sia in fase di comprensione. Ma, in questi termini generali, l’ipotesi non è stata confermata. Sembra invece che l’area abbia a che fare con aspetti specifici della grammatica, come le operazioni di movimento che lasciano quella che i linguisti chiamano una ‘traccia’ (Bechtel 2001). Oggi si pensa che l’area di Broca faccia parte di uno dei vari percorsi che possono attivarsi nella produzione linguistica, e che sia coinvolta in processi di accesso e rappresentazione di informazioni linguistiche. Le tecniche di neuroimmagine hanno mostrato che, in questi processi, l’area di Broca è regolarmente associata ad altre aree, come il giro cingolato anteriore. Lo stato attuale della ricerca non consente di determinare correlazioni più univoche.
Un secondo scopo dello studio delle lesioni è stabilire l’indipendenza funzionale reciproca dei processi cognitivi, mostrando che due processi (per es., il riconoscimento dei volti e il riconoscimento degli oggetti) possono essere danneggiati selettivamente: vi sono, per es., soggetti cerebrolesi che sono in grado di riconoscere volti ma non oggetti, e viceversa. Si parla in questi casi di doppia dissociazione. Le unità funzionali così identificate vengono spesso chiamate moduli. Per quanto riguarda il linguaggio, sono state identificate varie dissociazioni significative, sia relativamente alla rappresentazione e al recupero delle informazioni lessicali, sia relativamente alla sintassi. Per es., è ben confermata la dissociazione fra nomi propri e nomi comuni: ci sono pazienti cerebrolesi che non sono in grado di ricordare i nomi propri di persone e luoghi famosi, mentre non hanno difficoltà con i nomi comuni (C. Semenza, M. Zettin, F. Borgo, Persons’ names and personal identification, «Neurocase», 1998, 4, pp. 45-53), e, per contro, ce ne sono altri che presentano il deficit complementare: ricordano i nomi propri molto meglio dei nomi comuni, specialmente quelli di oggetti di uso frequente (J.E. McNeil, L. Cipolotti, E.K. Warrington, The accessibility of proper names, «Neuropsychologia», 1994, 32, pp. 193-208).
Un’ulteriore dissociazione riguarda in particolare i nomi propri geografici: possono essere perduti, mentre gli altri nomi propri e i nomi comuni sono preservati, e viceversa possono essere selettivamente accessibili mentre sono perduti i nomi propri di persona. Sempre a proposito del lessico, forse la dissociazione più sorprendente è quella che separa i nomi comuni di esseri viventi (pecora, mosca, margherita...) dai nomi comuni di artefatti (chitarra, automobile ecc.). Sono stati descritti almeno dieci casi di pazienti (con lesioni del lobo temporale) che non erano più in grado di denominare immagini di esseri viventi, né di raggrupparle in categorie, né di rispondere a domande relative a esseri viventi; mentre non avevano le stesse difficoltà, e a volte non avevano alcuna difficoltà, con gli artefatti (Farah 20042, cap. 9).
Questi dati sono di difficile interpretazione, per varie ragioni. Anzitutto, gli studi dei singoli pazienti cerebrolesi non possono, per loro natura, essere replicati da più laboratori, come è buona prassi scientifica. In secondo luogo, non è detto che i dati relativi a un singolo paziente siano sempre generalizzabili. Fino a non molti anni fa si dava per scontato che lo fossero, sulla base dell’ipotesi che l’architettura funzionale del cervello fosse essenzialmente la stessa in tutti gli esseri umani. Ma ora le tecniche di neuroimmagine hanno mostrato che le stesse funzioni cognitive possono essere svolte secondo modalità cerebrali diverse. Infine, la miriade di dati di questo genere finora ottenuti sono in parte incoerenti fra loro (almeno apparentemente), e non è stato possibile, almeno fino a ora, integrarli in un modello convincente della rappresentazione cerebrale del lessico e dell’accesso alle informazioni lessicali. Un caso esemplare, a questo riguardo, è il problema dell’interpretazione dell’afasia ottica. I pazienti che presentano questo deficit sono in grado di riconoscere oggetti attraverso la visione (e ne danno prova ‘mimandoli’), ma non sono in grado di denominarli. Lo sanno fare, invece, a partire da una descrizione verbale dell’oggetto, o anche, spesso, attraverso il tatto (cioè se invece di guardare gli oggetti possono toccarli). Dunque questi pazienti hanno accesso al lessico, ma non attraverso la visione; peraltro la loro visione è normale, e consente loro il riconoscimento degli oggetti. A essere danneggiato – sembra – è soltanto il percorso dalla visione al lessico. Ora, i neuropsicologi ipotizzano solitamente che la nostra conoscenza delle cose sia immagazzinata in un sistema di rappresentazione – che chiamano semantica – ugualmente accessibile da vari canali di input, come la visione, il tatto, l’udito, lo stimolo linguistico (Farah 20042, p. 143). Negli afasici ottici la semantica non pare danneggiata (questi pazienti sanno che cosa è un determinato oggetto), è accessibile dalla visione (oltre che dal tatto e dagli stimoli linguistici) ed è connessa al lessico; ma non quando l’input è visivo. È come se la connessione ‘semantica → lessico’ fosse sensibile alla modalità di input alla semantica, il che contrasta con l’ipotesi modulare che sostiene questo tipo di ricerche. Sono state proposte almeno sei interpretazioni diverse di questa strana configurazione: per es., è stato sostenuto (Plaut 2002) che la semantica sia compartimentata anche in ragione delle modalità della sua acquisizione (ci sono informazioni che vengono acquisite prevalentemente per via visiva, altre per via linguistica ecc.). Sembra in effetti probabile che la nozione piuttosto rozza di semantica in uso nelle neuroscienze abbia bisogno di essere meglio articolata.
Anche in campo sintattico lo studio dei deficit ha dato interessanti risultati. Per es., è stata riscontrata una dissociazione della morfologia flessiva da altri processi linguistici (A. Caramazza, Brain and language, in Conversations in the cognitive neurosciences, ed. M.S. Gazzaniga, 1997, pp. 131-51); e si è già citata la specifica incapacità degli afasici di Broca a rappresentare le tracce risultanti da operazioni di movimento (Y. Grodzinsky, L. Finkel, The neurology of empty categories. Aphasics’ failure to detect ungrammaticality, «Journal of cognitive neuroscience», 1998, 10, pp. 281-92). Un’altra loro difficoltà riguarda le categorie funzionali (come i determinatori, il tempo verbale, i complementatori), che gli afasici di Broca tendono a sopprimere o sostituire (per una rassegna di risultati, v. Avrutin 2001), e che quindi potrebbero corrispondere a un modulo della competenza sintattica.
Altre ricerche sulla sintassi hanno sfruttato le tecniche di neuroimmagine. Un esempio è il tentativo di dimostrare la realtà neurocerebrale della distinzione chomskiana tra regole grammaticali possibili – che potrebbero appartenere alla grammatica di una lingua umana – e regole impossibili, perché in contrasto con i principi della grammatica universale. Un gruppo di ricercatori guidato da Mariacristina Musso e Andrea Moro ha insegnato a parlanti tedeschi, che non conoscevano né l’italiano né il giapponese, regole grammaticali dell’italiano e del giapponese, insieme ad altre regole sempre da applicarsi al lessico italiano o a quello giapponese, ma ‘impossibili’: per es., la regola che in italiano la negazione di una frase si forma inserendo la parola ‘non’ dopo la terza parola della frase affermativa. Veniva poi chiesto ai soggetti di controllare la grammaticalità di una serie di sequenze di parole. La risonanza magnetica funzionale ha mostrato che nel controllo delle ‘vere’ regole si attivava l’area di Broca, mentre nel caso delle regole ‘impossibili’ si attivavano altre aree, e l’area di Broca veniva anzi disattivata (Musso, Moro, Glauche et al. 2003). Dunque il cervello umano distingue tra due tipi di regole (che la teoria di Chomsky categorizza come compatibili e rispettivamente incompatibili con il principi della grammatica universale), e solo il controllo delle regole del primo tipo – cioè delle regole grammaticali – è deputato all’area cerebrale notoriamente coinvolta nell’analisi e nella produzione linguistica.
Bibliografia
G. Rizzolatti, M.A. Arbib, Language within our grasp, «Trends in neurosciences», 1998, 21, pp. 188-94.
N. Chomsky, Linguistics and brain science, in Image, language, brain, ed. A. Marantz, Y. Miyashita, W. O’Neil, Cambridge (Mass.) 2000, pp. 13-28.
S. Avrutin, Linguistics and agrammatism, «Glot international», 2001, 5, pp. 3-11.
W. Bechtel, Linking cognition and the brain. The cognitive neuroscience of language, in Philosophy and the neurosciences, ed. W. Bechtel, P. Manidk, J. Mundale et al., Oxford 2001, pp. 152-71.
D.J. Townsend, Th.G. Bever, Sentence comprehension, Cambridge (Mass.) 2001.
M.D. Hauser, N. Chomsky, W.T. Fitch, The faculty of language. What is it, who has it, and how did it evolve?, «Science», 2002, 298, pp. 1569-79.
R. Jackendoff, Foundations of language, Oxford 2002.
H. Lasnik, The minimalist program in syntax, «Trends in cognitive sciences», 2002, 6, pp. 432-37.
Ch.N. Li, L’origine evolutiva del linguaggio: anelli mancanti, problemi e ipotesi, «Sistemi intelligenti», 2002, 3, pp. 431-60.
D.C. Plaut, Graded modality-specific specialization in semantics. A computational account of optic aphasia, «Cognitive neuropsychology», 2002, 19, pp. 603-39.
M. Musso, A. Moro, V. Glauche et al., Broca’s area and the language instinct, «Nature neuroscience», 2003, 6, pp. 774-81.
R.I.M. Dunbar, The human story. A new history of mankind’s evolution, London 2004.
M.J. Farah, Visual agnosia, Cambridge (Mass.) 20042.
V. Gallese, G. Lakoff, The brain concepts. The role of the sensory-motor system in conceptual knowledge, «Cognitive neuropsychology», 2005, 22, pp. 455-79.
S. Mithen, The singing Neanderthals. The origins of music, language, mind and body, London 2005 (trad. it. Il canto degli antenati, Torino 2007).
S. Pinker, R. Jackendoff, The faculty of language: what’s special about it?, «Cognition», 2005, 95, pp. 201-36.
G. Rizzolatti, C. Sinigaglia, So quel che fai. Il cervello che agisce e i neuroni specchio, Milano 2006.
R. Jackendoff, Language, consciousness, culture, Cambridge (Mass.) 2007.
A. Reboul, Langage et cognition humaine, Grenoble 2007.