Natura e cultura nel linguaggio
In questo saggio vengono discussi la struttura, le origini, lo sviluppo e le basi neuronali del linguaggio umano con una particolare attenzione all'antico dilemma natura-cultura. Il linguaggio umano si basa su capacità innate che non sono però specifiche solo del linguaggio e non sono localizzate in una singola zona del cervello; in particolare, si basa sui meccanismi dell'attenzione, della memoria e del relazionarsi sociale che, anche se in maniera meno sviluppata, erano presenti in altri primati prima che il linguaggio si evolvesse. Poiché il linguaggio si fonda su un'ampia serie di abilità, esso è localizzato in varie aree del cervello, non tutte però della stessa importanza. Quando alcune di esse vengono danneggiate nelle prime fasi di vita, possono emergere modalità alternative di organizzazione cerebrale. Particolare enfasi è posta sulle varietà del linguaggio: varietà strutturali testimoniate dalla quantità di lingue diffuse nel mondo, dalla velocità e dalla consequenzialità del loro sviluppo nei bambini, e, infine, dagli studi di visualizzazione dell'attività funzionale del cervello in vivo.
Introduzione
Il linguaggio è il coronamento delle conquiste della specie umana ed è una facoltà che normalmente tutti gli esseri umani possiedono. L'uomo medio non è né Shakespeare né Caravaggio, ma è comunque capace di produzione linguistica fluente, anche se non sa poetare o dipingere. Infatti, il parlante medio produce approssimativamente 150 parole al minuto che sceglie tra circa 20.000÷40.000 diverse alternative, con percentuali d'errore inferiori allo 0,1 %. Il bambino, in media, si avvicina considerevolmente a tale livello di produzione intorno ai 5 anni di età: in questo periodo il suo vocabolario conta più di 6000 parole e controlla quasi tutti gli aspetti del parlato e la grammatica della propria lingua.
Data la portata di tali risultati e la velocità con la quale li conseguiamo, alcuni teorici hanno sostenuto che la facoltà del linguaggio deve risiedere direttamente nel cervello umano ed è in grado di svilupparsi come un braccio o un rene. Secondo altri, invece, l'uomo è dotato di linguaggio perché ha un cervello potente capace di apprendere molte cose e perché è un animale straordinariamente sociale per il quale comunicare è più importante di qualsiasi altra cosa.
Il linguaggio è innato? Lo si apprende? Oppure, il linguaggio rinasce in ogni generazione in quanto rappresenta la migliore soluzione per i nostri problemi più importanti, problemi che soltanto gli esseri umani possono risolvere? Questi sono gli interrogativi su cui per secoli si sono confrontate le scienze che studiano il linguaggio. Essi rappresentano anche le varianti di un dibattito più generale sulla natura della mente e sul processo attraverso cui essa si costruisce nei bambini.
L'approccio innatista è basato sull'assunzione che la conoscenza nasce dalla natura umana. Questo concetto risale a Platone e Kant, tuttavia ne II 'età moderna viene generalmente associato al linguista N. Chomsky. Egli assume una posizione molto decisa al riguardo frn dal suo primo libro nel 1957, e la mantiene coerentemente nei successivi 40 anni. Egli spiega il rapporto tra la sua concezione dell'innatismo del linguaggio e la posizione originaria di Platone sulla natura della mente in questo modo:
"Come possiamo interpretare la proposta di Platone in termini moderni? Una variante moderna potrebbe essere che certi aspetti della nostra conoscenza e della nostra comprensione sono innati, sono parte del nostro corredo biologico, geneticamente determinato, al pari degli elementi della nostra natura comune che fanno crescere gambe e braccia anziché ali. Penso che questa versione della dottrina classica sia essenzialmente corretta" (Chomsky, 1988).
Chomsky ha dedicato la sua vita scientifica allo sviluppo di una fondamentale teoria della grammatica che descriva le proprietà universali sotto stanti alle grammatiche di tutte le lingue del mondo. Poiché questa grammatica universale è del tutto astratta, lo studioso ritiene che non possa essere appresa e afferma che "la teoria linguistica, la teoria della Grammatica Universale [ ... ] è una proprietà innata della mente umana [e] lo sviluppo del linguaggio [è] analogo allo sviluppo di un organo".
Naturalmente Chomsky riconosce che i bambini francesi imparano parole francesi, i bambini cinesi parole cinesi e così via. Tuttavia, egli ritiene che i principi astratti sotto stanti alla lingua non vengano affatto appresi e sostiene che "una teoria generale dell' apprendimento [ ... ] sembra discutibile, non dibattuta, e priva di supporto empirico".
Poiché questa teoria ha influenzato notevolmente la linguistica e la psicolinguistica moderne, è importante chiarire che cosa significhi precisamente innato per Chomsky. Tutti siamo d'accordo nel ritenere che il cervello umano possieda qualcosa di unico che rende possibile il linguaggio. Tuttavia, in assenza di prove che dimostrino il contrario, questo qualcosa potrebbe non essere altro che il fatto che il nostro cervello è un gigantesco elaboratore multifunzionale, con migliaia di miliardi di elementi preposti all'elaborazione. La versione di Chomsky della teoria dell'innatismo è molto più forte di quella del 'grande cervello' e si basa su due assunti logicamente ed empiricamente distinti: il linguaggio è innato e i nostri cervelli contengono un dispositivo di apprendimento dedicato, specializzato, che si è sviluppato esclusivamente per il linguaggio. Il secondo assunto, che è il più controverso, fa parte di una dottrina conosciuta con diversi nomi: dottrina della specificità del dominio, dottrina dell'autonomia, dottrina della modularità.
Una posizione differente è quella sostenuta dall' empirismo: la conoscenza proviene dall'ambiente e arriva all'individuo attraverso i sensi. Anche questo approccio, chiamato anche comportamentismo o associazionismo è antico e risale (almeno) ad Aristotele, ma in epoca moderna viene associato allo psicologo B.F. Skinner. Secondo Skinner, non esistono limiti a ciò che l'essere umano può diventare, se ne ha il tempo e l'opportunità, applicando le leggi generali dell'apprendimento. Gli esseri umani hanno la facoltà di linguaggio perché hanno il tempo, l'opportunità e (forse) la capacità di elaborazione necessaria ad apprendere 50.000 parole e le associazioni che legano tali parole. A partire dagli anni Cinquanta, gran parte della ricerca linguistica, psicolinguistica e neurolinguistica ha cercato di dimostrare che Skinner aveva torto, sottolineando che i bambini e gli adulti vanno oltre l'input che ricevono, creando frasi nuove e (nel caso di bambini normali e di adulti cerebrolesi) producendo errori particolari, mai sentiti prima. Chomsky stesso criticava severamente l'approccio comportamentista e accusava coloro che credevano che illinguaggio potesse essere appreso di essere "grottescamente in torto" (Gelman, 1986).
Nel criticare duramente l'approccio comportamentista, gli innatisti a volte confondono la forma di empirismo di Skinner con un approccio molto diverso, chiamato interazionismo o costruttivismo o approccio epigenetico. L'idea è molto più complessa dell'innatismo o dell'empirismo e le sue radici storiche sono meno chiare. Nel 20° secolo l'approccio interazionista o costruttivista è stato associato allo psicologo J. Piaget. Più recentemente, tale concezione è riapparsa in un nuovo approccio all'apprendimento e allo sviluppo del cervello e di elaboratori simili al cervello, chiamato connessionismo, elaborazione parallela distribuita oppure teoria delle reti neurali (Rumelhart e McClelland, 1986; Elman et al., 1996), e nella relativa teoria dello sviluppo ispirata dai sistemi dinamici non lineari della fisica moderna (Thelen e Smith, 1994). Per comprendere questa difficile ma importante concezione, bisogna distinguere due diversi tipi di interazionismo: quello delle interazioni semplici (il nero e il bianco fanno il grigio) e quello delle forme emergenti (il nero e il bianco si uniscono e accade qualcosa di totalmente nuovo). In una teoria delle forme emergenti, la soluzione di un problema assume un determinato profilo per ragioni che non sono né ovvie né prevedibili a partire da uno qualsiasi degli input iniziali al problema stesso. Per esempio, le bolle di sapone sono tonde perché la forma sferica rappresenta l'unica possibile soluzione per raggiungere il volume massimo con una superficie minima: la forma non viene spiegata in relazione al sapone, all'acqua o al bambino che fa le bolle soffiando; il nido d'ape in un alveare assume la forma esagonale perché ('principio del riempimento') essa rappresenta la soluzione al problema di dover pressare insieme dei cerchi (fig. 4): l'esagono non è prevedibile in base alla cera, al miele che contiene e al comportamento della singola ape nell'atto di comprimere. Piaget sosteneva che la logica e la conoscenza emergono esattamente in questo stesso modo, da interazioni successive tra attività sensomotoria e mondo strutturato. Un'argomentazione simile è stata presentata per spiegare la nascita delle grammatiche, che rappresentano la classe di soluzioni possibili al problema di dover far corrispondere un ricco insieme di significati a un limitato canale linguistico, pesantemente costretto dai limiti della memoria, della percezione e della programmazione motoria. La logica e la grammatica non sono date nel mondo, ma non si trovano nemmeno nei geni. Gli esseri umani scoprono i principi che includono la logica e la grammatica perché tali principi rappresentavano la migliore soluzione possibile ai problemi specifici di cui le altre specie non si curavano e che, comunque, non avrebbero potuto risolvere. I sostenitori dell' approccio epigenetico riconoscono che nel cervello umano c'è qualcosa di innato che rende possibile il linguaggio, ma questo qualcosa non può essere un dispositivo specializzato e dominio-specifico che si è evoluto esclusivamente per il linguaggio. Può essere, invece, un qualcosa che realizziamo grazie a un cervello grande e sofisticato che si è sviluppato per conseguire i complessi obiettivi della società e della cultura umane (Tomasello e CalI, 1997). In altre parole, il linguaggio è una nuova macchina costruita con parti vecchie e ricostruita, a partire da quelle componenti, da ogni bambino.
Così oggi il dibattito al centro della ricerca sul linguaggio non riguarda la contrapposizione natura versus cultura, ma la 'natura della natura', cioè se la lingua sia qualcosa che realizziamo grazie a un imIato dispositivo del linguaggio o se sia il prodotto di abilità (imIate) che non sono specifiche del linguaggio. Nelle pagine seguenti, analizzeremo le conoscenze attuali sulla psicologia, la neurologia e lo sviluppo del linguaggio da questo punto di vista. Affronteremo questo problema ai diversi livelli del sistema, dai suoni del parlato alle più ampie strutture comunicative della produzione linguistica complessa. Cominceremo dalla definizione dei diversi livelli del sistema linguistico e descriveremo successivamente in che modo ognuno di questi livelli viene elaborato dagli adulti normali, acquisito dai bambini e rappresentato nel cervello.
Componenti del linguaggio
Linguaggio come suono: fonetica e fonologia
Lo studio dei suoni linguistici può essere diviso in due campi: fonetica e fonologia.
La fonetica è lo studio dei suoni del parlato intesi come eventi fisici e psicologici. Essa comprende un vasto campo di ricerche sulle proprietà acustiche del linguaggio e il rapporto tra tali caratteristiche acustiche e il modo in cui l' essere umano percepisce e ha esperienza del linguaggio stesso. Comprende, inoltre, lo studio approfondito dellinguaggio come sistema motorio che pone l'accento sull'anatomia e la fisiologia della produzione orale. Nell'ambito della fonetica i linguisti lavorano insieme a tecnici del suono, psicologi sperimentali, informatici e ricercatori biomedici. La fonologia è una disciplina molto diversa che studia le rappresentazioni astratte sotto stanti al linguaggio, sia nella percezione che nella produzione, all'interno delle lingue umane e tra le lingue stesse. Per esempio, un fonologo può concentrarsi sulle regole che governano il contrasto sonoro/sordo nella grammatica inglese, come l'opposizione tra la -s sorda in cats e la -s sonora in dogs. Questo contrasto nella formazione del plurale assomiglia al contrasto sordo/ sonoro nella formazione del passato in inglese, quale, per esempio, quello tra -ed sordo di walked e -ed sonoro di wagged. I fonologi ricercano un insieme di regole o principi che possano spiegare analogie di questo tipo e tentano di estenderli a nuovi casi di formazione delle parole in una particolare lingua. Pertanto la fonologia è una sorta di interfaccia tra la fonetica e le altre regolarità che costituiscono la lingua umana, posta a una certa distanza dal suono inteso come evento fisico.
Alcuni teorici sostengono che la fonologia non dovrebbe esistere come disciplina a sé stante e che le generalizzazioni scoperte dai fonologi debbano essere spiegate esclusivamente in termini fisici e psicofisici. Questo è essenzialmente l'approccio epigenetico. Altri ritengono che la fonologia costituisca un livello di analisi completamente indipendente, le cui leggi non possono essere ricondotte a nessuna combinazione di eventi fisici. Non sorprende che questo sia l'approccio adottato dagli innatisti, soprattutto da coloro i quali ritengono che il linguaggio abbia una sua propria macchina neuronale dedicata. Indipendentemente dalla specifica posizione assunta in questo dibattito, è chiaro che fonetica e fonologia non sono la stessa cosa. Se si analizzano i suoni del parlato da un punto di vista fonetico, basato su tutti i diversi suoni che possono essere prodotti dall'apparato fonatorio umano, otteniamo circa 600 possibili contrasti sonori che possono essere utilizzati dalle lingue (e anche di più, se utilizziamo un sistema estremamente raffrnato per categorizzare i suoni). Tuttavia, nella maggior parte delle lingue umane non vengono usate più di 40 contrasti per costruire le parole.
Per spiegare questo punto, consideriamo la seguente differenza tra inglese e francese. In inglese, il suono aspirato indicato dalla lettera (h) viene usato fonologicamente, per esempio per indicare la differenza tra at e hat. l parlanti francesi sono perfettamente capaci di emettere questi suoni, ma il contrasto creato dalla presenza o dall'assenza di aspirazione non viene utilizzato per contrassegnare una differenza sistematica tra parole. Allo stesso modo, la lingua inglese ha un contrasto binario tra i suoni indicati da (d) e (t) che viene utilizzato per indicare contrasti sistematici come tune e dune. La lingua thai ha entrambi i contrasti e ha inoltre un terzo confine tra la (t) e la (d) inglese. l parlanti inglesi sono capaci di produrre questo terzo contrasto che, infatti, rappresenta il modo normale di pronunciare la consonante intermedia in una parola come buttero La differenza risiede nel fatto che la lingua thai usa questo terzo contrasto fonologicamente (per formare nuove parole), mentre l'inglese lo usa solo foneticamente, in quanto permette di pronunciare fonemi bersaglio passando rapidamente da una parola all'altra (in questo caso si parla anche di variazione allofonica). Nella nostra panoramica sugli studi che si occupano dell'elaborazione, dello sviluppo e delle basi neuronali dei suoni del parlato sarà utile distinguere tra approccio fonetico e approccio fonologico o fonemico.
Linguaggio e significato: semantica e lessico
Lo studio del significato linguistico rappresenta l'ambito di studio di un campo della linguistica chiamato semantica. La semantica è anche una branca della filosofia che pone l'enfasi sulla relazione tra significato e logica formale. La semantica viene suddivisa tradizionalmente in due aree: la semantica lessicale, che si occupa dei significati associati ai singoli elementi lessicali (cioè, le parole), e la semantica proposizionale o relazionale, che si occupa dei significati relazionali che generalmente esprimiamo con un'intera frase.
La semantica lessicale è stata studiata da linguisti di diverse scuole e abbraccia una vasta gamma di indagini, dal lavoro minutamente descrittivo dei lessicografi (cioè gli 'scrittori di dizionari') alla ricerca teorica sul significato lessicale e sulla forma lessicale di scuole molto diverse della linguistica formale e della grammatica generativa (McCawley, 1993). Alcuni teorici sottolineano lo stretto rapporto tra semantica e grammatica, utilizzando una combinazione di semantica lessicale e proposizionale per spiegare i vari significati codificati nella grammatica. Questa è la posizione degli studiosi che hanno adottato un approccio epigenetico al linguaggio: essa è sostenuta da alcune scuole specifiche quali quelle della grammatica cognitiva, della semantica generativa e del funzionalismo linguistico. Altri teorici, invece, sostengono l'indipendenza strutturale di semantica e grammatica, posizione, questa, associata a coloro che adottano un approccio innatista della lingua.
La semantica proposizionale è stata principalmente dominio di filosofi del linguaggio interessati al rapporto tra la logica sotto stante la lingua naturale e la gamma dei possibili sistemi logici che sono stati scoperti negli ultimi due secoli dalla ricerca sul ragionamento formale. Una proposizione viene definita come un'asserzione che può essere giudicata vera o falsa. La struttura interna di una proposizione comprende un predicato e uno o più argomenti di quel predicato. Un argomento è un'entità o una cosa di cui vogliamo parlare. Un predicato a un argomento è uno stato, attività o identità che attribuiamo a un'unica entità (per esempio, attribuiamo la bellezza a Maria nella frase "Maria è bella" oppure attribuiamo 'l'ingegnerità' a un particolare individuo nella frase "Giovanni è un ingegnere"). Un predicato polivalente è una relazione che attribuiamo a una o più entità o cose. Per esempio, il verbo baciare è un predicato bivalente che crea la relazione asimmetrica baciare tra due entità nella frase "Giovanni bacia Maria". Il verbo dare è un predicato trivalente che mette in relazione tre entità nella proposizione espressa dalla frase "Giovanni dà un libro a Maria". l filosofi tendono a preoccuparsi di come stabilire la verità o la falsità delle proposizioni e di come trasmettere (o nascondere) la verità nella lingua naturale o nelle lingue artificiali. l linguisti tendono a preoccuparsi delle forme proposizionali utilizzate nelle lingue naturali. Gli psicologi, invece, tendono a preoccuparsi della forma e della natura delle rappresentazioni mentali che codificano le conoscenze proposizionali; in particolare, gli psicologi dell'età evolutiva si occupano del processo attraverso cui i bambini raggiungono la capacità di esprimere tali conoscenze proposizionali. In tutti i campi, coloro che adottano un approccio innati sta alla natura del linguaggio umano tendono a evidenziare l'indipendenza del significato proposizionale e combinatorio dalle regole per la combinazione delle parole nella grammatica. Per contro, le varie scuole che adottano un approccio epigenetico tendono a evidenziare sia le somiglianze strutturali che la relazione causale tra i significati proposizionali e la struttura grammaticale, suggerendo che gli uni derivano dall' altra.
Come si incontrano suoni e significati: la grammatica
Il settore della linguistica che studia il modo in cui le singole parole e altri suoni si combinano per esprimere un significato si chiama grammatica. Lo studio della grammatica tradizionalmente si divide in due parti: morfologia e sintassi. La morfologia studia i principi che governano la costruzione di parole e di sintagmi complessi per scopi lessicali o grammaticali. Questo campo è ulteriormente suddiviso in due sottodiscipline: la morfologia derivazionale e la morfologia flessiva.
La morfologia derivazionale si occupa della costruzione di parole complesse partendo da componenti semplici: per esempio, la parola governatore deriva dal verbo governare e dal morfema derivazionale -tore. Alcuni studiosi sostengono che la morfologia derivazionale effettivamente appartenga alla semantica lessicale e non dovrebbe essere inclusa nella grammatica. Tuttavia, il raggruppamento della morfologia derivazionale nella semantica descrive meglio una lingua come l'inglese piuttosto che lingue altamente flessive come l'eschimese della Groenlandia in cui un'intera frase può essere espressa da un'unica parola con diversi morfemi derivazionali e flessivi. La morfologia flessiva studia le modulazioni della struttura della parola che hanno conseguenze grammaticali. Tali modulazioni si realizzano per flessione, per es. aggiungendo in inglese -ed al verbo per formare il passato come in walked, o per sostituzione, per es. sostituendo il passato irregolare went al presente go. Alcuni linguisti includono nella morfologia flessiva anche lo studio di come funtori liberi, quali per esempio verbi ausiliari (avere/essere), preposizioni (per esempio, da/per) o articoli vengono aggiunti a verbi e nomi per costituire sintagmi nominali o verbali complessi. Ciò avviene, per esempio, nel processo che espande un verbo, come "ha corso/aveva corso", oppure nel processo che espande un nome, come "cane", in un sintagma nominale del tipo "il cane" o in un sintagma preposizionale del tipo "dal cane".
La sintassi viene definita come l'insieme dei principi che governano il modo in cui le parole e altri morfemi sono ordinati per formare una frase possibile in una data lingua. Per esempio, la sintassi dell'inglese contiene principi che spiegano perché la frase "Mary kissed John" ("Maria ha baciato Giovanni") è una frase possibile, mentre "Mary John kissed" ("Maria ha Giovanni baciato") suona come una frase strana. Va notato, comunque, che entrambe le frasi sarebbero accettabili in tedesco; quindi, in qualche misura, queste regole e questi vincoli sono arbitrari. La sintassi può anche contenere principi che descrivono la relazione tra diverse forme della stessa frase (per esempio, la frase attiva "Gianni ha picchiato Luigi" e la forma passiva "Luigi è stato picchiato da Gianni") e i modi per inserire una frase in un'altra (per esempio "Il ragazzo che è stato picchiato da Gianni ha picchiato Luigi").
Le lingue variano moltissimo a seconda di quanto facciano affidamento sulla sintassi o sulla morfologia per esprimere i significati proposizionali di base. Un esempio particolarmente chiaro è la differenza che esiste tra le varie lingue nei mezzi per esprimere una relazione proposizionale chiamata transitività (che corrisponde a 'chi ha fatto cosa a chi'). L'inglese usa l'ordine delle parole come indizio regolare e affidabile del significato di una frase: per esempio, nella frase "John kissed a girl" sappiamo immediatamente che "John" è l'attore e "girl" è il paziente. Allo stesso tempo, l'inglese usa pochissimo la morfologia flessiva per indicare la transitività, o qualsiasi altro importante aspetto del significato della frase. Così, non ci sono marche sulle parole "John" e "girl" a indicare chi ha baciato chi, né esistono indicatori di transitività sul verbo "kissed". In ungherese, invece, accade il contrario, in quanto questa lingua possiede un sistema morfologico molto ricco, ma ha un elevato grado di variabilità nell'ordine delle parole. In ungherese, frasi come "John kissed a girl" possono essere espresse praticamente con qualsiasi ordine delle parole, senza perdita di significato.
Alcuni linguisti hanno sostenuto che questo tipo di variazione dell'ordine delle parole sia possibile solo in lingue ricche di marche morfologiche. Per esempio, la lingua ungherese prevede dei suffissi di caso su ogni nome, che indicano in maniera non ambigua 'chi ha fatto cosa a chi', e delle marche speciali sul verbo che concordano con l'oggetto in defrnitezza. Quindi, la traduzione in ungherese dell'esempio inglese equivarrebbe a "John-agente indefinito-girl-paziente-kissed-indefinito". Tuttavia, il cinese pone un problema a questo proposito: esso non ha marche flessive di alcun genere (per esempio, non ha marche di caso né forme di accordo) e tuttavia permette una considerevole variazione dell'ordine delle parole a scopo stilistico. Quindi, gli ascoltatori cinesi devono esclusivamente affidarsi a indizi probabilistici per capire 'chi ha fatto cosa a chi', comprese alcune combinazioni di ordini di parole (cioè, alcuni ordini sono più probabili di altri, sebbene ne siano possibili molti) e il contenuto semantico della frase (è più probabile che dei ragazzi mangino delle mele che non viceversa). In breve, appare ormai chiaro come le lingue umane abbiano trovato diverse soluzioni al problema della mappatura.
Chomsky e i suoi seguaci hanno definito la grammatica universale come l'insieme delle possibili forme che la grammatica di una lingua naturale può assumere. Questi caratteri universali possono essere visti in due modi: come l'intersezione di tutte le grammatiche umane, cioè l'insieme di strutture che ogni lingua deve avere, oppure come l'unione di tutte le grammatiche umane, cioè l'insieme di possibili strutture tra le quali ogni lingua umana deve scegliere. Chomsky ha sempre sostenuto che la grammatica universale è innata, in una forma peculiare propria del linguaggio. In altre parole, la grammatica non assomiglia né si comporta come nessun altro sistema cognitivo esistente. Tuttavia, lo studioso ha modificato le sue idee nel corso degli anni circa il modo in cui queste conoscenze innate si realizzano in lingue specifiche come il cinese o il francese. Agli albori della grammatica generativa la ricerca dei caratteri universali si sviluppava intorno al concetto di un'intersezione universale.
Quando le enormi differenze tra le lingue cominciarono a diventare più evidenti, e l'intersezione tra di esse si riduceva sempre di più, Chomsky cominciò a spostare la sua attenzione dall' intersezione all'unione delle possibili grammatiche. In sostanza, oggi egli ritiene che i bambini nascano con un insieme di opzioni innate che definisce il modo in cui gli oggetti linguistici come i nomi e i verbi possono essere messi insieme. Il bambino non impara realmente la grammatica (nel modo in cui il bambino potrebbe imparare a giocare a scacchi), ma l'ambiente linguistico funge da innesco per la scelta di alcune opzioni e fa sì che altre vengano meno. Questo processo viene chiamato fissazione dei parametri. La fissazione dei parametri assomiglia all'apprendimento, in quanto permette di spiegare perché le lingue appaiono così diverse e come i bambini si muovono secondo gli obiettivi della propria lingua. Tuttavia, Chomskye i suoi seguaci sono convinti che la fissazione dei parametri (la scelta tra una grande riserva di possibili opzioni) sia diversa dall'apprendimento (l'acquisizione di strutture che non era presente prima che l'apprendimento avesse luogo) e che l'apprendimento, così definito, svolga un ruolo limitato, e forse addirittura marginale, nello sviluppo della grammatica.
Molti teorici non condividono questo approccio alla grammatica sulla base delle motivazioni precedentemente illustrate. Gli empiristi potrebbero sostenere che la fissazione dei parametri è un vero e proprio apprendimento (cioè, i bambini ricevono nuove cose anche dall'ambiente e non scelgono semplicemente tra le opzioni innate). I sostenitori dell'approccio epigenetico adottano un'impostazione ancora diversa che si colloca tra la fissazione dei parametri e l'apprendimento. Più precisamente, un sostenitore dell'approccio epigenetico potrebbe dire che alcune combinazioni di caratteristiche grammaticali sono più convenienti da elaborare rispetto ad altre. Queste osservazioni sull' elaborazione pongono dei limiti alla classe di possibili grammatiche: alcune combinazioni funzionano, altre no. Per fare un'analogia, perché un passero può volare mentre un emù non può? Forse l'emù non possiede 'conoscenze innate sul volo' oppure non possiede il rapporto tra peso e apertura alare, fondamentale per il volo? Si può applicare lo stesso ragionamento alla grammatica. Per esempio, nessuna lingua possiede una regola grammaticale che prevede di trasformare un'asserzione in una domanda presentando la frase al contrario, come nel caso seguente: "Gianni colpisce il pallone" "Pallone il colpisce Gianni?".
Chomsky sosterrebbe che tale regola non esiste perché non è contenuta nella grammatica universale. Potrebbe esistere, ma di fatto non esiste. I sostenitori dell' approccio epigenetico direbbero che tale regola non esiste perché sarebbe molto difficile produrre o comprendere frasi in tempo reale secondo un principio di ricostruzione del tipo avantiindietro. Potrebbe funzionare con frasi composte da tre o quattro parole, ma la nostra memoria verrebbe meno se fossero più lunghe, come nel caso: "il bambino che ha dato un calcio alla bambina ha colpito la palla che Peter ha portato" "portato ha Peter che palla la colpito ha bambina alla calcio un dato ha che bambino il?"
In altre parole, la regola di ricostruzione all'indietro per la formazione delle domande non esiste perché sarebbe incompatibile con il tipo di memoria con cui dobbiamo lavorare. Entrambi gli approcci suppongono che le grammatiche sono come sono per il modo in cui il cervello umano funziona. La differenza non risiede nell'opposizione natura versus cultura quanto nella 'natura della natura', cioè nella domanda se tale capacità venga costruita da materiali specifici della lingua o da ingredienti cognitivi più generali.
Il linguaggio nel contesto sociale: pragmatica e discorso
Le varie sottodiscipline che abbiamo finora illustrato riflettono uno o più aspetti della forma linguistica, dai suoni alle parole, alla grammatica. La pragmatica è definita lo studio del linguaggio nel contesto: è una branca della linguistica e della filosofia che si concentra, invece, sul linguaggio come forma di comunicazione, uno strumento che utilizziamo per raggiungere certi fini sociali (Bates, 1976). La pragmatica è una disciplina non definita chiaramente e infatti qualcuno l'ha definita il 'cestino della spazzatura' della teoria linguistica. Essa comprende lo studio degli atti linguistici (una tassonomia degli atti della comunicazione socialmente riconosciuti che compiamo quando dichiariamo, ordiniamo, dubitiamo, battezziamo, imprechiamo, promettiamo, sposiamo, ecc.), delle presupposizioni (le informazioni di base necessarie perché un determinato atto del discorso funzioni, per esempio il significato sotteso a una domanda insidiosa come "Hai smesso di picchiare tua moglie?") e i postulati conversazionali (principi che governano la conversazione come attività sociale, per esempio l'insieme dei segnali che regolano l'alternanza dei turni e la tacita consapevolezza di aver detto troppo o troppo poco per sostenere una certa posizione).
La pragmatica include anche lo studio del discorso che, a sua volta, comprende lo studio dei tipi di discorso (per esempio, come costruire un paragrafo, una storia, oppure una barzelletta) e lo studio della coesione testuale, cioè il modo in cui utilizziamo i singoli dispositivi linguistici quali congiunzioni (e, quindi), pronomi (egli, lei, quello), articoli definiti (il/lo/la rispetto a un/uno/una) e addirittura intere frasi o proposizioni ("L'uomo di cui ti ho parlato") per legare insieme frasi, distinguere tra informazioni vecchie e nuove e mantenere l'identità di singoli elementi citati in parti diverse di un testo (cioè, le relazioni di coreferenza).
Dovrebbe essere chiaro che la pragmatica è un campo eterogeneo, privo di confini ben definiti. Tra le altre cose, il perfetto dominio degli aspetti pragmatici del linguaggio implica moltissime informazioni socioculturali: informazioni sui sentimenti e gli stati interni, la conoscenza di come appare il discorso dal punto di vista di chi ascolta, e la considerazione del rapporto di potere e intimità tra i parlanti che entra in gioco quando occorra calcolare quanto bisogna essere cortesi o espliciti per far valere un'opinione nel corso della conversazione. Immaginiamo un marziano che arrivi sulla Terra sapendo tutto di fisica e matematica, armato di elaboratori che potrebbero accedere a qualsiasi codice. Nonostante questi potenti strumenti, sarebbe impossibile per il marziano capire perché usiamo la lingua come la usiamo, a meno che egli non abbia una vasta conoscenza della società e delle emozioni umane. Per la stessa ragione, questo è un settore del linguaggio in cui i disturbi socioemotivi potrebbero avere effetti devastanti sullo sviluppo (per esempio, i bambini autistici hanno risultati particolarmente negativi nei compiti pragmatici). Ciononostante, alcuni linguisti hanno cercato di organizzare alcuni aspetti della pragmatica in uno o più moduli indipendenti, ognuno con le sue proprietà innate (Sperber e Wilson, 1986). Come vedremo più avanti, nell'ambito della neurolinguistica recentemente si è tentato di identificare un locus neuronale specifico per l'aspetto pragmatico della conoscenza linguistica.
Ora che abbiamo una mappa delle componenti della lingua, esploriamone brevemente ognuna, illustrando le attuali conoscenze su come, a ogni livello, le informazioni vengono elaborate dagli adulti, acquisite dai bambini e mediate nel cervello umano.
I suoni linguistici
L'elaborazione del linguaggio negli adulti normali
Lo studio dell' elaborazione linguistica a partire da una prospettiva psicologica ebbe inizio dopo la Seconda guerra mondiale, quando cominciarono a essere disponibili gli strumenti che permettevano un'analisi dettagliata del linguaggio come evento fisico. Il più importante di questi strumenti era lo spettro grafo acustico che, diversamente dal più conosciuto oscilloscopio che visualizza le frequenze acustiche nel tempo, visualizza i cambiamenti nel tempo dell'energia contenuta all'interno delle diverse bande di frequenza. In figura (fig. 5) è illustrato uno spettrogramma del suono per la frase "/s language innate?" ("Il linguaggio è innato?"), una delle domande fondamentali di questo campo.
Questo tipo di visualizzazione si è dimostrato utile non solo in quanto permette l'analisi visiva dei suoni del linguaggio, ma anche perché permette di 'raffigurare' suoni linguistici artificiali e farli riascoltare per determiname gli effetti sulla percezione da parte di un essere umano. Inizialmente gli scienziati speravano che questo dispositivo potesse costituire la base per mettere a punto 'lettori' di linguaggio parlato per le persone sorde: l'unica cosa da fare era (o sembrava essere) individuare 'l'alfabeto', cioè la configurazione visiva corrispondente a ognuno dei principali fonemi linguistici. Allo stesso modo dovrebbe essere possibile creare dei sistemi artificiali che comprendano il linguaggio: così potremmo avvicinarci a un bancomat e dirgli il nostro codice segreto, l'ammontare desiderato e così via. Sfortunatamente le cose non sono così semplici. Infatti, non esiste una chiara relazione isomorfica tra i suoni linguistici che i parlanti nativi sentono e il tracciato visivo prodotto da tali suoni. Più precisamente, la relazione tra i segnali linguistici e la percezione del linguaggio è priva di due importanti proprietà: la linearità e l'invarianza.
La linearità si riferisce al modo in cui il linguaggio si manifesta nel tempo. Se il segnale linguistico avesse linearità, allora nello spettrogramma del suono esisterebbe un rapporto isomorfico da sinistra a destra tra il linguaggio come segnale e il linguaggio come esperienza. Per esempio, consideriamo la sillaba da visualizzata nello spettrogramma artificiale in figura (fig. 6). Se il segnale linguistico fosse lineare, la prima parte di questo suono (la componente d) dovrebbe corrispondere alla prima parte dello spettrogramma e la seconda parte (la componente a) dovrebbe corrispondere alla seconda parte dello stesso spettrogramma. Tuttavia, se facessimo ascoltare queste due componenti separatamente a un parlante nativo, esse non assomiglierebbero affatto alle due metà di da. Il suono vocalico effettivamente suona come la vocale a, ma la componente d presentata separatamente (senza contesto vocalico) non sembra affatto un suono linguistico. Sembrerebbe che la nostra esperienza del linguaggio implichi la riorganizzazione e l'integrazione del segnale fisico in entrata per creare l'esperienza percettiva unificata che tutti conosciamo.
L'invarianza si riferisce al rapporto tra il segnale e la percezione del segnale stesso in diversi contesti. Anche se il segnale è privo di linearità, gli scienziati una volta speravano che la stessa porzione dello spettrogramma che dà origine all'esperienza d nel contesto di corrispondesse anche all'esperienza della d nel contesto du. Ma, ahimè, le cose non stavano così. Come indica la figura 6, la componente responsabile della d appare completamente diversa a seconda della vocale che la segue. Per di più, la componente d della sillaba du assomiglia alla componente g della sillaba ga. Infatti, la forma del pattem visivo che corrisponde a un suono consonantico può addirittura variare con il tono della voce del parlante, cosicché la sillaba da prodotta da un bambino presenta un pattem completamente diverso dalla sillaba da prodotta da un adulto di sesso maschile.
Questi problemi possono essere osservati negli stimoli linguistici artificiali e isolati. Nel linguaggio fluente i problemi sono addirittura peggiori (v. oltre). Sembra che i parlanti nativi usino diverse parti del contesto per scoprire i confini tra una parola e l'altra. Nessun tipo di sistema semplice di regole dall' alto in basso è sufficiente per eseguire questo compito. Questo è il motivo per cui ancora non esistono lettori del linguaggio parlato per le persone sorde o elaboratori capaci di percepire la produzione linguistica fluente di diversi parlanti, sebbene questo tipo di macchine esista da decenni nella fantascienza. Il problema della percezione del linguaggio diventò "curioser and curioser" ("sempre più singolare"), come direbbe Lewis Carroll, al punto da portare negli anni Sessanta un gruppo di scienziati del linguaggio a ipotizzare che gli esseri umani realizzino la percezione linguistica per mezzo di un dispositivo particolare di cui è dotato esclusivamente il cervello umano. Per ragioni che vedremo tra breve, questi scienziati erano anche convinti che questo dispositivo per la percezione del linguaggio fosse innato, perfettamente funzionante nel neonato umano fin dalla nascita. Ritenevano, inoltre, che gli esseri umani elaborassero questi suoni linguistici non come eventi acustici, ma testando l'input linguistico rispetto a eventuali modelli motori (cioè, versioni dello stesso suono linguistico che l'ascoltatore può produrre per se stesso, una sorta di analisi per sintesi). Questo concetto, chiamato teoria motoria della percezione del linguaggio, venne presentato per spiegare per quale motivo l'elaborazione linguistica è non lineare e invariante da un punto di vista acustico e perché solamente gli esseri umani (almeno così si riteneva) sono in grado di percepire il linguaggio.
Per diverse ragioni (alcune delle quali saranno discusse oltre) questa ipotesi ha conosciuto momenti difficili. Oggi moltissimi studiosi sono nuovamente favorevoli all'idea che il linguaggio sia dopo tutto un evento acustico, sebbene molto complesso e difficile da comprendere esaminando gli spettro grammi del linguaggio come quelli delle figure 5 e 6. In primo luogo, i ricercatori che utilizzano il particolare tipo di dispositivo computazionale chiamato rete neurale hanno dimostrato che, dopo tutto, le unità linguistiche di base possono essere apprese anche da una macchina piuttosto stupida con accesso esclusivamente a dati linguistici sonori grezzi (cioè, senza alcun modello motorio da far corrispondere a un segnale). Così la capacità di percepire queste unità non deve essere innata, ma potrebbe essere appresa. Questa osservazione ci porta al punto successivo: come si sviluppa il linguaggio.
Lo sviluppo dei suoni linguistici nei bambini
Percezione del linguaggio. - È stata sviluppata una serie di tecniche raffinate per determinare l'insieme di contrasti fonetici/fonemici percepiti dai bambini in età preverbale. Tali tecniche includono la misurazione della frequenza della suzione, che si basa sul fatto che quando i bambini percepiscono uno stimolo nuovo e interessante tendono a succhiare vigorosamente, la tecnica della abituazione e disabituazione, che fa affidamento sulla tendenza dei bambini a 'orientarsi' o attivare nuovamente l'attenzione quando percepiscono un cambiamento interessante nell'input visivo o uditivo, e quella della rotazione condizionata della testa, che consiste nel condizionare un lattante a girare il capo verso i suoni appartenenti a una categoria sonora ma non a un'altra, tecnica che permette al ricercatore di ridi segnare i confini tra le categorie dal punto di vista del bambino (Aslin et al., 1998). Sebbene le tecniche siano rimaste invariate per più di 20 anni, le nostre conoscenze del repertorio iniziale del bambino e del modo in cui esso cambia nel tempo sono state sostanzialmente modificate.
Nel 1971, P. Eimas e collaboratori pubblicarono un importante articolo in cui si dimostrava che i bambini sono in grado di percepire i contrasti tra i suoni linguistici pa e ba (Eimas et al., 1971). Cosa ancora più importante, essi furono in grado di dimostrare che i bambini sentono questi suoni in modo categoriale. Per illustrare questo punto, si provi a mettere una mano sulla gola e l'altra (con il dito indice sollevato) davanti alla bocca. Alternando i suoni pa e ba si noterà che la bocca si apre prima che le corde vocali vibrino per emettere il suono pa, mentre il tempo tra la vibrazione delle corde vocali e l'apertura delle labbra è molto più breve quando si emette il suono ba. Tale variabile, chiamata VOT (Voice Onset Time, tempo di inizio della vocalizzazione), è una dimensione continua in fisica, ma discontinua nella percezione umana. In altre parole, gli ascoltatori umani sentono una demarcazione netta e discontinua intorno a 20 ms tra l'apertura della bocca e l'attacco della sonorità; prima di quel limite le repliche ba sembrano molto simili e dopo tale punto è difficile distinguere le repliche pa, ma in corrispondenza di quella linea di demarcazione si può sentire un chiaro cambiamento. Per scoprire se i bambini possiedono tale capacità di discriminazione, Eimas e collaboratori utilizzarono la procedura di misurazione della frequenza della suzione, ossia gli autori annoiarono i bambini con una serie di stimoli appartenenti alla medesima categoria (per es., ba), per poi presentare loro delle nuove versioni in cui il VOT veniva spostato gradualmente verso la linea di demarcazione dell'adulto. I bambini ricominciavano a succhiare vigorosamente (il che corrisponde all'esclamazione "Ehi! questo è nuovo!"): un brusco cambiamento proprio in corrispondenza della stessa linea di demarcazione dove gli adulti umani percepiscono un contrasto consonantico.
Ciò significa che la capacità di sentire le distinzioni categoriali della lingua è innata? Sì, probabilmente lo è. Ma significa anche che tale capacità è basata su un processore innato che si è sviluppato esclusivamente per il linguaggio? Eimas e i suoi collaboratori pensavano di sì, ma la storia ha dimostrato che avevano torto. P.K. Kuhl e J.D. Miller (1975) fecero una scoperta devastante per l'approccio innati sta: anche i cincillà riescono a sentire il confine tra le consonanti e lo sentono in modo categoriale, circa nella stessa posizione di quello percepito dagli esseri umani. Tale risultato è stato replicato in varie specie, con diversi metodi, esaminando molti aspetti diversi del segnale linguistico. In altre parole, la percezione categoriale del linguaggio non è dominio-specifica e non si sviluppa al servizio del linguaggio. L'orecchio non si è sviluppato per soddisfare la bocca umana: piuttosto il linguaggio umano si è sviluppato per trarre vantaggio dalle distinzioni già presenti nel sistema uditivo dei mammiferi. Questa è una illustrazione particolarmente chiara della differenza tra innatismo e specificità di dominio accennata nell'introduzione.
Dalla scoperta che la percezione categoriale e i fenomeni linguistici non sono specifici del linguaggio, la ricerca sulla percezione linguistica infantile si è allontanata dall'interesse per lo stato iniziale per concentrarsi sul processo con il quale i bambini mettono a punto la loro percezione per adattarla alle peculiarità della lingua madre. Oggi sappiamo che i neonati possono sentire virtualmente tutti i contrasti fonetici utilizzati dalle lingue umane. Infatti, possono sentire cose che non sono più percepibili dall'adulto. Per esempio, gli ascoltatori giapponesi hanno difficoltà a sentire il contrasto tra ra e la, ma i bambini giapponesi non hanno alcun problema con questa distinzione. Quando perdono (o sopprimono) la capacità di sentire suoni che non fanno parte della loro lingua? l dati attuali indicano che la soppressione dei suoni linguistici non nativi comincia intorno agli 8÷10 mesi di età, momento in cui la maggior parte dei bambini comincia a dare prova di comprendere sistematicamente delle parole. Sembra che nulla venga regalato: per potersi sintonizzare sui suoni specifici della lingua e poterne estrapolare il significato, il bambino deve 'escludere' quelle variazioni fonetiche che non sono usate nella lingua.
Ciò non significa, tuttavia, che i bambini prima dei 10 mesi di età siano 'neutrali' rispetto alla lingua. Gli studi condotti hanno dimostrato che frn da quando sono nel ventre materno i bambini apprendono qualcosa sui suoni della propria lingua madre! l bambini francesi si girano per ascoltare preferibilmente il francese nelle prime ore o nei primi giorni di vita, preferenza che non viene manifestata da neonati che nell'ultimo trimestre di gravidanza sono stati immersi in una lingua diversa. Indipendentemente da ciò che i francesi pensano del fascino universale della loro lingua, questa non è preferita universalmente alla nascita. Qualcosa dei pattern sonori della lingua madre penetra il ventre materno e la capacità di imparare qualcosa di questi pattern è presente nell 'ultimo mese di gravidanza. Tuttavia questo qualcosa è probabilmente vago e impreciso. Kuhl e collaboratori hanno dimostrato che un più preciso apprendimento specifico della lingua si verifica tra la nascita e i sei mesi di età, sotto forma di preferenza per prototipi di suoni vocalici nella lingua di quel particolare bambino. Inoltre, entro i sei mesi di età il numero di vocali 'preferite' viene perfezionato seguendo le caratteristiche specifiche della lingua. Sembra che le informazioni specifiche della lingua sulle consonanti facciano la loro apparizione più tardi e probabilmente coincidono con la soppressione dei contrasti non nativi e con la capacità di comprendere parole.
Per riassumere, i bambini inizialmente possiedono la capacità universale di sentire tutti i suoni linguistici usati in qualsiasi lingua naturale. Tale capacità è innata, ma apparentemente non è specifica del linguaggio (né specifica degli esseri umani). L'apprendimento dei segnali linguistici comincia quando il sistema uditivo è in funzione (più o meno nell'ultimo trimestre di gravidanza) e si sviluppa progressivamente nel corso del primo anno di vita, finché i bambini sono alla fine capaci di eliminare suoni irrilevanti e di sintonizzarsi con le demarcazioni fonologiche specifiche della loro lingua madre. A questo punto, la semplice produzione linguistica si trasforma in lingua reale, cioè la capacità di trasformare i suoni in significato.
Produzione linguistica. - Questa visione dello sviluppo della percezione linguistica è corroborata dalle scoperte sullo sviluppo della produzione linguistica (Menn e Stoel-Gammon, 1995). Nei primi due mesi, i suoni prodotti dai bambini sono riflessivi, suoni 'vegetativi' legati a specifici stati interiori (per esempio, il pianto). Tra i due e i sei mesi, i bambini cominciano a produrre suoni vocalici (vocalizzazione e giochi vocalici). La cosiddetta lallazione canonica o reduplicata comincia intorno ai 6÷8 mesi nella maggior parte dei bambini: la lallazione in brevi segmenti o in stringhe più lunghe ora interrotte da consonanti (per esempio, "dadada"). Nel periodo tra i 6 e i 12 mesi, la lallazione si sposta verso i pattern sonori tipici della lingua materna dei bambini (cosicché ascoltatori adulti possono distinguere la lallazione di bambini cinesi, francesi e arabi). Tuttavia, ancora non sappiamo quali caratteristiche della lallazione dei bambini portino a questa discriminazione, cioè, se essa si basa sulle consonanti, sulla struttura sillabica o sulle caratteristiche dell'intonazione dei suoni linguistici. Infatti, alcuni ricercatori sostengono che la produzione di consonanti può essere relativamente immune agli effetti specifici della lingua fino al secondo anno di vita. Intorno ai 10 mesi di età alcuni bambini cominciano a produrre suoni simili a parole, utilizzati in maniera relativamente consistente in particolari contesti: per esempio "nana", suono prodotto nelle richieste; "bam", pronunciato in giochi in cui fanno cadere i giocattoli. Da questo momento in poi (se non prima) lo sviluppo fonologico infantile è fortemente influenzato da altri aspetti dell'apprendimento linguistico (cioè, grammatica e lessico). Si registra una considerevole variabilità tra i bambini per quanto riguarda i particolari suoni linguistici che preferiscono. Tuttavia, esiste una chiara continuità nei suoni preferiti da ogni bambino dalla lallazione prelinguistica alle prime parole. Questo risultato contraddice una famosa previsione del linguista R. Jakobson, il quale credeva che la lallazione prelinguistica e la produzione linguistica dotata di significato fossero discontinue. Lo sviluppo fonologico esercita una forte influenza sulle prime parole che i bambini cercano di produrre: essi, cioè, evitano l'uso di parole che non sanno pronunciare e fanno proprie nuove parole quando sviluppano un appropriato modello fonologico per quelle parole. Inoltre, lo sviluppo lessicale influenza fortemente i suoni che un bambino produce; più precisamente, i fonemi preferiti del bambino tendono a derivare dai suoni presenti nelle sue prime parole preferite. Infatti, sembra che i bambini trattino questi prototipi lessicalilfonologici come una sorta di campo base da cui partire per esplorare il mondo dei suoni prendendo varie direzioni, ma senza perdere mai di vista la propria casa.
Lo sviluppo fonologico interagisce con lo sviluppo lessicale e grammaticale per almeno 3 anni. Così, sembra che i bambini che hanno difficoltà con un particolare suono (per esempio, la s sibilante) posticipino l'uso produttivo delle flessioni grammaticali che contengono tali suoni (nel caso della s sibilante, il plurale in inglese). Un'altra diversa interazione lessicale/fonologica è illustrata dai molti casi in cui lo stesso suono linguistico viene prodotto correttamente nel contesto di una parola, ma erroneamente in un altro; per esempio, il bambino può dire "cacco" invece di "tacco" e non avere alcuna difficoltà nel pronunciare la t di "tetto". Pensiamo che ciò sia dovuto a fattori articolatori: è difficile spostare l'apparato fonatorio (della lingua) in avanti e indietro tra la posizione dentale (in t) e la posizione occlusiva velare (nella parte cc di "tacco"), così il bambino raggiunge un compromesso utilizzando solo una posizione ("cacco"). Cioè, il bambino può essere capace di produrre tutti i suoni rilevanti isolatamente, ma avere difficoltà a produrli nelle combinazioni richieste da certe parole bersaglio.
Dopo il terzo anno di vita, quando lo sviluppo grammaticale e lessicale si è assestato, anche la fonologia diventa più stabile e sistematica: per molti anni il bambino non produce più errori ovvi, oppure può persistere negli stessi errori fonologici (per esempio, la difficoltà nel pronunciare r e l) indipendentemente dal contesto lessicale. Quello che avviene dopo i tre anni di vita fino all'età adulta, per quanto concerne lo sviluppo lessicale, può essere genericamente sintetizzato in un aumento della fluenza che comprende un fenomeno chiamato coarticolazione per il quale i suoni che verranno pronunciati successivamente in una frase vengono anticipati preparando la posizione della bocca fm da un suono linguistico precedente (per cui la s di "sole" è qualitativamente diversa dalla s di "scopa").
Per riassumere, lo sviluppo del linguaggio come sistema di suoni comincia alla nascita o forse prima (nella percezione linguistica) e continua fino all'età adulta (con un incremento costante della fluenza e della coarticolazione per i primi 20 anni di vita). Tuttavia, c'è un momento nello sviluppo fonetico e fonologico che può essere considerato una sorta di spartiacque: gli 8÷10 mesi di età, caratterizzati da cambiamenti nella percezione (per esempio, l'inibizione di suoni linguistici che non appartengono alla madrelingua) e i cambiamenti nella produzione (per esempio, l'inizio della lallazione canonica e della deriva fonologica). Questi momenti chiave nell'apprendimento del linguaggio possono essere correlati ad alcuni importanti avvenimenti dello sviluppo cerebrale umano che si verifica circa nello stesso periodo, tra cui l' apparizione della sinaptogenesi (un'esplosione nella crescita sinaptica che inizia intorno agli 8 mesi e raggiunge l'apice tra i 2 e i 3 anni di età), insieme all'evidenza di cambiamenti nell'attività metabolica all'interno dei lobi frontali, e un incremento del controllo frontale su altre funzioni corticali e subcorticali (Elman et al., 1996). Questa interessante correlazione tra cervello e sviluppo comportamentale non è limitata ai cambiamenti del linguaggio: infatti, il periodo degli 8÷10 mesi è caratterizzato da cambiamenti fondamentali in molte aree cognitive e sociali, compresi gli sviluppi relativi all'uso di strumenti, alla categorizzazione e alla memorizzazione di oggetti, all'imitazione e alla comunicazione intenzionale per mezzo di gesti. In altre parole, i momenti più sensazionali dello sviluppo linguistico sembrano essere legati a cambiamenti esterni ai confmi del linguaggio, ulteriore prova che la nostra capacità di linguaggio dipende da fattori non linguistici. Questo ci porta al punto successivo, cioè a una breve panoramica sui substrati neuronali del linguaggio.
Basi neuronali di produzione e percezione linguistica
In questa sezione e in quelle successive riguardanti le basi neuronali del linguaggio, la trattazione verrà suddivisa in modo da rispecchiare i dati raccolti dalle due principali metodologie della neurolinguistica e delle neuroscienze cognitive. Saranno presi in esame dati ottenuti dallo studio di pazienti con lesioni monolaterali (metodo molto vecchio) e quelli ottenuti attraverso l'applicazione di tecniche di neurovisualizzazione nel monitoraggio dell'elaborazione linguistica in persone normali (metodo molto più recente).
Sebbene si speri che questi due ordini di prove convergano, fornendo una visione unificata dell'organizzazione cerebrale del linguaggio, non dovremmo sorprenderci di scoprire che spesso le due metodologie portano a risultati diversi. Gli studi che si occupano degli effetti delle lesioni focali sul comportamento linguistico potrebbero indicarci quali regioni cerebrali sono necessarie per un normale uso della lingua. Gli studi che impiegano tecniche di neurovisualizzazione in soggetti normali possono dirci quali regioni cerebrali partecipano all'uso normale della lingua. Ma questi due risultati non sono necessariamente la stessa cosa.
Cosa ancora più importante per i nostri scopi, gli studi sulle lesioni e sulle tecniche di neurovisualizzazione non possono dirci dove risiede il linguaggio o qualsiasi altra funzione cognitiva superiore, cioè dove vive il 'sapere', che è indipendente da uno specifico compito. La presa elettrica sul muro dietro al televisore è necessaria per il normale funzionamento del televisore stesso (provate a togliere la spina e vi renderete conto di quanto questa sia importante). Possiamo anche dire che la spina partecipi attivamente al processo con il quale vengono visualizzate le immagini. Ciò non significa che le immagini si trovino nella spina, e non vuole nemmeno dire che le immagini passano attraverso la spina per arrivare allo schermo! Gli studi sulla localizzazione sono controversi e meritano di esserlo. La figura (fig.7) mostra una versione della mappa frenologica di F.I. Gall e le. Spurzheim proposta nel 18° secolo, ancora oggi la versione più nota e maggiormente ridicolizzata dell'idea che le facoltà superiori siano ubicate all'interno di aree discrete del cervello. Esistono tutt'oggi varianti moderne della dottrina frenologica, tra cui, per esempio, le teorie che propongono che la libera volontà risieda nella corteccia frontale, la percezione delle facce nel lobo temporale e il linguaggio in due aree dell'emisfero sinistro, una anteriore (l'area di Broca) e un'altra posteriore (l'area di Wernicke). Come vedremo in questa breve panoramica, non esiste una visione freno logica del linguaggio che possa spiegare le prove attuali ottenute mediante gli studi sulle lesioni o mediante le tecniche di neurovisualizzazione applicate all'attività cerebrale. Il linguaggio, piuttosto, sembra un evento che riguarda diverse aree del cervello, un processo complesso che non risiede in un unico luogo. Nonostante sia opportuno notare che alcune aree sono più importanti di altre, queste non devono essere considerate 'la scatola del linguaggio'. Le molteplici abilità di una ballerina non risiedono nei suoi piedi, anche se questi sono certamente più importanti di altre parti del corpo. Lo stesso vale per alcune aree del cervello che certamente sono particolarmente rilevanti per l'uso normale del linguaggio, anche se non va, tuttavia, automaticamente concluso che il linguaggio risieda in tali aree. Tenendo ben presenti questi avvertimenti, diamo un rapido sguardo alla letteratura sulle basi cerebrali della percezione e della produzione linguistica.
Studi sul linguaggio in pazienti con lesioni cerebrali. - È noto da tempo che i traumi cranici possono danneggiare le capacità di comprendere e produrre il linguaggio. Di fatto questa osservazione, pubblicata per la prima volta nel Surgical Papyrus di E. Smith, è stata attribuita all'egiziano Imhotep. Da allora fino al 19° secolo non si è andati molto oltre questa semplice osservazione. Nel 1861 P.-P. Broca osservò un paziente chiamato Tan che sembrava in grado di capire ciò che le persone gli dicevano, ma era assolutamente incapace di comunicare verbalmente con loro; la sua produzione linguistica era, di fatto, ridotta al monosillabo 'tan' da cui derivava il suo soprannome. Il paziente morì e gli venne praticata un'autopsia pochi giorni dopo essere stato sottoposto a un test da parte di Broca. Un'immagine del suo cervello (conservato per i posteri) è riportata in figura (fig. 8). Una semplice osservazione della figura consente di individuare una cavità massiccia presso la terza circonvoluzione del lobo frontale sinistro, una regione oggi nota come area di Broca. Broca e i suoi colleghi sostennero che la capacità di produrre il linguaggio risiede in questa regione del cervello.
Nel corso dei decenni successivi, i ricercatori europei si dedicarono all'individuazione di ulteriori sedi delle facoltà del linguaggio. Si distinse tra questi C. Wernicke, che descrisse una lesione diversa, ritenuta la causa di deficit di comprensione in pazienti con produzione linguistica fluente. Anche questa regione (oggi nota come area di Wernicke) si trova nell'emisfero sinistro, lungo il giro temporale superiore in prossimità della giunzione dei lobi temporale, parietale e occipitale. È stata avanzata l'ipotesi che sia questa la sede della percezione del linguaggio e che sia annessa all'area di Broca sulla parte anteriore del cervello per mezzo di un gruppo di fibre detto fascicolo arcuato. I pazienti con lesioni circoscritte a tale fascio di fibre dovrebbero essere incapaci di ripetere le parole udite, benché capaci di produzione linguistica spontanea e di comprensione di gran parte dei discorsi ascoltati. Questa sindrome (detta afasia di conduzione) venne teorizzata sulla base della teoria di Wernicke, e negli anni che seguirono alcuni ricercatori sostennero di poterne dimostrare l'esistenza. Sulla base di questo modello di organizzazione cerebrale per il linguaggio, sono state individuate ulteriori aree responsabili della lettura (e quindi dell' alessia) e della scrittura (e quindi dell'agrafia), e sono stati aperti dibattiti circa la relativa possibilità di scindere o dissociare le nuove sindromi afasiche (cioè, l' alessia può manifestarsi senza l'agrafia?).
Tale interpretazione neofrenologica è stata oggetto di critiche in diversi momenti della storia dell'afasiologia, tra cui la famosa opera di S. Freud Sull'afasia, che ridicolizza il modello Wernicke-Lichtheim (Freud, 1953), e l'arguta quanto influente critica di H. Head sulle localizzazioni, i cui sostenitori vennero chiamati da Head 'costruttori di diagrammi' (Head, 1926). Le teorie dei fautori delle localizzazioni caddero davanti alle prime difficoltà sorte tra il 1930 e il 1960, l'era della psicologia comportamentista, quando l'attenzione si spostò sul ruolo dell'apprendimento e sulla plasticità del cervello. Queste teorie tornarono nuovamente in auge negli anni Sessanta grazie agli scritti influenti di N. Geschwind e al forte approccio innatista al linguaggio e alla mente proposto da Chomsky e dai suoi seguaci.
Le opinioni dei localizzazionisti continuano a riscuotere successo, ma al giorno d'oggi sembrano giunte a una fase di stallo, dovuta (paradossahnente) alla elevata precisione delle immagini ottenute con la tecnica (NMR, Nuclear Magnetic Resonance, risonanza magnetica nucleare) e con altri metodi che consentono di determinare l'esatta localizzazione delle lesioni associate alle sindromi afasiche. La teoria classica della corrispondenza lesione-sindrome sta perdendo terreno. Per esempio, N.F. Dronkers (1996) ha dimostrato che le lesioni dell'area di Broca non sono né necessarie né sufficienti a giustificare le difficoltà di produzione dellinguaggio alla base dell'afasia di Broca. Infatti, l'unica regione cerebrale che appare saldamente legata ai deficit nella produzione del linguaggio è un'area detta insula, nascosta nelle pieghe tra i lobi frontale e temporale. Quest'area ha un'importanza cruciale, ma il suo apporto può essere presente in misura relativamente ridotta, come mediatore del feedback (retro azione ) cinestesico dal volto e dalla bocca.
Lo stesso si può dire della percezione del linguaggio. È certo che nell'adulto la comprensione può essere danneggiata da lesioni al lobo temporale. Tuttavia la natura e la sede del danno non sono ancora noti. Tra i sintomi che colpiscono la percezione del linguaggio, il più grave è la sindrome detta sordità verbale pura. Gli individui affetti da questo disturbo sono assolutamente incapaci di riconoscere le parole pronunciate, benché reagiscano ai suoni e siano in grado (in molti casi) di classificare correttamente suoni ambientali significativi (cioè, associare il suono del latrato di un cane con l'immagine del cane). Non si tratta di un deficit della semantica lessicale, dal momento che alcuni individui affetti da questi disturbi sono in grado di comprendere le stesse parole in forma scritta. Poiché tali individui non sono sordi, è facile supporre che la sordità verbale pura rappresenti la perdita di una struttura cerebrale localizzata che esiste solo nel linguaggio. Tuttavia, ci sono due motivi per essere cauti prima di accettare tale conclusione. In primo luogo, i danni che determinano la sordità verbale sono bilaterali (cioè, una vasta porzione di corteccia uditiva danneggiata su entrambi i lati), e perciò non seguono la consueta asimmetria sinistra/destra osservata nelle sindromi relative al linguaggio. In secondo luogo, da un punto di vista logico, è difficile operare una distinzione tra un contrasto linguaggio/non linguaggio (distinzione dominio-specifica) e un contrasto complesso/semplice (distinzione dominio-generale). Come precedentemente rilevato, il linguaggio è un fenomeno uditivo fin troppo complesso. Non ci sono altri suoni ambientali rilevanti in grado di raggiungere tali livelli di complessità (latrato dei cani, suono di campanelli, ecc.). È dunque probabile che i danni responsabili della sordità verbale producano i loro effetti dando origine a un deterioramento globale, non specifico, del processo uditivo sufficientemente grave da inibire il linguaggio, ma non abbastanza per impedire il riconoscimento di altri fenomeni uditivi più elementari.
Tali considerazioni ci portano a prendere in esame un fenomeno diverso, ma correlato. Esiste una sindrome dello sviluppo detta disfasia congenita o disturbo specifico del linguaggio, una menomazione che determina nei bambini un forte ritardo nello sviluppo del linguaggio in assenza di qualsiasi altra sindrome responsabile del ritardo, cioè senza alcun segnale di ritardo mentale, sordità, menomazioni neurologiche evidenti come la paralisi cerebrale, né deficit socioemotivi come quelli responsabili dell'autismo. Alcuni teorici sostengono che si tratti di una sindrome dominiospecifica che prova l'indipendenza del linguaggio dalle funzioni cognitive (v. oltre). Tuttavia altri teorici hanno ipotizzato che questa forma di ritardo del linguaggio sia il sottoprodotto di impercettibili deficit del processo uditivo non specifici del linguaggio, ma che lo danneggiano più di qualsiasi altro aspetto del comportamento. Tale affermazione è ancora piuttosto controversa, ma le prove si stanno disponendo a suo favore (Bishop, 1997; Leonard, 1998). Se queste argomentazioni sono esatte, allora dobbiamo riformulare la distinzione netta tra le componenti fin qui esaminate, a favore di una teoria in cui i deficit uditivi portano a deficit nella percezione del linguaggio, che a sua volta determinano deficit nell'apprendimento del linguaggio.
Studi funzionali del linguaggio attraverso le tecniche di neurovisualizzazione. - Con la scoperta di nuovi strumenti come la tomografia a emissione di positroni (PET, Positron Emission Tomography) e la risonanza magnetica nucleare funzionale (fMRI, functional Magnetic Resonance Imaging), siamo in grado di osservare il funzionamento del cervello normale. Se l'approccio frenologico dell'organizzazione del cervello relativamente al linguaggio fosse corretto, allora riuscire a localizzare le aree relative a ogni singola componente del linguaggio diventerebbe solo una questione di tempo. Tuttavia, i risultati finora conseguiti sono molto scoraggianti per la dottrina frenologica.
Partendo dalla percezione del linguaggio, D. Poeppel (1996) ha rivisitato sei studi pionieristici sull'elaborazione fonologica che hanno utilizzato la PET. Poiché la fonologia è molto più vicina alla fisica del linguaggio rispetto ad altre discipline più astratte come la semantica e la grammatica, potremmo aspettarci da questo settore i primi risultati sulla corrispondenza cervello-linguaggio. Poeppel fa notare, tuttavia, che virtualmente non esistono punti comuni tra questi sei studi sulle regioni che sembrano essere più attive durante l'elaborazione dei suoni linguistici! Nonostante sia gli studi di lesioni sia quelli di neurovisualizzazione atte stino un interessamento dei lobi frontale e temporale, in particolare delle aree adiacenti la scissura silviana (corteccia perisilviana), incluse le aree di Broca e Wernicke, anche altre aree sembrano coinvolte in questo processo, aree che variano notevolmente da uno studio all'altro. Comunque ciò che più importa ai fini della nostra analisi è che non vi è prova in tutti questi studi di un unico 'centro di elaborazione fonologica' attivato da tutti i compiti che comportano un'elaborazione fonologica.
Prove ulteriori in questa direzione provengono da alcuni studi sulla produzione linguistica (compreso il linguaggio silenzioso, in assenza di veri e propri movimenti della bocca). Anche in questo caso l'attivazione dell'emisfero sinistro è immancabilmente superiore rispetto a quella del destro (Toga et al., 1996). È interessante notare che l'insula sinistra è la regione che emerge con maggiore frequenza dagli esami con tMRI e PET sulla produzione del linguaggio, un complemento alle scoperte di Dronkers sui deficit nella produzione linguistica dei pazienti afasici. Benché il ruolo dell'insula non sia stato compreso appieno, essa risulta particolarmente importante nella mediazione del feedback cinestetico dai diversi articolatori (le parti del corpo che si muovono), e l'area interessata dai deficit nella produzione linguistica sembra essere quella che svolge un ruolo nella mediazione del feedback dal volto e dalla bocca. A parte questo fattore relativamente poco rilevante, nessuna regione può essere considerata il centro della produzione del linguaggio.
Uno studio particolarmente interessante sul tema concentra l'attenzione sulle diverse sottoregioni che formano l'area di Broca e la corteccia adiacente (Erhard et al., 1996). L'analisi mediante tMRI è stata utilizzata per mettere a confronto l'attivazione all'interno e attraverso il complesso di Broca, in soggetti ai quali era stato richiesto di produrre i movimenti di linguaggio silenzioso, movimenti non linguistici semplici e complessi della bocca, nonché movimenti del dito a livelli di difficoltà variabili. Benché molte delle componenti del complesso di Broca siano attive per il linguaggio, tutte queste componenti sono ugualmente coinvolte in almeno uno dei compiti non linguistici. Vale a dire, non esistono aree della regione frontale che si attivano solo per il linguaggio.
Queste scoperte sul linguaggio mettono in risalto una tematica di rilievo nell'ambito delle tecniche di neurovisualizzazione, che riguarda la specificità del compito, piuttosto che la specificità dell'area. Vale a dire, i modelli di localizzazione o di attivazione sembrano variare secondo fattori quali la quantità e il tipo di memoria richiesta da un compito specifico, il suo relativo grado di difficoltà e di familiarità per il soggetto, l'attenzione richiesta, la presenza o l'assenza della necessità di sopprimere una risposta conflittuale, la richiesta o meno di una attività motoria silenziosa e così via. Tali fattori dominio-generici, ma specifici rispetto al compito, emergono in tutti gli studi condotti, con materiale linguistico e non. Per esempio, l'attivazione di un'area della corteccia frontale chiamata giro cingolato anteriore appare in tutti gli studi in cui è coinvolto un compito del tutto nuovo, e molto difficoltoso. Ciò significa che i compiti dominio-specifici 'si spostano' da un'area all'altra? Forse, ma è più probabile che 'spostamento' e 'residenza' siano metafore errate. Potremmo dover rivedere le nostre teorie sull' organizzazione del cervello per il linguaggio e altre funzioni su basi assolutamente diverse. La mia mano assume configurazioni decisamente diverse a seconda del tipo di compito che mi appresto a svolgere: prendere una spilla, sollevare un libro pesante oppure spingere una scatola pesante contro il muro. Uno studio sull'attivazione dei muscoli della mano per ogni tipo di compito evidenzierebbe una distribuzione delle attività fortemente differenziata per ognuno di questi compiti. Tuttavia esso non fornisce al dibattito contributi sostanziali per poter definire la prima configurazione 'processore spilla', la seconda 'processore libro', e così via. Analogamente, potremmo utilizzare le risorse sparse del nostro cervello in modi completamente diversi in base al tipo di compito che ci apprestiamo a svolgere. Alcune componenti secondarie di basso livello sono saldamente ancorate alla struttura fisica del linguaggio e indipendenti dal compito: le aree della corteccia alimentate direttamente dal nervo uditivo, oppure quella porzione dell'insula che gestisce il feedback cinestetico dalla bocca e dal volto. Se ci spostiamo a un livello superiore, tuttavia, possiamo aspettarci di trovare modelli di attività fortemente variabili e un'ampia distribuzione in abbinamento ai compiti linguistici. Torneremo sull'argomento in un secondo momento, quando prenderemo in esame le basi cerebrali di altri livelli del linguaggio.
Parole e grammatica
Modalità di elaborazione di parole e frasi da parte di adulti normali
La questione di fondo negli studi sull'elaborazione di parole e frasi è simile a quella che divide i linguisti. Da una parte si collocano i ricercatori che interpretano l' elaborazione grammaticale e l'elaborazione lessicale come attività mentali indipendenti, gestite da meccanismi mentali/neuronali differenti (Fodor, 1983). Affinché ciò avvenga, questi due moduli devono essere integrati a un dato momento dell'elaborazione, ma la loro interazione può avvenire esclusivamente dopo che ogni modulo ha completato il proprio lavoro. Dall'altra parte, troviamo i ricercatori che intendono il riconoscimento delle parole e l'analisi grammaticale come due aspetti di un unico complesso processo: il riconoscimento della parola è 'impregnato' dell'informazione relativa al livello di frase (Elman e McClelland, 1986), e l'elaborazione delle frasi è profondamente influenzata dalla natura delle parole contenute all'interno di ogni frase (MacDonald et al., 1994). Questa scissione degli psicolinguisti in modularisti e interazionisti rispecchia la divisione dei teorici dellinguaggio tra i sostenitori dell'autonomia sintattica (Chomsky, 1957) e i teorici che mettono in risalto la natura semantica e concettuale della grammatica (Langacker, 1987).
Negli anni Sessanta e Settanta, quando prevalse la teoria dell'autonomia, vennero fatti vari tentativi di sviluppare modelli di elaborazione in tempo reale di produzione e comprensione linguistica (cioè, modelli della prestazione che implementassero la stessa struttura modulare proposta sotto diverse formulazioni dalla grammatica generativa di Chomsky, cioè modelli della competenza; Fodor et al., 1974). Le varianti della comprensione presentavano una struttura tipo catena di montaggio, con input linguistici trasmessi in forma seriale da un modulo all'altro (fonetico fonologico grammaticale semantico). l modelli di produzione apparivano molto simili, con le frecce rivolte in direzione opposta (semantico grammaticale fonologico fonetico). Secondo questo approccio, ognuno di questi processi appare unidirezionale. Pertanto non è possibile che una informazione di livello più elevato, contenuta nella frase, influenzi il processo per mezzo del quale riconosciamo parole singole durante il processo di comprensione, e le informazioni relative ai suoni nella frase non possono influenzare il processo per mezzo del quale scegliamo parole singole durante la produzione.
La teoria dell 'unidirezionalità fu oggetto di numerose controversie intorno alla fine degli anni Settanta fino agli inizi degli anni Ottanta, specie per quanto concerne lo studio della comprensione. Una voluminosa serie di studi ha dimostrato gli effetti 'dall'alto in basso' prodotti dal contesto sui primi stadi del riconoscimento delle parole, sollevando seri dubbi relativamente a questa architettura strettamente seriale. Per esempio, A.G. Samuel (1981) presentò per via uditiva ad alcuni soggetti delle frasi che contenevano parole bersaglio, quali "meal" (pasto) o "wheel" (ruota). In questo studio, il fonema iniziale che differenziava due parole bersaglio venne sostituito da un rumore di breve durata (un veloce colpo di tosse), per esempio le parole "meal" e "wheel" vennero sostituite da "(rumore)-eel". In tali circostanze, i soggetti percepivano eel come "meal" nel contesto cena e "wheel" nel contesto trasporti, spesso senza neanche rilevare la presenza del colpo di tosse.
In risposta alle dimostrazioni degli effetti prodotti dal contesto, i sostenitori della teoria modulare hanno fatto riferimento a studi che mettono in evidenza limitazioni temporali nell 'uso di informazioni dall'alto in basso durante il processo di riconoscimento della parola (Onifer e Swinney, 1981), proponendo che il processo è effettivamente modulare e unidirezionale, ma solo per un lasso di tempo molto breve. Un esempio eloquente ci è fornito da esperimenti in cui parole semanticamente ambigue, come "cimice", sono uditivamente all'interno di una frase contesto che favorisce uno solo dei due significati della parola.
Per esempio: nel contesto insetto (cimice = insetto): "Avendo trovato una serie di scarafaggi e ragni nella stanza, contattarono degli esperti per individuare le cimici nella stanza"; invece nel contesto spionaggio (cimice = microfono nascosto): "Preoccupati del sistema di sorveglianza elettronico, chiamarono gli esperti per individuare le cimici nella stanza".
Poco dopo la presentazione della parola ambigua (il prime, cioè la parola responsabile della preattivazione), viene proiettata su uno schermo di un elaboratore una parola reale oppure una non parola (ovvero il bersaglio), e il compito dei soggetti è di decidere il più velocemente possibile se la parola bersaglio esiste realmente (cioè, si dà loro un compito di decisione lessicale). Le parole reali comprendevano sia parole correlate al prime o al significato contestualmente pertinente di "cimice" (per esempio, "spia" in un contesto di spionaggio), sia parole correlate all'accezione incongruente di "cimice" (per esempio, "formica" in un contesto di spionaggio), sia parole di controllo non in relazione con nessuna delle due accezioni (per esempio, "bicchiere" in un contesto di spionaggio). Se i soggetti reagiscono più velocemente a una parola correlata a "cimice" piuttosto che a una parola di controllo non correlata si parla di attivazione semantica o priming. Se l'accesso al lessico è un processo modulare, e non influenzato da un livello superiore del contesto, allora ci dovrebbe essere un periodo di tempo ridotto in cui "spia" e "formica" sono entrambe più veloci di "bicchiere". D'altro canto, se l'accesso al lessico è influenzato dal contesto nelle fasi iniziali, allora "spia" dovrebbe essere più veloce di "formica", e "formica" non dovrebbe essere più veloce della parola "bicchiere" non correlata. Il primo insieme di risultati ottenuti con questa tecnica sembrava supportare una visione modulare. Se il bersaglio e il prime sono distanziati di almeno 750 ms, il priming si ha solo nel caso di un significato contestualmente adeguato (accesso selettivo); tuttavia, se il prime e il bersaglio sono molto ravvicinati (250 ms o meno), si ha un effetto del prime per entrambi i significati della parola ambigua (accesso esaustivo).
Tali risultati vennero interpretati come riprova del modello a due fasi per il riconoscimento di parole: una fase ascendente (bottom up) che non subisce l'influenza del contesto, e una successiva fase discendente (top down) nella quale si applicano restrizioni contestuali.
Benché la scoperta dell'accesso esaustivo sia stata riprodotta in molti laboratori diversi, la sua interpretazione rimane controversa. Per esempio, alcuni ricercatori hanno dimostrato che l'accesso selettivo non si verifica quando una parola ambigua viene presentata una seconda volta o quando contesti molto restrittivi favoriscono il significato predominante della parola.
Una sfida particolarmente efficace è stata lanciata da uno studio condotto da C. Van Petten e M. Kutas (1991), che utilizzava stimoli del tipo discusso fin qui per registrare i potenziali evocati correlati a eventi (ERP, Event Related Potentials, detti anche onde cerebrali) associati a parole contestualmente appropriate, contestualmente incongruenti e di controllo, presentate a intervalli di tempo brevi e prolungati (700 versus 200 ms tra il prime e il bersaglio). I risultati forniscono un quadro ben diverso da quello ottenuto con studi che utilizzavano solo tempi di reazione, dimostrando che effettivamente l'elaborazione di parole ambigue avviene in tre fasi, non in due. La figura (fig. 9) mostra i risultati di Van Petten e Kutas quando il prime e il bersaglio sono distanziati di soli 200 ms (finestra in cui l'elaborazione lessicale si suppone sia indipendente dal contesto), rispetto ai due risultati ipotizzabili. Ancora una volta, stiamo ricorrendo a un esempio in cui la parola ambigua "cimice" compare in un contesto di spionaggio. Se la teoria dell'accesso selettivo è corretta, e il contesto effettivamente influenza l'accesso al lessico, l'attività elettrica cerebrale relativa alla parola contestualmente congruente (per esempio, "spia") dovrebbe produrre un'onda positiva (dove la polarità positiva è rappresentata verso il basso, secondo le convenzioni adottate in questo campo); le onde cerebrali della parola contestualmente incongruente (per esempio, "formica") non dovrebbero apparire diverse da una parola di controllo non correlata e inattesa (per esempio, "bicchiere") ed entrambe dovrebbero generare un'onda negativa denominata N400 (con la polarità negativa verso l'alto). Se il concetto di accesso modulare esaustivo è corretto, e se il contesto non influenza il lessico, allora ogni parola correlata lessicalmente alla parola prime ambigua (per esempio, "spia" o "formica") dovrebbe essere rappresentata da un'onda positiva (preceduta da prime), rispetto a una parola di controllo inattesa (non preceduta da prime). Il risultato ottenuto era maggiormente compatibile con la teoria dell'accesso selettivo, benché con una variante interessante, illustrata nella figura 9. Durante i primissimi istanti di riconoscimento della parola, la parola contestualmente incongruente (per esempio, "formica") si comporta esattamente come una di controllo non correlata (per esempio, "bicchiere"): la polarità dei potenziali evocati è infatti negativa. Tuttavia, procedendo con la sequenza (circa 400 ms), l'onda comincia ad assumere un andamento positivo (polarità verso il basso), come se il soggetto si fosse accorto, successivamente, dell'esistenza di un certo ulteriore rapporto (per esempio, "cimice ... formica ... ah sì, formica!!"). Nulla del genere si verifica con la finestra di maggiore durata, di 700 ms, dove i risultati si adattano perfettamente al modello di accesso selettivo guidato dal contesto. Risultati così complessi suggeriscono la necessità di ricorrere a un modello a tre fasi in cui l'informazione linguistica passa per un primo stadio di priming selettivo a uno esaustivo per arrivare, infine, alla selezione contestuale. Il fatto che gli effetti prodotti dal contesto precedano il priming esaustivo dimostra che questi possono influenzare le prime fasi dell' elaborazione lessicale, una prova eloquente contro la visione modulare classica. Tuttavia, il fatto che il priming esaustivo appaia per un periodo molto ristretto, nell'ambito della finestra di tempo più breve, prova che il lessico è dotato di personalità propria, caratterizzata da una sorprendente tendenza ad attivare materiale irrilevante a livello locale, benché a lungo termine vinca la rilevanza.
Per riassumere, in questi ultimi anni le prove a favore degli effetti del contesto sul riconoscimento delle parole hanno continuato a guadagnare terreno, sia per quanto concerne il tempo di reazione sia riguardo alle misurazioni elettro fisiologiche. È pur vero che di tanto in tanto il lessico si comporta in modo bizzarro, attivando i significati irrilevanti di parole in entrata, come se ignorasse ciò che accade al di fuori. Questo dimostra che l'elaborazione contestuale avviene nell'ambito di un modulo autonomo? Forse no. A. H. Kawamoto (1988) ha realizzato simulazioni di accesso lessicale su reti neurali artificiali nelle quali non esiste alcuna linea di confine modulare tra il livello di elaborazione della frase e della parola. Egli ha dimostrato che l'accesso esaustivo può verificarsi, ed effettivamente si verifica, in determinate circostanze anche all'interno di un modello pienamente interattivo, in relazione a differenze nel tempo di 'risveglio' e di percorso dell'attivazione dei diversi elementi a seconda delle condizioni di rilevazione temporale. In altre parole, i significati irrilevanti possono comparire di tanto in tanto anche all'interno di un sistema completamente interconnesso. È stato proposto che questo tipo di 'stupidità locale' sia utile al sistema di elaborazione del linguaggio, poiché fornisce una sorta di attivazione di backup, nel caso in cui il significato più probabile risultasse errato in qualche momento successivo del processo di comprensione. Dopo tutto, le persone occasionalmente dicono cose molto strane, e noi dobbiamo essere preparati a udirle, anche all'interno di un sistema contestualmente guidato di tipo top down. La dimostrazione dell'esistenza di un'interazione precoce tra i livelli di frase e di parola è correlata solo indirettamente al rapporto esistente tra l'elaborazione lessicale e la grammatica di per sé. Vale a dire, poiché una frase contiene sia il significato che la grammatica, l'effetto del contesto frasale sul riconoscimento della parola potrebbe essere determinato dal contenuto semantico della frase (semantica sia lessicale che proposizionale), lasciando inalterato il grande confine tra grammatica e lessico.
l processi di riconoscimento della parola e di recupero delle parole sono direttamente influenzati dal puro contesto grammaticale? Alcuni studi pionieristici sul priming grammaticale in inglese hanno rilevato effetti non significativi o addirittura nessun effetto sulle misure di accesso lessicale. In una sintesi della letteratura relativa al priming sul riconoscimento delle parole presentate per via uditiva, M.K. Tanenhaus e M.M. Lucas (1987) giungono alla conclusione che "in base a un riesame di quanto dimostrato [ ... ] è probabile che il contesto sintattico non influenzi l'elaborazione prelessicale". Tuttavia, alcuni studi più recenti sulle lingue ricche di evidenti marche morfologiche hanno corroborato saldamente l'ipotesi del priming grammaticale (Bates e Goodman, 1997), compresi gli effetti del priming di genere in compiti di decisione lessicale e di gating nella lingua francese, sulla ripetizione delle parole e la classificazione di genere in italiano, e sulla denominazione di figure in spagnolo e in tedesco. Alcuni studi sulle scelte di decisione lessicale in serbocroato forniscono prove sia per il priming di genere che di caso, con prime di parole reali e non parole in cui sono presenti marche morfologiche congruenti o incongruenti rispetto alla parola bersaglio. Questi e altri studi dimostrano che il contesto grammaticale può avere un effetto significativo sull'accesso lessicale anche all'interno di finestre temporali brevi, solitamente associate a quegli effetti di priming precoci e automatici che interessano i sostenitori della modularità. In altre parole, i processi grammaticali e lessicali interagiscono precocemente, secondo modelli complessi del tipo che ci aspetteremmo all'interno di un sistema unitario, governato da leggi comuni.
Questa conclusione segna l'inizio piuttosto che la fine di una interessante ricerca sull'elaborazione delle parole e delle frasi, che apre la strada a studi interlinguistici approfonditi sui processi attraverso i quali le parole e la grammatica interagiscono durante l'elaborazione del linguaggio in tempo reale. L'approccio modulare può essere interpretato come una conseguenza secondaria del fatto che per 30 anni le ricerche sull'elaborazione del linguaggio sono state appannaggio di ricercatori di lingua inglese. La lingua inglese è piuttosto insolita rispetto alle altre lingue parlate nel mondo per la scarsità della sua morfologia flessiva, e visto il grado di rigidità dell'ordine delle parole. Con una lingua di questo tipo, sembra possibile adottare un modello all'interno del quale le parole sono selezionate indipendentemente dai contesti frasali, e poi combinate dalla grammatica come perline su un filo, con solo qualche ritocco all'aspetto superficiale delle parole per garantire uniformità morfologica, come nell'esempio "The dogs wallo> versus "The dog walks" ("l cani camminano", "Il cane cammina"). Nelle lingue altamente flessive, come il russo, l'italiano, l'ebraico oppure l'eschimese della Groenlandia, è difficile adottare un approccio modulare. l fenomeni grammaticali presenti nella prima parte di una frase esercitano delle forti restrizioni sulle parole che devono essere riconosciute o prodotte successivamente, e le parole che riconosciamo o produciamo all'inizio di un enunciato esercitano un'influenza su aspetti particolari del processo di selezione lessicale e di accordo grammaticale nella parte restante della frase. Per una lingua di questo tipo sarebbe più economico un modello che preveda l'interazione di parole e grammatica in qualsiasi fase dell'elaborazione. Nel momento in cui nell'ambito della psicolinguistica il dibattito modularità versus interazionismo inizia a stemperarsi, l'avvio di una serie di approfonditi studi comparativi sull'elaborazione del linguaggio in famiglie linguistiche fortemente contrastanti ha dato inizio a una nuova ed entusiasmante era in questo campo.
Lo sviluppo di parole e frasi nei bambini
Il dibattito modularità versus interazionismo è stato un tema dominante nello studio dell'evoluzione lessicale e grammaticale, e ha interagito con il dibattito tra empiristi, innatisti e costruttivisti. Da un certo punto di vista, l'iter evolutivo della prima fase del linguaggio sembra rappresentare un caso prima facie della modularità linguistica, con suoni, parole e grammatica che fanno la loro apparizione secondo schemi evolutivi diversificati (tab. I). l bambini iniziano la loro carriera linguistica con la lallazione, partendo dalle vocali (intorno ai 3÷4 mesi circa) e la concludono con combinazioni di vocali e consonanti di crescente complessità (in genere tra i 6÷8 mesi). La comprensione delle parole inizia solitamente intorno agli 8÷10 mesi, ma la produzione di un linguaggio significativo si ha intorno ai 12 mesi. Dopo questa fase, la maggior parte dei bambini trascorre settimane o mesi producendo espressioni monosillabiche. Inizialmente il loro vocabolario subisce un graduale ampliamento, ma intorno ai 16÷20 mesi si assiste a un'esplosione o accelerazione della velocità di ampliamento del vocabolario. La combinazione di parole fa la sua comparsa inizialmente verso i 18÷20 mesi, benché tenda ancora a essere piuttosto scarsa e telegrafica (tab. 2). Verso i 24÷ 30 mesi, nella maggior parte dei bambini si verifica una sorta di seconda esplosione, con la crescita della morfosintassi paragonata da R. Brown 'all'edera tra i mattoni'. Tra i 3 e i 4 anni, la maggior parte dei bambini normali ha acquisito le strutture morfologiche e sintattiche fondamentali della propria lingua, facendone un uso corretto e produttivo in contesti nuovi. Da questo momento in poi, lo sviluppo lessicale e grammaticale consiste principalmente nella messa a punto e amplificazione del sistema linguistico: aggiunta di ulteriori parole, acquisizione di maggiore fluenza ed efficacia rispetto al processo che consente l'accesso alle parole e alle costruzioni grammaticali in tempo reale, e apprendimento dell 'uso della grammatica per la creazione di unità linguistiche più lunghe: per esempio, scrivere temi, raccontare storie, prendere parte a conversazioni lunghe e complesse.
Questo quadro dello sviluppo è stato ampiamente documentato per la lingua inglese (Fletcher e MacWhinney, 1995; Aslin et al., 1998). Naturalmente, la storia riportata nei testi non è la stessa per tutte le lingue (Slobin, 1997), e i tempi e lo stile di acquisizione linguistica di bambini perfettamente sani possono variare largamente nel corso di queste tappe (Bates et al., 1988). A livello globale, tuttavia, il passaggio dai suoni alle parole e dalle parole alla grammatica sembra essere caratteristica universale dello sviluppo linguistico dei bambini. Un rapido sguardo ai tempi e al modello di crescita della comprensione e della produzione di parole e della grammatica è riportato nelle figure (figg. 10, 11, 12). La mediana (cinquantesimo percentile) di ognuno di questi valori corrobora la panoramica di dati forniti dalla letteratura circa le tappe dello sviluppo sopra riportate: la comprensione fa la sua comparsa (in media) tra gli 8÷10 mesi, la produzione inizia tra i 12÷13 mesi (con una decisa accelerazione tra i l6÷20 mesi), e la grammatica raggiunge il suo apice di crescita tra i 24÷ 30 mesi. Allo stesso tempo, tuttavia, questi dati dimostrano che esiste un'ampia variabilità individuale nel gruppo, anche tra bambini appartenenti alla classe media perfettamente normali. Risultati simili sono stati ottenuti per più di una dozzina di lingue, compresa la lingua dei segni americana (una lingua che si sviluppa con gli occhi e le mani, anziché le orecchie e la bocca). Per ogni lingua studiata fino a oggi, i ricercatori rilevano in media gli stessi tempi di esordio, lo stesso modello di crescita, e la stessa gamma di variazioni individuali riportate nelle figure. Ma qual è il rapporto tra queste modalità? Questi sistemi sono a sé stanti, oppure sono diverse finestre su un unico processo evolutivo? Un paragone più diretto tra l'emergere e l'ampliamento di parole e grammatica è riportato in figura (fig. 13), dove abbiamo messo in evidenza lo sviluppo del bambino ideale, espressione della media (mediana) di tutti i bambini, in termini di percentuale di elementi linguistici disponibili controllati dal bambino in ciascuna delle tappe di sviluppo comprese tra gli 8 e i 30 mesi. Supponendo per un momento che sia lecito paragonare la crescita proporzionale di mele e di arance, otterremmo che in questa fascia di età la comprensione e la produzione delle parole e della grammatica seguono ognuna un modello di crescita non lineare simile. Tuttavia, le rispettive zone di accelerazione per ogni dominio sono separate da molte settimane o mesi.
Si tratta di un passaggio discontinuo, come previsto dalle teorie modulari/innatiste? Ovviamente nessuno ha mai avanzato l'ipotesi che la grammatica possa avere inizio senza parole! Qualsiasi aspetto grammaticale deve avvalersi di una determinata quantità di materiale lessicale sul quale lavorare. La domanda vera e propria è: quanto sono strette le correlazioni tra sviluppo lessicale e grammaticale durante il secondo e il terzo anno di vita? Queste componenti sono dissociabili, e se sì, in che misura? Quanto materiale lessicale è necessario per costruire un sistema grammaticale? La grammatica può svincolarsi e seguire un percorso a sé stante dopo aver raggiunto un numero minimo di parole (cioè, 50÷100 parole, la dimensione del primo vocabolario quando le prime combinazioni di parole fanno la loro apparizione)? Oppure assisteremo a un costante e regolare interscambio tra sviluppo lessicale e grammaticale, del genere che ci si aspetterebbe se le parole e la grammatica rappresentassero due aspetti dello stesso sistema?
Dall'analisi dei dati si evince che l'ultima supposizione è quella corretta. Infatti la relazione che lega lo sviluppo grammaticale e quello lessicale in questa fascia di età è talmente forte e consistente da far pensare a qualche legge evolutiva. La successiva esplosione che caratterizza l'ampliamento del vocabolario e la comparsa della grammatica può essere interpretata come una serie di fasi diverse di un immenso flusso irregolare che ha inizio durante la fase monosillabica e si infrange sugli scogli della grammatica circa un anno più tardi. Una dimostrazione di questo potente rapporto è offerta dal confronto riportato in figura (fig. 14), che rappresenta lo sviluppo grammaticale come funzione delle dimensioni del vocabolario. Il grafico dovrebbe dimostrare che lo sviluppo grammaticale è saldamente correlato a quello lessicale, un rapporto sistematico che è ancor più regolare (e più forte) del rapporto tra sviluppo grammaticale ed età cronologica. Chiaramente questo tipo di correlazioni non ci induce a concludere che lo sviluppo grammaticale e del vocabolario siano mediati dallo stesso meccanismo evolutivo. La correlazione non è una causa. In ultima analisi, tuttavia, questa forte correlazione suggerisce che questi due aspetti dello sviluppo linguistico hanno in comune qualcosa di molto importante.
Benché ci siano delle evidenti analogie tra le lingue per quanto riguarda lo sviluppo del sistema linguistico e la relazione tra vocabolario e grammatica, ci sono differenze considerevoli nelle strutture specifiche che devono essere acquisite. l bambini cinesi hanno a che fare con una grammatica priva di flessioni di qualsiasi genere, a differenza dei bambini eschimesi che devono apprendere una lingua in cui una intera frase potrebbe essere costituita da un parola singola con più di una dozzina di flessioni. Non bisogna però pensare che la vita per il bambino cinese sia più semplice, in quanto dovrà dominare un sistema in cui la stessa sillaba può assumere molti significati diversi in base al tono (cioè, il suo contorno tonale). Esistono quattro toni nel cinese mandarino, e sette nel dialetto di Taiwan; per i bambini cinesi questi toni costituiscono una difficoltà nell' apprendimento delle parole ben diversa da quella che devono affrontare i bambini che apprendono lingue indoeuropee come l'inglese l'italiano. Del resto non possiamo sottovalutare le differenze riscontrabili tra i bambini che apprendono diversi tipi di lingue indoeuropee. Pensiamo alla frase inglese: "Wolves eat sheep", che contiene tre parole e quattro morfemi diversi (nel sistema standard di calcolo dei morfemi, "wolf> + "-s" sono considerati due morfemi, ma il verbo alla terza persona plurale "eat" e il nome plurale "sheep" contano ognuno come morfema singolo). La traduzione italiana di questa frase sarà "I lupi mangiano le pecore". La versione italiana contiene cinque parole (gli articoli sono obbligatori in italiano in questo contesto; non lo sono in inglese). In base al grado di complessità che decidiamo di prendere in considerazione, essa può contenere tra i dieci e i quattordici morfemi: dieci se contiamo ogni singolo suffisso del plurale per ogni articolo, nome e verbo, ma tralasciamo di calcolare le concordanze di genere; quattordici se ogni concordanza di genere è calcolata come contrasto morfologico a sé, per ogni articolo e nome. Ciò significa che, in sostanza, un bambino italiano deve apprendere nozioni di grammatica tre volte maggiori rispetto a un coetaneo inglese! Ci sono due modi in cui questa differenza quantitativa può influenzare il processo di apprendimento: i bambini italiani potrebbero acquisire i morfemi con la stessa velocità assoluta. Se questo è vero, allora i tempi di acquisizione dell'italiano dovrebbero essere tre volte più lunghi rispetto a quelli dell'inglese. Oppure, i bambini italiani e inglesi potrebbero acquisire le loro rispettive lingue alla stessa velocità proporzionale. Se questo è vero, allora i bambini italiani e inglesi dovrebbero conoscere la stessa proporzione di grammatica bersaglio in ogni fase della loro evoluzione (per esempio, 10% a 20 mesi, 30% a 24 mesi, e così via) e i bambini italiani dovrebbero controllare una mole di grammatica tre volte superiore rispetto ai loro coetanei inglesi in qualsiasi fase. Studi comparati dell' evoluzione lessicale e grammaticale in inglese e in italiano dimostrano che la differenza tra le lingue è proporzionale piuttosto che assoluta durante la fase in cui si acquisisce la maggior parte dei contrasti grammaticali. A causa di tale differenza, i bambini italiani di due anni spesso appaiono terribilmente precoci rispetto ai nativi di lingua inglese, e i bambini inglesi di due anni potrebbero apparire lievemente ritardati all'orecchio italiano! Secondo la mia opinione, ogni lingua pone al bambino una diversa gamma di problemi, e ciò che appare difficile in una lingua potrebbe essere facile in un'altra. La tabella 2 presenta un riassunto del tipo di significati che i bambini tendono a produrre durante le loro prime combinazioni di parole in molte comunità linguistiche diverse (Braine, 1976). Questi sono aspetti (per esempio, possesso, negazione, agente-azione, oggetto-luogo) che interessano i bambini di 2 anni di qualsiasi cultura. Per contrasto, la tabella successiva (tab. 3) mostra quanto le prime frasi di bambini di 2 anni siano diverse solo poche settimane o pochi mesi più tardi, quando tentano di controllare le caratteristiche strutturali specifiche delle loro lingue. Il contenuto di queste espressioni è universale, ma le forme che devono riuscire a dominare variano notevolmente. Come gestiscono i bambini tutte queste possibilità? La risposta di Chomsky al problema delle variazioni interlinguistiche suggerisce che tutte le opzioni contenute nella grammatica universale sono innate, dunque il compito del bambino si riduce all'ascolto attento degli 'inneschi' giusti, che fissano i 'parametri' adeguati. L'apprendimento ha poco o nulla a che vedere con questo processo. Altri ricercatori hanno avanzato l'ipotesi che lo sviluppo linguistico è una forma di apprendimento, benché si tratti di una forma molto più potente di quanto previsto da Skinner nel suo lavoro sul condizionamento operante nei ratti. Le recenti simulazioni su reti neurali dei processi di apprendimento del linguaggio forniscono, in ultima analisi, una sorta di prova di esistenza, dimostrando che alcuni aspetti della grammatica possono essere appresi per mezzo di un sistema di questo genere e quindi (forse) dai bambini. Per esempio, è noto da tempo che i bambini che apprendono l'inglese tendono a produrre forme corrette di verbi irregolari al passato (per esempio, went e carne) molti mesi prima della comparsa delle marche del passato dei verbi regolari (per esempio, walked e kissed). Con la comparsa delle marche del verbo regolare, iniziano ad apparire anche errori peculiari, per esempio, parole come goed e corned che non sono presenti in nessun input presentato al bambino. È stato affermato che questo tipo di apprendimento 'a U' va oltre la portata di un singolo sistema di apprendimento e deve essere considerato la prova dell'esistenza di due diversi meccanismi: uno di apprendimento mnemonico (utilizzato per l'acquisizione del lessico e per quella di forme grammaticali irregolari) e un meccanismo indipendente basato su regole indipendenti (utilizzato per l'acquisizione di morfemi regolari). Tuttavia, attualmente esistono diversi esempi degli stessi modelli di sviluppo 'a U' per reti neurali che ricorrono a un meccanismo unico per l'acquisizione di parole e di tutte le forme flessive (Elman et al., 1996). Queste e altre dimostrazioni di apprendimento grammaticale da parte di reti neurali indicano che l'apprendimento mnemonico e le generalizzazioni creative si possono ottenere per mezzo di un unico sistema, se questo possiede i requisiti idonei. Sembra dunque che le affermazioni circa l'impossibilità di apprendimento della grammatica debbano essere riviste.
Basi neuronali di parole e frasi
Studi sulle lesioni. - Quando Broca, Wemicke e i loro colleghi individuarono per la prima volta le principali sindromi afasiche, le differenze tra forme di disturbi linguistici vennero spiegate secondo criteri sensomotori, fondati su principi rudimentali di neuroanatomia. Per esempio, i sintomi associati ai danni riportati all'area di Broca vennero denominati collettivamente afasia motoria: linguaggio lento e stentato, con una riduzione della complessità grammaticale, anche se all'esame clinico risultava un'apparente conservazione della comprensione del discorso. Tale definizione appare giustificata se consideriamo che l'area di Broca si trova nei pressi di quella motoria. Diversamente, i sintomi associati alle lesioni nell'area di Wernicke vennero definiti collettivamente con il nome di afasia sensoriale: linguaggio scorrevole ma vuoto, caratterizzato da problemi medio-gravi di reperimento delle parole, in pazienti affetti da gravi difficoltà di comprensione del linguaggio. Tale caratterizzazione ebbe anche un riscontro neuroanatomico, poiché l'area di Wernicke si trova sull'interfaccia tra la corteccia uditiva e le varie aree associative che si presumeva mediassero o contenessero il significato delle parole. La compromissione selettiva della ripetizione venne successivamente attribuita alle fibre di connessione tra l'area di Broca e l'area di Wernicke; sono state individuate altre sindromi che determinano la compromissione selettiva di lettura e scrittura, con supposizioni riguardanti le fibre che collegano la corteccia visiva con le tradizionali aree del linguaggio (Head, 1926).
In epoca compresa tra il 1960 e il 1980 venne proposta una revisione del suddetto approccio sensomotorio riassunta in Kean (1985). Gli psicolinguisti e i linguisti fortemente influenzati dalla grammatica generativa ricercarono la ragione delle disfunzioni del linguaggio nelle sindromi afasiche nell'analisi delle componenti della facoltà del linguaggio umano proposta da Chomsky e collaboratori. Questo tentativo fu suffragato dalla scoperta che gli afasici di Broca sono effettivamente affetti anche da deficit della comprensione: più precisamente, questi pazienti manifestano difficoltà nell'interpretazione delle frasi quando sono costretti ad affidarsi interamente a indicazioni di tipo grammaticale piuttosto che semantico o pragmatico. Per esempio, riescono a interpretare correttamente frasi quali "La mela venne mangiata dalla ragazza", laddove l'informazione semantica è data dalla conoscenza del fatto che le ragazze, ma non le mele, sono in grado di mangiare, ma commettono errori nel caso di frasi quali "Il ragazzo venne spinto dalla ragazza", dove entrambi i nomi possono svolgere il ruolo di agente. Poiché questi due aspetti della grammatica che sembrano danneggiati nell'afasia di Broca sono esattamente gli stessi che risultano compromessi nel linguaggio espressivo dei pazienti, è stata formulata l'ipotesi che l'afasia di Broca consista nella compromissione selettiva della grammatica (in tutte le modalità), in pazienti che non presentano anche un deficit della comprensione e produzione semantica lessicale e proposizionale. Da questo punto di vista sembrava possibile re interpretare i problemi correlati con l'afasia di Wernicke come compromissione selettiva della semantica - che si manifesta in un'alterazione della comprensione e in difficoltà nel recupero di parole nel linguaggio espressivo - accompagnata da conservazione selettiva della grammatica come evidenziato dal parlato fluente ma vuoto di questi pazienti.
Se la grammatica e la semantica lessicale possono presentarsi doppiamente dissociate in alcuni tipi di lesione cerebrale focale, allora si potrebbe concludere che queste due componenti del linguaggio sono mediate da sistemi neuronali separati. Non è mai stato completamente ovvio come o perché il cervello dovrebbe essere organizzato solo in questo modo (per esempio, per quale motivo l'area di Broca, la sede supposta della grammatica, dovrebbe trovarsi in prossimità della fascia motoria), ma la mancanza di un saldo legame tra neurologia e neurolinguistica è stato ampiamente compensato dall'apparente isomorfismo tra le sindromi afasiche e le componenti previste dalle teorie linguistiche. Per un certo periodo fu come se la natura avesse fornito una ingegnosa corrispondenza tra le componenti descritte dai linguisti e la rappresentazione spaziale del linguaggio nel cervello. Effettivamente, questo approccio linguistico all' afasia ebbe tanto successo durante le sue fasi iniziali che attirò l'attenzione di molti neuroscienziati, e venne citato sempre più di frequente nei manuali sui deficit linguistici nelle sindromi afasiche.
Nonostante la parcellizzazione linguistica nel cervello sia un'ipotesi affascinante, si sono accumulate prove contro di essa nel corso degli ultimi 15 anni, lasciando gli afasiologi in cerca di una terza strada tra l'iniziale approccio basato sulla modalità (cioè, afasia motoria versus afasia sensoriale) e quello linguistico (cioè, deficit grammaticali versus lessicali). Possiamo sintetizzare in quattro punti le argomentazioni contro la separazione neuronale di parole e frasi (Bates e Goodman, 1997).
l deficit nel recupero delle parole (anomia) si riscontrano in tutte le forme di afasia, compresa l'afasia di Broca. Ciò significa che non può mai esserci una completa dissociazione a pieno titolo tra grammatica e lessico, e si indebolisce l'ipotesi che i due sistemi siano mediati da meccanismi cerebrali differenti.
l deficit nella grammatica espressiva non sono presenti unicamente nell'afasia di Broca, né in qualsiasi altro particolare gruppo clinico. Gli afasici di Wernicke di lingua inglese commettono relativamente pochi errori di grammatica, rispetto agli afasici di Broca di lingua inglese. Tuttavia, questo non è altro che un effetto della particolarità della lingua inglese! Gli afasici di Broca non fluenti tendono a commettere errori di omissione (cioè, tralasciano parole con funzione grammaticale e eliminano le flessioni), mentre quelli di Wernicke commettono errori di sostituzione (producendo la flessione sbagliata). Poiché l'inglese ha una morfologia flessiva molto scarsa, esso offre poche possibilità di produrre errori di sostituzione, mentre lascia la possibilità di omettere parole funzione. Ne risulta che i pazienti di Broca sembrano avere problemi grammaticali più seri. Tuttavia, i problemi grammaticali dell'afasia fluente sono facili da individuare, e sono molto evidenti nelle lingue altamente flessive come l'italiano, il tedesco o l'ungherese. Non si è trattato di una nuova scoperta; questo aspetto era stato messo in evidenza molto tempo fa da A. Pick, il primo ricercatore che utilizzò la parola agrammatismo (Pick, 1973).
l deficit nella grammatica recettiva sono ancor più pervasivi: compaiono nell'afasia di Broca, nell'afasia di Wernicke e in molti gruppi di pazienti che non mostrano segni di difficoltà grammaticali nella produzione linguistica. Infatti è possibile indurre profili di difficoltà recettive molto simili a quelle osservate nell'afasia in studenti normali di scuola media superiore che sono costretti a elaborare frasi sotto diversi tipi di stress (per esempio, degrado percettivo, produzione linguistica compressa, oppure sovraccarico cognitivo). In tali circostanze, gli ascoltatori trovano particolarmente difficile elaborare flessioni e parole-funzione grammaticali, e tendono inoltre a commettere errori in strutture complesse come le frasi passive (per esempio, "La ragazza fu spinta dal ragazzo") o le frasi scisse (per esempio, "È stata la ragazza che il ragazzo ha spinto"). Questi aspetti grammaticali sono i legami più deboli della catena dell' elaborazione del linguaggio, e per questo sono i primi a risentirne quando qualcosa non funziona. Infine, si potrebbe obiettare che quella di Broca sia l'unica vera forma di agrammatismo, poiché questi pazienti presentano deficit molto evidenti sia nella grammatica espressiva che in quella recettiva. Tuttavia, numerosi studi hanno dimostrato che tali pazienti conservano la conoscenza della grammatica della loro lingua, benché non siano in grado di utilizzarla in modo efficace ai fini della comprensione o della produzione. Per esempio, le prestazioni degli afasici di Broca sono superiori al caso quando è loro richiesto di individuare lievi errori grammaticali nel linguaggio altrui, e la loro comprensione e produzione appaiono fortemente influenzate dalle caratteristiche specifiche della loro lingua. Per fare un esempio, in tedesco l'articolo che precede il nome è declinato per il caso e fornisce cruciali informazioni circa 'chi ha fatto cosa a chi'. Si deve forse a questo lo sforzo degli afasici di Broca tedeschi di produrre l'articolo nel 90% dei casi (e solitamente lo fanno correttamente), rispetto a solo il 30% negli afasici di Broca inglesi. Questa particolare differenza può essere spiegata solo partendo dal presupposto che gli afasici di Broca 'conoscono' ancora la grammatica della propria lingua. Nel loro insieme questi fatti ci hanno convinti che la grammatica non può essere persa in modo selettivo nelle sindromi afasiche dei soggetti adulti, lasciando il vocabolario inalterato. Al contrario, la grammatica e il vocabolario tendono ad alterarsi contemporaneamente, benché possano essere danneggiati in diversi e interessanti modi.
Studi sulle tecniche di neurovisualizzazione. - Fino a oggi esistono solo pochi studi di neurovisualizzazione con adulti normali in cui sono messe a confronto elaborazioni lessicali e grammaticali, tuttavia i pochi studi realizzati forniscono uno scarso supporto alla prospettiva modulare. Diverse parti del cervello vengono attivate durante l'elaborazione del linguaggio, comprese aree dell' emisfero destro, benché queste tendano a mostrare minori livelli di attivazione nella maggior parte delle persone. Nuove aree di linguaggio stanno facendo la loro apparizione a velocità sorprendente, comprese quelle che non producono afasia anche dopo avere subito delle lesioni, per esempio il cervelletto, porzioni della corteccia frontale lontane dall'area di Broca e le regioni temporali basali nella parte sotto stante la corteccia. Inoltre, il numero e l'ubicazione delle regioni implicate nell' elaborazione di parole e frasi variano da un individuo all'altro e cambiano in funzione del compito che i soggetti sono chiamati a svolgere.
Benché la maggior parte degli studi indichi che l'elaborazione di parole e frasi produca schemi di attivazione simili (con attivazione maggiore della corteccia sinistra frontale e temporale), numerosi studi condotti con ERP o tMRI hanno evidenziato minime differenze tra l'attivazione prodotta dalle violazioni semantiche (per esempio, "prendo il caffè con latte e cane") e quella attribuibile agli errori grammaticali (per esempio, "prendo il caffè con e latte zucchero"). Sottili differenze sono state inoltre individuate tra nomi e verbi, parole contenuto e parole funzione, e tra flessioni regolari (per esempio, walked, camminai) e flessioni irregolari (per esempio, gave, diedi). Finora tali differenze costituiscono l'unica prova a sostegno di una sorta di separazione all'interno dei meccanismi che governano la grammatica versus la semantica, ma possono anche essere giustificate in termini di meccanismi assolutamente non specifici rispetto alla lingua. Per esempio, le parole contenuto come "latte", le parole funzione come "e", nonché gli schemi accordo a lunga distanza soggetto-verbo come "Le ragazze ... stanno parlando" sono sostanzialmente diversi in lunghezza, salienza fonetica, frequenza, grado di rappresentabilità, impegno di attenzione e di memoria di lavoro richiesto durante l'elaborazione, tutte dimensioni che influenzano anche gli schemi di attivazione nei compiti non linguistici.
Per riassumere, gli studi sulle lesioni e gli studi neurali con tecniche di neurovisualizzazione su parlanti normali portano alla conclusione che diverse parti del cervello partecipano all'elaborazione di parole e frasi, secondo pattern che cambiano in modo dinamico in funzione della complessità del compito e dell'impegno nell'elaborazione dell'informazione. Non ci sono prove dell'esistenza di un modulo grammaticale unitario o di un dizionario mentale localizzato. Invece, l'elaborazione di parole e frasi è ampiamente distribuita e altamente variabile rispetto ai compiti e agli individui. Tuttavia, alcune aree sembrano più importanti di altre, specialmente quelle localizzate nelle regioni frontali e temporali dell' emisfero sinistro che risultano coinvolte nella maggior parte dei casi di afasia.
Pragmatica e linguaggio
Abbiamo precedentemente definito la pragmatica come lo studio del linguaggio nel contesto, come forma di comunicazione utilizzata per il raggiungimento di determinati scopi sociali. A causa della sua eterogeneità e delle sue incerte delimitazioni, la pragmatica è difficile da studiare e pone resistenza alla suddivisione in elaborazione, sviluppo e basi cerebrali, da noi utilizzata fino a ora per illustrare i suoni, le parole e la grammatica.
Elaborazione
All'interno del punto di vista modularista, sono emersi approcci diversi. Alcuni ricercatori hanno cercato di trattare la pragmatica come un singolo modulo linguistico, alimentato dai risultati dell' elaborazione dei sistemi di livello inferiore: fonetico, lessicale e grammaticale, e responsabile di inferenze sottili sul significato del discorso prodotto in un determinato contesto sociale. Altri considerano la pragmatica una collezione di moduli separati, che comprende i sistemi speciali per il riconoscimento delle emozioni (espresse dal volto e dalla voce), l'elaborazione delle metafore e dell'ironia, il mantenimento della coerenza del discorso e il ragionamento sociale (compreso un modulo 'teoria della mente', che giunge a conclusioni relativamente al modo di pensare e di sentire di altre persone). Altri ancora relegano la pragmatica in uno spazio esterno al modulo linguistico, gestito da un 'processore generale di messaggi' o 'funzione esecutiva' che sovrintende anche a fenomeni non linguistici. Ognuno di questi approcci produce conseguenze completamente diverse in merito alle previsioni su elaborazione, sviluppo e mediazione neuronale. Tra i sostenitori dell'interazionismo, la pragmatica non è affatto considerata un sistema isolato. Anzi, può essere vista come la causa della struttura linguistica, il luogo delle pressioni comunicative che hanno determinato lo sviluppo di tutti gli altri livelli linguistici.
Forse, è proprio perché i confini della pragmatica sono così difficili da delimitare che la maggior parte del lavoro esistente sull' elaborazione del discorso è descrittiva, e si concentra sul modo in cui vengono elaborati i racconti e viene stabilita e mantenuta la coerenza nella comprensione e nella produzione, senza che ciò comporti la necessità di ricorrere a complesse teorie sull'architettura della mente (Gernsbacher, 1994). Tuttavia, pochi studi hanno affrontato la questione della modularità nell'elaborazione del discorso, con particolare riferimento alla metafora. Si consideri una metafora familiare come "tirare le cuoia". Questa è una cruda metafora della morte, ed è talmente familiare che raramente pensiamo a essa in termini letterali (cioè, non viene in mente nessun riferimento al cuoio). Tuttavia sembra che durante le prime fasi dell' elaborazione ne venga analizzato il significato letterale, poiché questo è il prodotto obbligatorio di moduli lessicali e grammaticali che procedono dal basso verso l'alto e che non hanno accesso a quella base di conoscenze speciali che gestisce le metafore. In analogia con i significati contestualmente incongruenti di parole ambigue come "cimice", queste interpretazioni letterali vengono proposte, ma sono poi rapidamente eliminate a favore di interpretazioni metaforiche più familiari e più adeguate. Benché esistano prove di questo genere di 'stupidità locale', altri studi hanno invece portato a ipotizzare che l'interpretazione della metafora avvenga prima di quella letterale, contro il punto di vista 'catena di montaggio' per cui ogni modulo entra in funzione in una fase diversa.
Sviluppo
Non esistono momenti individuabili tipici che definiscano l'acquisizione della pragmatica. Gli usi sociali dellinguaggio per condividere informazioni o per richiedere aiuto appaiono durante il primo anno di vita, nella gestualità (per esempio, nell'offrire, mostrare e indicare) e nei suoni (per esempio, grida, grugniti, suoni di interesse o di sorpresa), molto prima dell'apparizione di parole e frasi che svolgono la stessa funzione. Le conoscenze sociali sono operative per tutto il periodo in cui si verifica l' acquisizione di parole. Per esempio, quando un adulto indica un animale nuovo e dice "giraffa", i bambini sembrano sapere che questa parola si riferisce all'intero oggetto, e non a qualche aspetto interessante (per esempio, il suo collo) oppure all'intera classe alla quale appartiene quell'oggetto (per esempio, gli animali). Alcuni ricercatori credono che queste limitazioni del significato siano innate, mentre altri insistono sul fatto che esse emergono attraverso l'interazione sociale e l'apprendimento nel corso dei primi mesi di vita.
Anche la conoscenza sociale lavora per l'acquisizione della grammatica, definendo, per esempio, l'insieme variabile dei possibili referenti per i pronomi come "io" e "tu", e i processi morfologici per mezzo dei quali i verbi concordano con il parlante, l'ascoltatore o qualcun altro nella stanza. Quando decidiamo di dire "Giovanni è qui" piuttosto che "lui è qui", dobbiamo prendere decisioni circa le conoscenze dell'ascoltatore rispetto alla situazione (sa a chi si riferisce "lui"?), una decisione che richiede la capacità di distinguere il nostro punto di vista da quello di qualcun altro. In una lingua come l'italiano, il bambino deve immaginare perché ci si rivolge ad alcune persone con il pronome formale "lei" mentre ad altri ci si rivolge con il "tu", un problema sociale complesso che spesso sfugge anche ad adulti sofisticati che cercano di apprendere l'italiano come seconda lingua. Di fatto l'apprendimento della pragmatica è un processo continuo, e rappresenta l'interfaccia tra le conoscenze sociali e linguistiche in ogni fase dello sviluppo (Bates, 1976).
Basi cerebrali
Considerando la vasta ed eterogenea natura della pragmatica, e gli insuccessi dell'approccio freno logico anche al semplice livello di suono e significato, non dovremmo aspettarci di riscontrare l'esistenza di un unico 'processore pragmatico' in nessuna area del cervello umano. Tuttavia è possibile dimostrare che l'emisfero destro riveste un ruolo speciale per alcuni aspetti della pragmatica (Joanette e Brownell, 1990), comprese la percezione e l'espressione del contenuto emotivo del linguaggio, la capacità di comprendere le battute, l'ironia e la metafora e la capacità di comprendere un discorso coerente. Sono queste le aree che presentano maggiori difficoltà per gli adulti con lesioni all'emisfero destro, ed è possibile dimostrare (almeno in parte) che tale emisfero è particolarmente attivo negli adulti normali in compiti linguistici con contenuto emotivo e nell'elaborazione di lunghi brani di discorso.
Questo ci riconduce a un argomento familiare: l'apporto dell' emisfero destro è la dimostrazione di un adattamento dominio-specifico, oppure si tratta del risultato di differenze più generali tra l'emisfero sinistro e il destro? Per esempio, anche l'emisfero destro gioca un ruolo importante nella mediazione delle emozioni in contesti non verbali, ed è coinvolto nella distribuzione dell'attenzione e nell'integrazione dell'informazione in contesti non linguistici. Molte delle funzioni da noi raggruppate sotto il termine pragmatica hanno solo questi attributi: la metafora e le battute comportano un contenuto emotivo, e la coerenza del discorso, oltre il livello della frase, richiede attenzione continua e integrazione delle informazioni. Dunque, pattem specifici di localizzazione delle funzioni pragmatiche potrebbero essere semplicemente il sottoprodotto di differenze più generali tra i due emisferi in materia di elaborazione dell'informazione.
Un approccio al dibattito sull'innatismo e la specificità di dominio è fornito da uno studio sullo sviluppo dellinguaggio nei bambini con lesioni cerebrali congenite, che interessano aree che nell' adulto portano a forme specifiche di afasia quando subiscono lesioni. Se è vero che il cervello umano contiene processori altamente specifici, localizzati, per distinte funzioni del linguaggio, allora ci dovremmo aspettare che i bambini con lesioni focali cerebrali precoci presentino varianti evolutive delle diverse sindromi da afasia. Non è cosÌ. Infatti i bambini con lesioni cerebrali unilaterali precoci continuano generalmente ad acquisire capacità linguistiche che rientrano nei limiti della normalità, benché tendano ad avere una resa inferiore in determinati compiti rispetto a bambini neurologicamente sani.
Un'illustrazione di questo concetto è riportata in figura (fig. 15), dove sono sintetizzati diversi argomenti trattati in questo saggio (Kempler et al., 1996). D. Kempler e collaboratori hanno messo a confronto bambini e adulti con lesioni all'emisfero sinistro versus quello destro o sottoposti al test Familiar Phrases (espressioni familiari), in cui ai soggetti viene chiesto di indicare la figura che corrisponde a una frase idiomatica (per esempio, una frase idiomatica italiana per il test potrebbe essere "Ha messo il bastone tra le ruote") accoppiata a una frase nuova con la stessa complessità lessicale o grammaticale (per esempio, "Ha messo il libro sul tavolo"). I risultati ottenuti in questi due compiti linguistici sono espressi in punteggi che misurano la deviazione di questi bambini e adulti dai risultati ottenuti da soggetti normali della stessa fascia d'età. I pazienti adulti mostrano una doppia dissociazione significativa in questo compito, fornendo così un'ulteriore prova alla nostra argomentazione iniziale circa la specializzazione dell' emisfero destro per le metafore e i cliché: i pazienti con lesioni all'emisfero sinistro hanno maggiori difficoltà generali (cioè, sono afasici), ma la loro prestazione è particolarmente scarsa con le frasi nuove; i pazienti con danno all'emisfero destro si avvicinano alla normalità per quanto riguarda le frasi nuove, ma hanno prestazioni inferiori anche a quelle degli afasici con le frasi idiomatiche. Un andamento sorprendentemente diverso si registra con i bambini cerebrolesi. Sebbene tutti questi bambini avessero riportato le lesioni prima dei sei mesi di età, furono sottoposti al test all'età di 6÷12 anni. La figura 15 mostra che questi bambini risultano normali per la loro età con le espressioni idiomatiche, mentre sono molto indietro rispetto ai loro coetanei con le frasi nuove; tuttavia non ci sono prove di una differenza tra l'emisfero destro e quello sinistro per nessun aspetto del compito. Infatti, risultati come questi sono tipici della popolazione con lesioni focali. Il cervello adulto è altamente differenziato e le lesioni possono portare a danni irreversibili. Il cervello infantile è molto più plastico e sembra essere capace di riorganizzarsi significativamente quando si verificano lesioni analoghe a quelle dell'adulto. Pertanto, non esistono prove in questa popolazione per dimostrare l'esistenza di una facoltà del linguaggio innata e chiaramente localizzata.
Conclusioni
Per concludere, l'essere umano è l'unica specie su questo pianeta capace di usare un linguaggio maturo e dotato di una grammatica complessa. Il linguaggio è un risultato significativo che emerge solo con il tempo e che viene conseguito partendo da condizioni più semplici. La costruzione di una lingua si realizza con una vasta gamma di strumenti ed è possibile che nessuno dei meccanismi cognitivi percettivi e sociali da noi utilizzati a tal fine si sia sviluppato esclusivamente per il linguaggio. Il linguaggio è una nuova macchina che la natura ha costruito con componenti vecchie.
Come è possibile che funzioni? Se il linguaggio non è un 'organo mentale', basato su ingranaggi innati e dominiospecifici, allora come mai siamo l'unica specie che apprende le lingue? Deve aver luogo una serie di adattamenti di qualche genere che ci consentono di conseguire questo risultato straordinario.
Per immaginare il tipo di adattamento in questione, pensiamo al collo della giraffa. Le giraffe hanno le stesse 24 vertebre del collo che abbiamo noi, ma allungate per far fronte ai problemi per i quali sono specializzate, per esempio, mangiare le foglie in cima agli alberi. Da questo particolare adattamento ne sono derivati altri, compresi i cambiamenti cardiovascolari (per pompare il sangue fino al cervello), la riduzione delle zampe posteriori rispetto a quelle anteriori (per non inciampare) e così via. Dovremmo concludere che il collo della giraffa è 'un organo-per-foglie-alte'? Non esattamente. Il collo della giraffa è comunque un collo costruito sulla base dello stesso modello utilizzato per tutti i vertebrati, ma sottoposto ad adeguamenti quantitativi. Esso esplica anche altre funzioni tipiche del collo, esattamente come in specie meno specializzate, ma è dotato di un potenziale in più per raggiungere le parti alte degli alberi, cosa che altri tipi di collo non permettono di fare. Se insistiamo sul fatto che il collo è un organo per raggiungere le foglie, allora dovremmo includere in questa categoria anche il resto della giraffa, compresi i cambiamenti cardiovascolari, l'adeguamento della lunghezza delle zampe e così via.
Ritengo che arriveremo a considerare anche il nostro 'organo del linguaggio' come il risultato di adeguamenti quantitativi dei meccanismi neurali presenti in altri mammiferi, che ci hanno permesso di addentrarci in campi di problemi che altri animali non riescono a percepire e tanto meno a risolvere. Tuttavia, quando finalmente apparve su questo pianeta, il linguaggio molto probabilmente cominciò a esercitare una certa pressione di adattamento sull' organizzazione del cervello umano, esattamente come l'adattamento del collo della giraffa per raggiungere le foglie ha esercitato una pressione di adattamento sulle altre parti del corpo. Tutti gli altri meccanismi neuronali coinvolti nel linguaggio svolgono anche altre funzioni, ma si sono tutti sviluppati per svolgere anche i compiti linguistici. Altri candidati alla categoria di 'meccanismi che facilitano il linguaggio' potrebbero essere la nostra organizzazione sociale, la nostra straordinaria abilità nell'imitare le cose che altri fanno, la nostra maestria nel segmentare rapidi stimoli uditivi, il nostro interesse per l'attenzione condivisa: guardare insieme gli stessi avvenimenti, condividere nuovi oggetti solo per il piacere di farIo. Queste capacità sono presenti nei bambini entro il primo anno di vita e sono chiaramente coinvolte nel processo attraverso il quale il linguaggio viene acquisito. Noi siamo più intelligenti di altri animali, ma possediamo anche una speciale inclinazione per la comunicazione simbolica che rende possibile il linguaggio.
Bibliografia citata
ASLIN, R.N., JUSCZYK, P.W., PISONI, D.B. (1998) Speech and auditory processing during infancy: constraints on and precursors to language. In Handbook of child psychology, voll. 2, a c. di Kuhn D., Siegler R., New York, J. Wiley.
BATES, E. (1976) Language and context: the acquisition of pragmatics. New York, Academic Press.
BATES, E., BRETHERTON, I., SNYDER, L. (1988) From first words to grammar: individuaI differences and dissociable mechanisms. Cambridge-New York, Cambridge University Press.
BATES, E., GOODMAN, J. (1997) On the inseparability of grammar and the lexicon: evidence from acquisition, aphasia and realtime processing. In Language and cognitive processes, 12, 507-586.
BISHOP, D.V.M. (1997) Uncommon understanding: development and disorders of language comprehension in children. Hove, Psychology Press.
BRAINE, M.D.S. (1976) Children's first word combinations, with commentary by Melissa Bowerman. Monographs of the Society for Research in Child Development, 4.
CHOMSKY, N. (1957) Syntactic structures. 's-Gravenhage, Mouton.
CHOMSKY, N. (1988) Language and problems oJknowledge. Cambridge, Mass., MIT Press.
DRONKERS, N.F. (1996) A new brain region for coordinating speech articulation. Nature, 384, 159-161.
ElMAS, P.D., SIQUELAND, E.R., JUSCZYK, P., VIGORITO, J. (1971) Speech perception in infants. Science, 171, 303-306.
ELMAN, J.L., BATES, E., JOHNSON, M., KARMILOFF-SMITH, A., PARISI, D., PLUNKETT, K. (1996) Rethinking innateness: a connectionist perspective on development. Cambridge, Mass., MIT Press.
ELMAN, J., MCCLELLAND, J.L. (1986) Interactive processes in speech perception: the TRACE model. In Parallel distributed processing: explorations in the microstructure of cognition, a c. di Rumelhart D., McClelland J.L., Cambridge, Mass., MIT Press.
ERHARD, P., KATO, T., STRICK, P.L., UGURBIL, K. (1996) Functional MRI activation pattem of motor and language tasks in Broca's area. Society for Neuroscience, 22, 260-262.
FLETCHER, P., MACWHINNEY, B., a c. di (1995) The handbook of child language. Oxford-Cambridge, Blackwell.
FODOR, J.A. (1983) The modularity of mind: an essay on faculty psychology. Cambridge, Mass., MIT Press.
FODOR, J.A., BEVER, T.G., GARRETT, M.F. (1974) The psychology of language: an introduction to psycholinguistics and generative grammar. New Y ork, McGraw-Hill.
FREUD, S. (1953) On aphasia: a criticaI study. New York, International Universities Press.
GELMAN, D. (1986) The mouths of babes: new research into the mysteries of how infants leam to talk. Newsweek, 86-88.
GERNSBACHER, M.A., a c. di (1994) Handbook of psycholinguistics. San Diego, Academic Press.
HEAD, H. (1926) Aphasia and kindred disorders of speech. Cambridge-New York, Cambridge University Press.
JOANETTE, Y., BROWNELL, H.H., a c. di (1990) Discourse ability and brain damage: theoretical and empirical perspectives. New York, Springer Verlag.
KAWAMOTO, A.H. (1988) Distributed representations of ambiguous words and their resolution in a counectionist network. In Lexical ambiguity resolution: perspectives from psycholinguistics, neuropsychology, and artificial intelligence, a c. di Small S., Cottrell G., Tanenhaus M., San Mateo, Morgan Kaufman Publishers.
KEAN, M.-L., a c. di (1985) Agrammatism. Orlando, Academic Press.
KEMPLER, D., VAN LANCKER, D., MARCHMAN, V., BATES, E. (1996) The effects of childhood vs. adult brain damage on literal and idiomatic language comprehension. Brain and Language, 55, 167-169.
KUHL, P.K., MILLER, J.D. (1975) Speech perception by the chinchilla: voiced-voiceless distinction in alveolar plosive consonants. Science, 190, 69-72.
LANGACKER, R. (1987) Foundations of cognitive grammar. Stanford, Stanford University Press.
LEONARD, L.B. (1998) Children with specific language impairmento Cambridge, Mass., MIT Press.
MACDONALD, M.C., PEARLMUTTER, N.J., SEIDENBERG, M.S. (1994) Lexical nature of syntactic ambiguity resolution. Psychological Review, 101, 676-703.
MCCAWLEY, J.D. (1993) Everything that linguists always wanted to know about logic but were ashamed to ask. Chicago, University of Chicago Press.
MENN, L., STOEL-GAMMON, C. (1995) Phonological development. In Handbook of child language, a c. di Fletcher P., MacWhinney B., Oxford-Cambridge, Blackwell, pp. 335-359.
ONIFER, W., SWINNEY, D.A. (1981) Accessing lexical ambiguities during sentence comprehension: Effects of frequency of meaning and contextual bias. Memory & Cognition, 9, 225-236.
PICK, A. (1973) Aphasia, a c. di Brown J., Springfield Th.
POEPPEL, D. (1996) A criticaI review of PET studies of phonological processing. Brain Lang., 55, 352-379.
RUMELHART, D., MCCLELLAND, J.L., a c. di (1986) Parallel distributed processing: explorations in the microstructure of cognition. Cambridge, Mass., MIT Press.
SAMUEL, A.G. (1981) Phonemic restoration: insights from a new methodology. J. Exp. Psychol. Gen., 110, 474-494.
SLOBIN, D., a c. di (1985) The crosslinguistic study of language acquisition. Hillsdale, Erlbaum Associates.
SPERBER, D., WILSON, D. (1986) Relevance: communication and cognition. Cambridge, Harvard University Press.
TANENHAUS, M.K., LUCAS, M.M. (1987) Context effects in lexical processing. In Spoken word recognition, a c. di Frauenfelder u., Tyler L.K., Cambridge, Mass., MIT Press, pp. 213-234.
THELEN, E., SMITH, L.B. (1994) A dynamic systems approach to the development of cognition and action. Cambridge, Mass., MIT Press.
TOGA, A.W., FRACKOWIAK, R.S.J., MAZZIOTTA, J.C., a c. di (1996) Neuroimage, a journal of brain function, second international conference on functional mapping of the human brain, voI. 3, San Diego, Academic Press.
TOMASELLO, M., CALL, J. (1997) Primate cognition. New York, Oxford University Press.
VAN PETTEN, C., KUTAS, M. (1991) Electrophysiological evidence for the flexibility of lexical processing. In Understanding word and sentence, a c. di Simpson G.B., Amsterdam-New York, Elsevier