Reti di informazione e società
Nonostante il loro clamoroso impatto su molti aspetti della nostra società, le nuove tecnologie si trovano ancora in una fase incipiente. Anzi, gli storici della tecnica le chiamano tecnologie immature, perché a loro parere esse sono tuttora in fase di consolidamento. E si differenziano pertanto dalle tecnologie ormai ‘mature’, vale a dire già consolidate, sviluppatesi ai tempi della prima Rivoluzione industriale. Su queste ultime si sa ormai tutto né sarebbe ragionevole aspettarsi l’emergere di novità sconvolgenti. Nell’ambito delle nuove tecnologie, al contrario, tali novità accadono con una frequenza (e celerità) sbalorditiva. In un simile quadro di riferimento, che muta quotidianamente e che ogni giorno dà vita a nuovi interrogativi, è quanto mai difficile avventurare diagnosi e prognosi più o meno attendibili.
Tutto ciò non sta a significare però che si debba rinunciare, per un encomiabile – forse eccessivo – zelo di prudenza, ad avanzare ipotesi e valutazioni sulle linee di tendenza riscontrabili oggi in queste tecnologie. Restare in un atteggiamento di wait and see, in passiva, rassegnata attesa che le cose raggiungano, per così dire, un’assoluta chiarezza (in altre parole che tutti gli sviluppi previsti siano definitivamente compiuti), non è stata mai una scelta di metodo che nella pratica abbia portato a buoni risultati. Se è vero, come è vero, che le nuove tecnologie sono gravide di implicazioni sociali, economiche e politiche, la scelta attendista è, in un contesto come quello attuale, non priva di rischi. Essa può celare una sottile forma di complicità. Una sorta di ‘silenzio assenso’. Ecco il motivo per cui, nonostante le riserve poco prima segnalate, è comunque necessario che ci si misuri con gli assunti teorici alla base di queste implicazioni.
È ciò che succede nei Paesi in cui il processo di informatizzazione è molto avanzato, in particolare negli Stati Uniti, dove cresce il numero dei contributi teorici che cercano, secondo ottiche disciplinari diverse, di analizzare criticamente gli effetti sociali, culturali e politici di tale processo (Goldsmith, Wu 2006; McLeod 2007; Carr 2008). A dire il vero, il tentativo di sottoporre le nuove tecnologie informatiche a una valutazione critica non è del tutto nuovo. Basta ricordare, per es., la posizione di coloro che, in difesa di valori giudicati a rischio, si sono lasciati tentare da un indifferenziato rifiuto del processo di informatizzazione in atto. Sia chiaro però che i nuovi contributi teorici prima accennati, seppur critici, non appartengono minimamente a questa categoria. Essi sono estranei a qualsiasi forma di ‘tecnofobia’. Ma anche, per altri versi, a qualunque forma di ‘infoutopia’, vale a dire sono del tutto estranei al trionfalismo, alla celebrazione acritica di un presunto potere taumaturgico delle tecnologie informatiche.
In questo nuovo modo di vedere, le tecnologie informatiche non sono qualcosa che, per partito preso ideologico, debba essere fatto oggetto di globale diffidenza e condanna, ma piuttosto qualcosa le cui eventuali implicazioni negative possono (e devono) essere evidenziate, e addirittura pubblicamente denunciate, senza che ciò significhi per forza misconoscere tutte le loro eventuali implicazioni positive. Non vi è dubbio, dunque, che ci troviamo qui di fronte a una radicale svolta nei modi di valutare i fenomeni, le tecniche e gli scenari legati al processo dell’informatizzazione. Si lascia intuire ora, dopo una decade di avventate elucubrazioni, una crisi di credibilità rispetto al ‘determinismo tecnologico’, alla tendenza cioè a vedere solo ed esclusivamente negli sviluppi delle tecnologie informatiche la causa, appunto determinante, sia dei mali sia dei beni che ci aspettano. Tutto sembra suggerire che né i profeti di sventure né i profeti di futuri sublimi – entrambi convinti assertori, per opposte ragioni, del determinismo tecnologico – riescono a occultare il fatto che la loro interpretazione monocausale è assolutamente insufficiente a spiegare sia i limiti sia le possibilità degli emergenti spazi digitali.
Soltanto i rappresentanti degli uffici marketing delle grandi multinazionali dell’informatica continuano imperterriti, con la complicità dei media, ad annunciare l’imminente arrivo di mondi ‘mai visti’. Nonostante nulla, o almeno nulla di ragionevole, lasci supporre che i foschi tempi che stiamo vivendo – tempi di profonda crisi ambientale, di fame e di carestia, di spietate guerre preventive e di religione, di ritorno all’intolleranza razziale e culturale – possano essere superati tramite la sola diffusione di dispositivi informatici e un accesso generalizzato alla rete.
Proviamo ora a enumerare i punti intorno ai quali i nuovi approcci critici sembrano concentrarsi: a) il tema del rapporto tra informazione e conoscenza, tra la libertà teorica di un presunto accesso infinito all’informazione e la difficoltà pratica di trasformarla in effettivo sapere; b) la questione del ‘divario digitale’, ossia la distanza che separa le persone, le classi e le nazioni ricche d’informazione da quelle che ne sono prive; c) il ricorrente problema della libertà nella rete e dell’esplicito (o implicito) controllo gestionale, legislativo o politico che si esercita su Internet; d) la questione della privacy che riguarda, in particolare, l’impatto destabilizzante delle tecnologie elettroniche sulla ‘persona privata’ e la futura sostituzione di quest’ultima con una sfuggente, ancora non meglio precisata, ‘persona digitale’; e) gli interrogativi suscitati dai più recenti sviluppi dell’interagire virtuale – come avviene, per es., negli ambienti virtuali 3D sia sulla rete sia sui media – che grazie a una sempre maggiore sofisticazione tecnica ripropongono, in tutta la sua acuità, la questione della simulazione digitale del mondo reale; f) il dibattito oggi in corso sull’uso del computer nella prima infanzia, addirittura durante i primi mesi di vita, e i gravi rischi che esso può comportare in una fase tanto delicata dello sviluppo cognitivo; g) i temi riguardanti gli effetti dei videogiochi con forti ingredienti di azione, di competitività e di violenza sul comportamento sia individuale sia collettivo; h) le denunce sull’allarmante declino dell’attenzione nei giovani (e anche nei meno giovani), come risultato del tanto diffuso fenomeno del multitasking, la tendenza cioè a ricorrere a un uso simultaneo dei più svariati dispositivi elettronici allo scopo di svolgere all’unisono un vasto arco di attività e funzioni prevalentemente comunicative.
Informazione, conoscenza e divario digitale
Per cominciare è d’obbligo porsi la seguente domanda: è concettualmente difendibile l’attuale tendenza a far coincidere società dell’informazione e società della conoscenza? Domanda che, a rigor di logica, ci porta fatalmente a un’altra: è sostenibile la tesi, implicita nella domanda precedente, che informazione e conoscenza siano una e la stessa cosa?
Questa idea piuttosto generica di informazione ha dato origine a non pochi malintesi. Il più insidioso è forse quello secondo il quale l’informazione sia equiparabile alla conoscenza e, come corollario, che molta informazione equivalga a molta conoscenza. Sta di fatto che non c’è conoscenza senza informazione, ma la sola informazione non è ancora conoscenza. Per diventare conoscenza, l’informazione ha bisogno di un soggetto – individuale o collettivo – che sia in grado di metabolizzarla, di assimilarla, di renderla fruibile. In breve: di trasformarla, per l’appunto, in conoscenza. Il che, in pratica, significa farla oggetto di accurata verifica e di arricchimento.
In linea di principio, la rete consente di avere accesso a tutte (o a quasi tutte) le fonti d’informazione di cui abbiamo bisogno. D’altra parte, però, spesso accade che siamo investiti da una valanga di informazioni di cui invece non abbiamo bisogno. E non di rado, le informazioni di cui abbiamo bisogno ci pervengono indissolubilmente legate a quelle di cui non abbiamo bisogno. E in questi casi si ripropone, ancora più drammaticamente, la nostra insofferenza nei confronti della ridondanza informativa.
Comunque sia, non c’è dubbio che le società dei Paesi industrializzati, a prescindere da alcune forme di digital divide che non mancano neppure al loro interno, siano società, come si dice, a informazione intensiva (information intensive), società di opulenza, di abbondanza informativa, società che si differenziano profondamente da quelle del passato che sono state, almeno fino all’invenzione della stampa, società in cui prevaleva l’indigenza informativa (The digital phoenix, 1998; Norris 2001; Warschauer 2002 e 2003; Sartori 2006). È innegabile, perché palese, che gli esseri umani hanno oggi una maggiore possibilità di essere informati rispetto ad altre epoche. Le ragioni di questo sono facilmente intuibili: da un lato si dispone ora, tramite la rete, di un mezzo tecnico che consente un accesso capillare alle più svariate banche dati; dall’altro la produzione di informazione è cresciuta notevolmente e di conseguenza anche la massa di informazione circolante nel mondo.
A questo punto viene nuovamente spontaneo riproporre il seguente interrogativo: è giusto sostenere, come qualcuno è tentato di fare, che l’accesso a molta informazione assicuri, in sé e per sé, l’accesso a molto sapere e a molta conoscenza? In altre parole, quale rapporto s’instaura tra informazione e sapere, tra informazione e conoscenza?
Non di rado, si sente dire che il motore di ricerca Google è una ‘fonte illimitata di conoscenze’. È un errore. Google, di certo, fornisce informazioni, ma esse non sono da ritenere (o non ancora) conoscenze. ‘Googleare’ (si scusi l’infelice neologismo) non è conoscere. Vi è, infatti, un’abissale differenza tra inventariare cose e sapere cose. È ovvio che il sapere non si misura esclusivamente in termini di informazione. Vale a dire, non solo con riferimento alla quantità di informazioni memorizzate, ossia di informazioni raccolte e custodite in un archivio o deposito mnestico, ma anche con riferimento all’effettiva possibilità (o probabilità) di rendere individualmente e socialmente fruibili le informazioni raccolte.
Sovrabbondanza e selezione
Beninteso, esistono fattori che favoriscono il processo di trasformazione dell’informazione in sapere, ma ce ne sono altri che possono persino ostacolarlo. La sovrabbondanza d’informazione ne è il miglior esempio. Può sembrare contraddittorio, ma è così. Di fronte all’imponente quantità di informazioni che viene ogni giorno riversata su di noi, si constata negli ultimi tempi una reazione di crescente disinteresse, e persino di insofferenza. Le informazioni sono troppe e non sappiamo cosa farcene.
Occorre peraltro sottolineare che, nel nostro rapporto con un’informazione che ci giunge senza il nostro esplicito sollecito, gioca sempre un ruolo decisivo quel meccanismo che possiamo chiamare di intenzionalità selettiva. In altre parole, il meccanismo di filtro che ci consente di lasciar passare alcune informazioni e di scartarne altre, di soffermarci su di esse oppure no. Questo succede anche quando siamo noi a cercare attivamente in rete una determinata informazione. In questo caso, procediamo limitando a priori il campo in cui speriamo di trovare ciò che stiamo cercando. Il che, nei fatti, implica la scelta di determinati obiettivi e itinerari e, pertanto, la rinuncia ad altri che esulano dallo specifico campo della nostra indagine.
In definitiva, siamo animali molto selettivi, non prestiamo attenzione indistintamente a tutte le cose, bensì soltanto a quelle che rispondono alle nostre aspettative. È fin troppo evidente che siamo poco ricettivi, e persino insofferenti, nei confronti dei messaggi che non sono in alcun modo legati alla sfera dei nostri quotidiani interessi, pulsioni o speranze. A ciò si deve aggiungere che in generale siamo incostanti, volubili, svagati e non ci piace soffermarci troppo su un argomento. Ecco perché la ridondanza, il tornare con insistenza sullo stesso tema ci annoiano. La verità è che gli umani sopportano male l’impatto con la sovrabbondanza di informazione. Del resto, la ridondanza, la ripetizione di uno stesso messaggio fanno sì che, superata una soglia critica, il messaggio non sia quasi più percepito. Rimane solo come un vago, appena distinguibile, rumore di fondo.
A ciò si deve aggiungere la nostra connaturata irrequietezza percettiva. È noto a tutti che la nostra avidità d’informazione, la nostra onnivora curiosità, è sovente in contrasto con la nostra ristretta capacità di prestare attenzione per molto tempo a un determinato oggetto, immagine o messaggio. Certo, le novità ci incuriosiscono, ma solo durante il breve periodo in cui le percepiamo ancora come novità. Quando una novità cessa, a nostro giudizio, di essere tale, diventa subito oggetto di noia, di fastidio.
Il tema attinente al rapporto tra informazione e conoscenza fin qui esaminato è inseparabile da quello, certamente più complesso, tra memoria e conoscenza. Vi sono studiosi, specie tra i neuroscienziati, che tendono oggi a relativizzare drasticamente la distinzione tra conoscenza e memoria. Il neurobiologo spagnolo Joaquín M. Fuster è molto esplicito in proposito: «La differenza tra conoscenza e memoria è sottile. […] La conoscenza può essere ritenuta la memoria dei fatti e della relazione tra i fatti. La conoscenza, come la memoria, viene dunque acquisita tramite l’esperienza. […] L’artificialità della distinzione tra memoria e conoscenza risulta ovvia allorquando si considerano le interazioni funzionali tra le due, nelle sfere cognitiva e neurale. La prima constatazione da fare è che non c’è qualcosa di simile a una memoria totalmente nuova. […] Ogni percezione implica il ricordare poiché essa è sempre un’interpretazione del mondo secondo una conoscenza precedente» (2003, p. 112).
Identità e controllo
Una delle conseguenze dell’uso massiccio delle nuove tecnologie dell’informazione e della comunicazione è la sempre più diffusa preoccupazione per le sorti della nostra identità, ossia per ciò che siamo – o crediamo di essere – come individui, ma anche, e in non minor misura, per le sorti della nostra identità collettiva, ossia di quell’identità più vasta e diversificata alla quale ci sentiamo di appartenere e che nel bene o nel male è alla base del nostro agire come attori sociali.
Mentre ci aiutano ad accrescere il numero dei nostri rapporti interpersonali e ad agevolare molte delle nostre quotidiane incombenze, allo stesso tempo queste tecnologie concorrono di fatto a infirmare e talvolta a vanificare quei meccanismi che nel passato hanno consentito una relativa protezione della nostra vita privata. Protezione che riguardava (e riguarda tuttora) la difesa di uno dei valori fondanti della democrazia: il rispetto verso l’autonomia – oggettiva e soggettiva – della sfera personale.
Non c’è dubbio che i tradizionali meccanismi di protezione e le misure di tutela della privacy finora conosciuti non sono ormai più in grado di contrastare il sottile e insidioso controllo che si compie continuamente tramite i più svariati servizi e dispositivi telematici: Internet, e-commerce, cellulare, carta di credito, bancomat, telepass, cartelle cliniche, calling cards, lettori di codice a barre, tessere di riconoscimento elettronico, apparecchi d’identificazione biometrica attraverso il viso, l’iride, la voce o la mano, impianti di videosorveglianza a circuito chiuso, sistemi di sorveglianza satellitare e così via.
Questi servizi e dispositivi sottopongono la nostra vita a un subdolo e capillare controllo e, così facendo, concorrono a mettere in crisi il sistema vigente della produzione (e riproduzione) dell’identità personale. Di colpo, ci vediamo privi di ogni cornice di riferimento, alla mercé di una miriade di congegni finalizzati all’omologazione culturale e addirittura politica. Non riusciamo più ad affermare ciò che distingue la nostra identità, ciò che ci consente di discernere la nostra realtà dalla realtà degli altri, le nostre opinioni dalle opinioni degli altri.
Perché se è vero che la nostra identità emerge, si stabilisce e si consolida in un permanente commisurarci con gli altri, è ugualmente vero che essa dipende anche dalla nostra capacità di tracciare inequivocabili confini tra noi e gli altri. Di sicuro, la nostra identità si conquista tramite la nostra apertura verso gli altri, ma anche tramite la nostra chiusura nei confronti dell’invadenza degli altri. In breve: dell’invadenza degli intrusi.
L’intera problematica dell’identità delle persone in una società democratica si gioca appunto in questo difficile equilibrio tra apertura e chiusura. Si ha oggi la sensazione che un simile equilibrio sia ormai rotto. Dappertutto regna la tendenza all’intrusione, a violare i confini del mondo privato delle persone.
Ci si riferisce, di preciso, a quel rapporto che è alla base di ogni sistema di controllo sociale: il rapporto tra trasparenza e opacità, tra accessibilità e inaccessibilità, tra perscrutabilità e imperscrutabilità. Fino al punto che, se non si raggiunge un equilibrio tra queste due realtà, il controllo sociale non è efficace. E su questo non c’è dubbio. Il controllo è illusorio se non si è in grado di rendere trasparente il soggetto che si vuole controllare, ma è altrettanto illusorio se non si è in grado di assicurare l’opacità del soggetto che controlla.
A questo punto, bisogna pur segnalare che, nella storia delle idee, il rapporto trasparenza-opacità è stato oggetto di interpretazioni molto diversificate. Nella nostra epoca, contraddistinta da una privacy ormai in stato d’assedio, la trasparenza, se riferita per l’appunto alla vita privata, non può essere intesa come un traguardo da inseguire. Semmai il traguardo dovrebbe essere l’opposto: come preservare l’opacità della vita privata di fronte ai tentativi di renderla trasparente.
Non deve stupire dunque che l’attuale dibattito sulla privacy giri intorno alla dialettica trasparenza-opacità. Ma in che modo il venir meno della nostra opacità ci mette sempre, alla fin fine, alla mercé del controllo? Detto altrimenti: in che modo la trasparenza rende gli uomini sempre, e comunque, vulnerabili all’arbitrio della sorveglianza, e pertanto incapaci di una gestione autonoma della propria vita? In che misura è vero che l’«uomo di vetro», com’è stato di recente chiamato (S. Rodotà, La vita e le regole. Tra diritto e non diritto, 2006, p. 104), è un uomo privo (o quasi) d’identità?
Si deve ammettere che, al presente, è difficile sottrarsi alla tentazione di dare risposte pessimistiche a queste domande. E le ragioni, come s’è visto, sono più che fondate. Affermare che stiamo diventando ‘uomini di vetro’ non è un abuso metaforico. In ogni momento siamo costretti a rinunciare alle forme di opacità che assicurano alla nostra vita privata una relativa autonomia. Nondimeno, ci sono anche coloro che cercano, per così dire, di salvare il salvabile. Pur ammettendo la gravità della situazione che hanno dinanzi, essi sono costantemente impegnati nella ricerca di mezzi che permettano quanto meno di intralciare (o circoscrivere) gli atti di sorveglianza.
È curioso che uno dei principali ostacoli che devono affrontare gli esperti in questo campo sia la nostra relativa complicità, non importa se consapevole o meno, nei confronti di quei mezzi informatici che, in sostanza, sono adoperati per violare appunto la nostra privacy. Ma come si spiega questa complicità? Essa si spiega con il fatto che sovente noi abbiamo vantaggi dall’essere sorvegliati, e siamo disposti a mettere in conto questa spiacevole implicazione. È ciò che accade con l’uso di quei formidabili raccoglitori di tracce che sono, per es., le carte di credito d’ogni genere.
Tra i fattori che contribuiscono a complicare ulteriormente le cose, dobbiamo citare la difficoltà di formulare un modello giuridico coerente di protezione della privacy. Dal momento che si è costretti ad ammettere che il modello non è ugualmente applicabile in tutti i casi – non, per es., nei confronti di coloro che minacciano la nostra sicurezza personale e collettiva –, si apre una catena di innumerevoli eccezioni che finisce per compromettere la logica sottostante al modello e, in certa misura, per rendere più farraginosa la sua gestione.
Sullo sfondo di questo s’intravede il vasto e articolato tema dell’appartenenza. A ben guardare, la crisi d’identità può essere definita come una crisi del senso di appartenenza. Chi è afflitto da questo male ha la sensazione che il mondo non gli appartenga, ma anche, per un altro verso, che egli non appartenga al mondo. Al mondo che, nel passato, era stato il suo mondo. A un tratto egli si scopre privo di protezione, esposto alla più rigida intemperie. Non sa dove e come trovare rifugio, dove e come mettersi al riparo. Egli si sente accerchiato da una molteplicità di azioni (o eventi) che, dall’esterno, mettono profondamente a repentaglio la sua identità come persona.
Uomo pubblico vs uomo privato
Non è azzardato prevedere che, nei prossimi anni, lo spazio privato diventerà uno spazio sempre più sorvegliato. Il che, in pratica, potrebbe diventare prima o poi la definitiva eclissi di quei valori di intimità, riservatezza e discrezione che erano nati con l’avvento dell’individualismo borghese.
Come si ricorderà, un aspetto centrale della «teoria dei caratteri sociali» sviluppata negli anni Cinquanta da David Riesman (The lonely crowd. A study of the changing American character, 1950; trad. it. 1956) era la distinzione tra «autodiretto» (inner-oriented) ed «eterodiretto» (other-oriented). Riesman contrappone una società diretta dall’interno (in cui si agisce secondo fini e sentimenti intimamente provati) a una società eterodiretta (in cui passioni e obblighi dipendono da ciò che la gente crede siano i sentimenti altrui), ritenendo che negli Stati Uniti, e sulle loro orme ;nell’Europa occidentale, si stesse allora verificando il passaggio dal primo al secondo tipo di società. Richard Sennett, autore negli anni Settanta del libro The fall of public man (1977; trad. it. 1982), è d’altro avviso. Per Sennett lo schema di Riesman deve essere totalmente capovolto: le società occidentali stanno passando da un tipo di società eterodiretta a una società diretta dall’interno, in cui si realizzerà, appunto, il «declino dell’uomo pubblico».
Il quadro che si va delineando non sembra confermare queste ultime previsioni. Con ogni plausibilità si può assumere che il nuovo mondo in procinto di nascere non sarà quello del declino dell’uomo pubblico pronosticato da Sennett, ma piuttosto quello del declino dell’uomo privato previsto da Riesman. La società autodiretta sta diventando (o la stanno facendo diventare) sempre più una società eterodiretta. Il che, in pratica, significa che si sta verificando un’espansione dell’area d’influenza dell’uomo pubblico a scapito dell’autonomia dell’uomo privato. Per dirla schietta: l’uomo pubblico tende a colonizzare l’uomo privato. Ne è prova il fatto che il dominio proprio dell’uomo privato – ossia il suo privato – è sempre più di pubblico dominio. Se questo è vero, è fuorviante parlare di ‘declino dell’uomo pubblico’. La verità è che, al giorno d’oggi, l’uomo pubblico gode di ottima salute. Non altrettanto l’uomo privato.
Si è dimostrato come (e perché) l’onnipervasivo controllo telematico della vita dei cittadini, e il conseguente deteriorarsi della loro privacy, sia una delle principali cause della crisi d’identità e dei diversi fenomeni a essa collegate. È ora il momento di porsi un’ulteriore domanda: quali sono le istanze responsabili (e i beneficiari) dell’attuazione di questo controllo? E se questa linea di tendenza finalizzata a un controllo capillare delle persone s’intensificasse nel futuro, come sembra più che prevedibile, quali saranno le conseguenze immediate per il vivere quotidiano delle persone?
Tra queste, lo abbiamo già discusso, una generalizzata crisi d’identità. L’esperienza insegna che ogni accanimento nel sorvegliare le persone conduce, prima o poi, a un indebolimento della loro identità, a un esaurimento della coscienza di sé, dei propri ruoli nella società, in un processo che presuppone la rimozione di importanti pezzi della memoria autobiografica. Quelli, per l’appunto, che ci consentono di capire ciò che noi siamo oggi in funzione di ciò che siamo stati ieri. Ma essere costretti a rinunciare a sé stessi, a cancellare ciò che ci rende riconoscibili ai nostri occhi (e anche agli occhi degli altri) è stato sempre vissuto come un’assoluta umiliazione.
Reale e virtuale
Si vuole qui dare priorità alla spinosa questione del virtuale. Diciamo che il virtuale non è una novità, e meno ancora – come pretendono alcuni – una stravolgente novità. Da sempre, noi umani abbiamo avuto la possibilità (e l’impellente necessità) di arredare illusoriamente il mondo. È superfluo ricordare, perché fin troppo ovvio, la nostra propensione a illuderci, a farci illusioni, sulla realtà, e su noi stessi, e a rendere irreale il reale, e viceversa. Ci si riferisce, precisamente, alla nostra capacità affabulatoria, ossia alla nostra attitudine a generare illusioni e a credere (e far credere) che esse siano reali.
Non c’è dubbio, del resto, che questa capacità di immaginare, raffigurare e produrre mondi illusori sia una delle caratteristiche più distintive della nostra specie. Poiché noi umani siamo, prima di qualsiasi altra cosa, infaticabili mitomani, prolifici facitori di mondi simbolici. Mondi simbolici che svolgono un ruolo di mediazione tra noi e il mondo reale. Ed è appunto in questa sfera della mediazione simbolica che si sviluppano le diverse pratiche creative di rappresentazione, in grado di fornire la nostra versione del mondo reale lungo il corso dei millenni.
Basta pensare, per es., alla lunga storia della rappresentazione visiva – dai dipinti sulle pareti della grotta di Altamira in Cantabria (Spagna) alla realtà virtuale – e a quella della narrazione letteraria da Omero a James Joyce. Va altresì rilevato come queste pratiche creative siano state sempre intimamente legate alla natura delle tecniche di produzione utilizzate. Nel campo, per es., delle rappresentazioni visive questo è più che evidente. Uno sguardo pur superficiale alla storia dei mezzi tecnici della raffigurazione visiva è illuminante in proposito.
La loro evoluzione è assai nota. Agli inizi, come si sa, i mezzi a disposizione erano solo quelli meccanici, molto più tardi si è avuto accesso ai mezzi chimico-meccanici, fotochimici e radiotecnici e poi finalmente, negli ultimi decenni, ai mezzi microelettronici e informatici. Ognuna di queste tecniche ha generato una risposta diversa alla nostra connaturata esigenza di virtuale. Ed è in quest’ottica che il significato storico della realtà virtuale assume contorni più precisi. Fino al punto che, volendo, la realtà virtuale potrebbe essere definita, con qualche forzatura, come il virtuale dell’era della microelettronica e dell’informatica. Ciò nonostante, sarebbe peccare di rozzo determinismo tecnologico spiegarla soltanto in questi termini. Di solito, la tecnologia non è un fattore determinante, bensì condizionante dei processi culturali. Le cause vanno dunque ricercate altrove.
A questo punto, viene spontaneo chiedersi: se la realtà virtuale non è solo un prodotto delle nuove tecnologie, quali sono gli altri fattori che hanno reso possibile (e necessario), per venire incontro all’odierna esigenza di virtuale, un accorgimento tecnico di questo tipo? Non è nostro proposito, in questa sede, cercare di esaminare tutti i fattori che possano avere un ruolo in questo senso. È sufficiente limitarci ad alcune riflessioni, per forza frammentarie, intorno a quei fattori che appaiono più caratterizzanti.
Per facilitarci il compito, vorremmo tralasciare i fumosi discorsi relativi alle merci virtuali – ‘virtuovaglie’, come avrebbe potuto dire Carlo Emilio Gadda – e guardare più attentamente alle verificabili, effettive aree di applicazione della realtà virtuale. Abbiamo la certezza che individuare le aree in cui la realtà virtuale trova, in concreto, maggiore (o minore) applicazione può insegnare molto circa le motivazioni di fondo, socioeconomiche e culturali, che hanno contribuito alla nascita e successivamente allo sviluppo di questo genere di ambienti sintetici.
Ci sia consentito enumerare queste aree di applicazione: 1) armamenti e tecnologie militari; 2) intrattenimento (videogiochi, animazione filmica e televisiva); 3) ricerca tecnico-scientifica (biologia molecolare, biomedicina, medical imaging, ergonomia, astrofisica, astronomia, astronautica ecc.); 4) modellistica progettuale; 5) telelavoro; 6) teledidattica.
L’ordine scelto in questo elenco non è arbitrario, ma esprime una graduatoria relativa alla maturità tecnologica raggiunta dalle diverse aree e alla loro importanza in termini economici e commerciali. In primo luogo, come si vede, troviamo il settore militare e quello dell’intrattenimento; molto indietro il settore degli strumenti per la ricerca tecnico-scientifica; e ancora più indietro i settori della modellistica progettuale, del telelavoro e della teledidattica.
Estremizzando un poco le cose si può dire che le tecnologie del virtuale si sono sviluppate più nei settori dei congegni per uccidere e degli aggeggi per dilettare che non in quelli delle attrezzature al servizio della salute, dell’educazione e del lavoro. Tutto questo non esclude però che ci siano alcuni fenomeni come Second life che, a prescindere dal giudizio che se ne può dare, rappresentano una certa novità rispetto ad altri mezzi di intrattenimento.
Percezione
Nella vasta e complessa questione della realtà virtuale è sempre in agguato la famigerata controversia, squisitamente filosofica, relativa alla percezione della realtà. Nessuno può ormai negare che la nostra percezione è satura di valori e di disvalori, di giudizi e di pregiudizi; sostenere però che essa non ci dica nulla di credibile sulla realtà è senz’ombra di dubbio una conclusione abusiva. E il punto riguarda direttamente la questione del rapporto virtuale-reale. Perché, in ultima istanza, tutta la controversia sulla realtà del virtuale e sulla virtualità del reale è inestricabilmente connessa al problema dell’affidabilità (o meno) della nostra percezione del mondo reale.
David Hume distingueva tra percezione inesperta e percezione esperta, tra percezione che non sa e quella che sa. Tra l’occhio innocente e l’occhio non innocente. Il problema però è che né l’occhio innocente né l’occhio non innocente esistono allo stato puro. L’occhio è talvolta più o meno inesperto, talaltra più o meno esperto. Ogni immagine, reale o virtuale che sia, è un misto di innocenza e di non innocenza percettiva.
Detto questo, rimane aperto il problema di quali siano i criteri più o meno affidabili cui possiamo richiamarci nel nostro rapporto conoscitivo con la realtà. Se ogni immagine è un misto di innocenza e di non innocenza, che cosa tiene insieme il nostro comune agire nel mondo? Certamente le nostre illusioni condivise, ma anche le nostre esperienze concrete altrettanto condivise. La nostra percezione visiva può essere causa di sconcertanti, imbarazzanti abbagli, ma anche, occorre ammetterlo, di gratificanti certezze.
Dal punto di vista della percezione, gli oggetti, a prescindere dal fatto di essere reali o virtuali, non fanno mai riferimento a una realtà omogenea, ‘tutta d’un pezzo’, passiva e immutabile di fronte a noi. Una siffatta realtà è solo l’assunto fideistico di una teoria a dir poco rozza e ingenua della conoscenza.
Già negli anni Trenta del 20° sec., Kurt Lewin, il padre della psicologia topologica, aveva spiegato che la percezione degli oggetti va studiata nel contesto di quello che egli chiamava lo «spazio della vita» (life space). Uno spazio eterogeneo, complesso e articolato che comprende ovviamente gli oggetti, nonché i rapporti che intercorrono tra gli oggetti e le persone e, non per ultimo, tra le persone.
Ecco perché laddove ci interroghiamo sull’affidabilità conoscitiva di un oggetto virtuale nei confronti di un oggetto reale, la risposta dipende dalla natura dei dati ambientali relativi a entrambe le classi di oggetti nel ricco spazio contestuale teorizzato da Lewin. È un assunto importante, perché la risposta può variare notevolmente. Non è infatti da escludere che, secondo il contesto, un oggetto virtuale possa risultare o più, o meno, o ugualmente affidabile di un oggetto reale.
Eppure, il fatto che, in certe particolari condizioni, un oggetto virtuale possa essere più (o ugualmente) affidabile di un oggetto reale, non autorizza a pensare che la realtà virtuale sia in grado sempre e comunque di assumere un ruolo vicario nei confronti della realtà. Dopotutto, i mattoni con cui si costruisce il reale non sono gli stessi con cui si costruisce il virtuale.
È stato detto che non esiste una sola mappa dei possibili, bensì una molteplicità, e che pertanto si dovrebbero ammettere diverse maniere di usare il mondo. Il che è vero. Eppure, è anche vero che, almeno per i comuni mortali, il modo più persuasivo sarà sempre l’uso corrente del mondo, vale a dire, del mondo delle cose in mezzo alle quali viviamo.
Computer e formazione
Nel Seicento, Comenio proponeva di «trasformare in luoghi di divertimento quei campi di lavoro forzato che sono le scuole» (Pampaedia, 1677). Non è che le scuole d’oggi, malgrado talvolta qualcuna possa apparire tale, vadano considerate veri e propri campi di lavoro forzato. Ma volerle trasformare in luoghi di divertimento, soprattutto di quel tipo di divertimento che ogni giorno ci propinano i media e l’industria dei cartoni animati e dei videogiochi, è una prospettiva, ne possiamo convenire, tutt’altro che auspicabile. D’altronde, non è da scartare che il disegno di un’informatizzazione totale della scuola formale possa condurre alla sua sparizione, assimilata in toto alla scuola parallela, cioè alle potenti agenzie di acculturamento rappresentate dal sistema dei media. È difficile, per il momento, sapere se questo sarà un bene o un male.
Dopo queste precisazioni, passiamo a esaminare alcuni aspetti del problema relativo all’uso del computer nella scuola, tanto in quella formale, quanto in quella parallela. Il nostro interesse, però, sarà concentrato sugli effetti che il computer può avere sullo sviluppo cognitivo di bambini nella fascia d’età fra i due e i sette anni, un periodo che, nella terminologia della scuola formale, comprende parte dell’asilo nido, tutta la scuola materna e parte della scuola elementare.
A questo punto, viene da chiedersi: perché mai si ritiene che iniziare i bambini all’uso del computer, anche in giovanissima età, sia importante per il loro sviluppo intellettivo? Perché esiste una tanto radicata convinzione che l’alfabetizzazione informatica debba precedere addirittura l’acquisizione del linguaggio e dell’alfabetizzazione vera e propria? Perché politici e funzionari responsabili della pubblica istruzione, così come non pochi insegnanti e genitori, sono persuasi che la presenza del computer nell’asilo nido, nella scuola materna o nella famiglia sia imprescindibile per un’educazione corretta dei bambini?
Non è certo da condividere l’idea che il computer debba essere introdotto ovunque indiscriminatamente e ciò solo, e soltanto, perché lo impone una generica esigenza di adeguarci al processo di informatizzazione della società. Ciò non vuol dire che promuovere l’uso del computer sia, in linea di principio, da rifiutare, ma semplicemente che questa scelta non può essere il risultato di un’esigenza di tipo fideistico, priva di qualsiasi motivazione razionale. Si afferma piuttosto che una decisione di tale portata, se non vuole essere una scelta ideologica (o peggio di moda culturale), si sarebbe dovuta far precedere da una rigorosa valutazione delle questioni, alcune cruciali, che possono scaturire dalla presenza massiccia del computer nei luoghi della scuola formale e della scuola parallela.
Talvolta si ha l’impressione che non si voglia far entrare il computer nelle scuole e nelle case, come sarebbe giusto, dalla porta principale, in seguito a un’accurata verifica delle sue credenziali, ma dalla finestra o dalla porta di servizio, senza interessarsi della sua identità e dello scopo della sua presenza. Benché le potenzialità delle nuove tecnologie siano davvero enormi, vi è per il momento un abisso tra la maturità raggiunta dai mezzi tecnologici e l’immaturità dell’elaborazione concettuale sul come, e a quale scopo, possono essere utilizzati i mezzi informatici nel contesto della pratica educativa.
Negli ultimi anni, la questione della necessità d’introdurre tali mezzi nella scuola è diventata, in Europa, un tema ricorrente negli interventi pubblici degli uomini politici. Costoro sostengono infatti che soltanto un’alfabetizzazione informatica di massa consentirebbe ai Paesi dell’Unione Europea di partecipare, con pari dignità rispetto agli Stati Uniti, ai benefici della globalizzazione e della new economy. Per raggiungere tale scopo, dicono, basterebbe assicurare a ogni scolaro l’uso quotidiano del computer.
Ancora una volta, siamo di fronte alla tanto diffusa visione miracolistica (e salvifica) della tecnologia. Nel caso della scuola, una logica di questo genere è, da ogni punto di vista, fuorviante. Non è vero che distribuire ‘a pioggia’ milioni di computer nelle scuole possa, per incanto, favorire l’avvento di un’economia tecnologicamente più avanzata e, di conseguenza, più competitiva sul piano internazionale. Nessuna persona di buon senso può crederlo. Dopotutto non è la tecnologia che cambia la società, ma è la società che, tramite la tecnologia, cambia sé stessa.
In ogni modo, l’inserimento del computer nella scuola pone problemi sui quali, negli ultimi anni, si constata un interesse sempre maggiore. E ciò avviene soprattutto negli Stati Uniti, un Paese che è stato, come si sa, uno dei primi a introdurre massicciamente il computer nella scuola. Il che non deve sorprendere. Passati i primi anni in cui gli si attribuiva un ruolo pressoché taumaturgico, ci sono oggi studiosi che cercano di misurarsi, in uno spirito più riflessivo, con il vasto arco di problemi finora trascurati o lasciati in sospeso nella fase iniziale. Nonostante la loro matrice professionale di provenienza sia assai diversa, essi condividono la necessità di individuare criteri razionali che consentano di definire, al margine di ogni trionfalismo, ma anche di ogni facile catastrofismo, il ruolo del computer nella scuola. Un approccio del genere, improntato all’oggettività e alla verifica empirica, ha consentito di ponderare, con relativa certezza, le reali potenzialità e i veri rischi delle tecnologie informatiche nella sfera dell’educazione e della formazione.
Computer e prima infanzia
Va detto, però, che non sempre un simile approccio è possibile. Talvolta ci sono proposte che, per la loro natura, mettono a dura prova una serena, distaccata verifica della loro attendibilità. Una di queste è la proposta, del resto già avviata sperimentalmente in molti luoghi, di rendere accessibile l’uso del computer ai bambini che frequentano l’asilo nido, ossia la struttura che accoglie bambini fino alla soglia dei tre anni (D. Grossman, G. DeGaetano, Stop teaching our kids to kill. A call to action against TV, movie & video game violence, 1999; D. Buckingham, After the death of childhood. Growing up in the age of electronic media, 2000; Children in the digital age. Influences of electron-ic media on development, ed. S.L. Calvert, A.B. Jordan, R.R. Cocking, 2002; S. Gregory Thomas, Buy buy baby. How consumer culture manipulates parents and harms young minds, 2007).
Vi è un numero crescente di esperti che, su una simile proposta, avanza forti perplessità. Giudizi che riguardano solo l’asilo nido, e che non sottintendono, né direttamente né indirettamente, una condanna dell’uso del computer a tutti i livelli del sistema scolastico. Occorre ammettere, però, che sull’argomento ci sono posizioni molto più radicali di questa. Ci sono, per es., coloro per i quali i giudizi avversi all’uso del computer nell’asilo nido dovrebbero valere anche per la scuola materna. Una tesi che merita una verifica più approfondita. È piuttosto ovvio che, dal punto di vista dello sviluppo cognitivo, il rapporto bambino-computer non ha (né può avere) le stesse implicazioni all’età di due anni e a quella di quattro anni. Molto spesso si fa l’errore di parlare genericamente di bambini piccoli, senza specificare quanto piccoli essi siano.
In ogni modo, vi è oggi un’opinione molto diffusa, anche tra gli studiosi prima elencati, che la proposta relativa all’uso del computer nell’asilo nido, se si diffondesse, potrebbe recare danni, non sempre reversibili, allo sviluppo intellettivo dei bambini. In special modo quando si tratta, come nel caso specifico, di bambini nella delicata fase del loro primo rapporto senso-motorio con il mondo. Questa idea dà per scontato che un modo ottimale di esperire tale rapporto dovrebbe essere diretto, ossia non intralciato da alcun genere di intermediazione virtuale. Se questa valutazione si dimostrasse corretta, nessun cittadino responsabile – insegnante, genitore o politico – dovrebbe assumere un atteggiamento di noncuranza nei confronti di una simile eventualità.
Rimane la necessità di sapere, con ragionevole certezza, se effettivamente l’uso del computer sia in grado di procurare, come viene da più parti rilevato, effetti deleteri sullo sviluppo cognitivo dei bambini di giovanissima età. La questione potrebbe essere riassunta nella seguente domanda: se è vero, come è vero, che il bambino si appropria del mondo circostante tramite l’interazione diretta con l’ambiente fisico e sociale, cosa succede quando l’interazione non è più diretta ma mediata dal computer? In altri termini: l’esperienza che si ottiene tramite un’interazione virtuale con il computer è equiparabile, dal punto di vista dello sviluppo senso-motorio del bambino, a quella ottenuta mediante un’interazione reale, diretta, in cui il rapporto del bambino con gli oggetti risulta da un coinvolgimento dei suoi cinque sensi?
Competenze
In realtà, gran parte dell’impegno più recente delle scienze cognitive è finalizzato a dimostrare empiricamente che il bambino appena nato è molto meno incompetente – o se si vuole molto più competente – di quanto Jean Piaget immaginava. Nondimeno, parlare di competenze significa forse commettere un abuso linguistico. Più esatto sarebbe quindi parlare di ‘precompetenze’. E per precompetenze si dovrebbero intendere soprattutto le predisposizioni innate che consentono al bambino di essere in grado di strutturare il suo rapporto con il reale. Ma le precompetenze, come indica il nome stesso, non sono ancora vere e proprie competenze. Per farle diventare tali è necessario attivarle, sollecitarle, richiamarle.
Bisogna intanto dire subito che le precompetenze, se non opportunamente mobilitate, hanno la connaturata tendenza a spegnersi. Jacques Mehler (Connaître par désapprentissage e À propos du développement cognitif, in L’unité de l’homme. Invariants biologiques et universaux culturels, éd. E. Morin, M. Piattelli-Palmarini, 1974) ha ricordato il fenomeno della progressiva perdita, nella prima fase di sviluppo del neonato, di un numero notevole di capacità innate. In specie di quelle che non sono state mai, o solo di rado, chiamate in causa. Fenomeno molto noto ai neurobiologi, in quanto esso ha il suo corrispettivo a livello di rete neuronale. Sembrerebbe che per il nostro cervello sia necessario, a un certo punto, sacrificare i neuroni mai (o raramente) adoperati, e ciò a scopo di mettere a disposizione, per così dire, più spazio utile ai neuroni più frequentemente adoperati. Appare dunque chiaro che le esperienze senso-motorie che noi incoraggiamo (o scoraggiamo) nei bambini nei primi anni della loro vita non siano senza conseguenze. Esse possono, a seconda dei casi, favorire oppure inibire lo sviluppo intellettivo, promuovere o invece cancellare determinate competenze.
Non c’è dubbio che gli ultimi contributi sperimentali delle scienze cognitive, con la loro riabilitazione delle competenze innate del bambino, hanno cambiato alla radice l’immagine dell’infanzia. Sarebbe tuttavia un errore ritenere che la nuova immagine abbia sostituito in toto la vecchia immagine. Lo riconosce J. Gavin Bremner, un noto esponente della psicologia cognitiva: «In contrasto con l’idea piagetiana del bambino come inizialmente sprovvisto di una consapevolezza del mondo, è emersa l’immagine del bambino competente, del neonato munito di oggettiva consapevolezza del suo intorno […] Nonostante questa rivoluzione nella nostra immagine dell’infanzia, essa ha i suoi propri problemi» (From perception to action, in The development of sensory, motor and cognitive capacities in early enfancy. From perception to cognition, ed. F. Simion, G. Butterworth, 1998, p. 240). E tra questi problemi, Bremner menziona, per es., il fatto che «quando misuriamo la consapevolezza infantile basandoci sull’azione diretta del bambino sul mondo, emergono molti modi tradizionali di stimare le abilità che confermano, più o meno, l’immagine piagetiana del bambino come graduale costruttore di un mondo obiettivo» (p. 240).
Il punto, a dire la verità, è molto stimolante perché avanza nientemeno l’ipotesi che si possa essere convinti assertori dell’idea del bambino competente – idea peraltro ormai confermata da un numero considerevole di studi sperimentali – senza che questo debba necessariamente comportare la rinuncia al noto assunto piagetiano del bambino come «graduale costruttore del mondo obiettivo».
Iperattività e irrequietezza
Nell’argomentazione fino qui svolta, è stata avanzata l’ipotesi che rendere accessibile il computer a bambini molto piccoli può avere effetti nocivi per il loro sviluppo intellettivo. Ne sarebbe prova il fatto che l’interazione computer-bambino verrebbe a sostituire, in misura considerevole, l’interazione ambiente-bambino, contribuendo in questo modo a offuscare (e addirittura a vanificare) la possibilità per il bambino di esperire un rapporto diretto con il mondo materiale. Si correrebbe così il rischio di una eventuale eliminazione di quelle competenze innate che, normalmente, vengono appunto attivate grazie al coinvolgimento senso-motorio del bambino.
Su questo punto, è stato fatto notare che i timori riguardo ai rischi di un tale sviluppo sarebbero esagerati, perché non terrebbero in dovuto conto il modo in cui l’interazione computer-bambino avviene nella pratica. È un fatto indiscutibile che un bambino di due anni non è assolutamente alla mercé di chi, in nome di un qualsivoglia disegno formativo, voglia imporgli un uso intensivo del computer. Il principale scudo protettivo di un bambino di quella età – soprattutto, come vedremo, di quella età – è la sua irrequietezza, la sua incapacità di stare fermo in un luogo e di fissare l’attenzione per molto tempo su un oggetto, un evento o un’immagine. La sua mancanza di concentrazione, la sua permanente distrazione, a differenza di ciò che accadrà più tardi, ossia a partire dai quattro anni, ha una valenza sostanzialmente positiva per lo sviluppo cognitivo. Fa parte di un comportamento volto all’esplorazione a vasto raggio del mondo circostante. La sua curiosità non è mai soddisfatta, ed è giusto che sia così. Egli è sempre altrove, sempre in partenza verso il prossimo stimolo.
Si incorrerebbe però in un errore credere che lo scudo protettivo funzioni in ogni circostanza. Ci sono prodotti multimediali – oggi sempre più diffusi – che riescono a scardinare il sistema difensivo e a catturare l’attenzione di bambini molto piccoli per mezz’ora o più. Penso, per es., ai cartoni animati resi accessibili dal computer o dal televisore a bambini talvolta di appena diciotto mesi d’età.
E non si può non tener conto che tali esperienze, pur saltuarie, costituiscono per lui una novità per certi versi stravolgente. Si tratta, in definitiva, delle prime esperienze in cui l’attenzione viene disciplinata a scapito della spontanea tendenza alla dispersione, alla disponibilità a inseguire liberamente le più svariate sollecitazioni dell’ambiente. In altre parole, per la prima volta, un forte filtro selettivo è attivato per un periodo di tempo relativamente lungo. Da quel momento in poi, il mondo del bambino si presenterà dimezzato: da un lato, esisterà il mondo del narrato multimediale che gli viene offerto, un narrato sul cui svolgimento egli deve per forza focalizzare la sua attenzione; dall’altro, vi sarà il mondo esterno a quello narrato, il mondo reale nel quale egli può esercitare senza vincoli le sue curiosità e intervenire con tutti i suoi sensi. Da una parte, un mondo in cui l’attenzione è ipoattiva; dall’altra, un mondo in cui l’attenzione è iperattiva.
Il contrasto tra questi due mondi non va preso alla leggera. Il processo d’interiorizzazione del narrato multimediale, e la ipoattività che ne risulta, comporta per il bambino uno straniarsi, un distanziarsi, un distogliersi dall’attività senso-motoria che, lo abbiamo visto, è fondamentale per il suo sviluppo. È appunto nella caduta dello scudo protettivo, ossia di ciò che era stato un importante fattore di mediazione tra le due realtà, che va ricercata la causa di molti degli effetti sociali più negativi dei media su bambini e adolescenti.
Memoria e attenzione
Se nel mondo della prima infanzia l’applicazione anche saltuaria al computer può causare le alterazioni nel rapporto con la conquista motorio-percettiva del mondo, un altro cruciale problema riguarda la memoria e l’attenzione. Il senso comune ci ha insegnato quanto difficile, se non impossibile, sia immaginare una conoscenza senza memoria, un atto conoscitivo che prescinda dal richiamo all’esperienza passata. Lo stesso senso comune ci ha reso consapevoli di quanto sia altrettanto difficile, se non impossibile, esaminare il rapporto tra memoria e conoscenza senza tener conto del ruolo fondamentale che, in questo caso, svolge l’attenzione. Infatti, si può affermare che, nel campo della neurobiologia e della neuropsicologia cognitiva, oggi gli studi sull’attenzione assumono un ruolo di primo piano nella ricerca. Va rilevato in proposito come in questi studi si riproponga, in un’ottica diversa, il tema dell’apprendimento tanto caro al comportamentismo tradizionale.
Raja Parasuraman nel libro da lui curato The attentive brain (1998) ci ha offerto una sintesi precisa ed efficace del coinvolgimento del cervello nei processi di attenzione, percezione e apprendimento, sottolineando che, quando il cervello presta attenzione, percepisce; quando presta attenzione e percepisce, anche impara. Ma questo è vero soltanto quando prestare attenzione significa prestare attenzione sostenuta. In breve: attenzione volontaria. Tuttavia occorre ammettere che acquisire questo genere di attenzione non è per niente semplice.
L’attenzione è, di regola, effimera, condizionata da una forte tendenza alla distrazione e alla dispersione. Ecco perché l’apprendimento richiede, di solito, un persistente sforzo per favorire la concentrazione, ossia per impedire (o neutralizzare) la connaturata tendenza alla distrazione. Imparare, soprattutto quando l’oggetto da imparare è di una certa complessità, presuppone un serrato controllo dell’attenzione. La domanda su quale impatto le nuove tecnologie abbiano sulla memoria e la conoscenza deve dunque partire necessariamente da una riflessione su come, e per quale motivo, queste tecnologie si configurano come un notevole fattore di depotenziamento dell’attenzione a livello individuale e collettivo.
Multitasking
Sempre più attuale è il fenomeno del multitasking, ossia la tendenza, soprattutto tra i giovani (ma non solo), a svolgere una molteplicità di funzioni e di compiti contemporaneamente: guardare la televisione, ascoltare musica con l’iPod, inviare o ricevere e-mail, navigare in Internet, usare il telefono cellulare, videogiocare. È la cultura dell’always on (sempre connesso) e del make it quick (fare presto) oggi dominante in particolare come risultato dell’uso dei mezzi informatici e dei media elettronici. Va detto però che il multitasking, se praticato entro i limiti della ragionevolezza, non può essere oggetto di una indifferenziata condanna. Questo, infatti, significherebbe ignorare l’importanza della curiosità esplorativa e, quindi, della mobilità e della flessibilità nei processi cognitivi a livello neurobiologico.
D’altra parte, il fatto che vi siano persone propense a fare molte cose diverse allo stesso tempo non è un comportamento esclusivo della nostra epoca. Esso si è verificato anche nel passato. Si ricordi che, già nell’antichità, secondo un famoso aneddoto (vero o apocrifo) Giulio Cesare era capace di dettare quattro lettere mentre ne scriveva una quinta.
Al giorno d’oggi, però, il fenomeno si manifesta in modo diverso. Mentre prima risultava sostanzialmente innocuo, ora esso è sospettato di essere il fattore scatenante di gravi patologie nell’ambito dell’attenzione. Il riferimento, in concreto, è al Disturbo da deficit di attenzione (ADD) e al Disturbo da deficit di attenzione e iperattività (ADHD), patologie che in qualche caso estremo possono condurre a una vera e propria atrofizzazione della capacità attentiva. Il neuropsichiatra Richard M. Restak osserva: «Diversificare l’attenzione non è certo una novità. Ma in passato le persone che erano impegnate in quello che oggi viene chiamato multitasking mantenevano, in generale, un forte senso di unità, in quanto restavano saldamente ancorate alla realtà di quello che stavano facendo. Oggi, questo senso di unità è stato sostituito da una tendenza alla distrazione, da una difficoltà abnorme a concentrarsi, a mantenere l’attenzione su ciò che si sta facendo» (The new brain. How the modern age is rewiring your mind, 2004, p. 41). Il fenomeno, che negli Stati Uniti ha già assunto dimensioni a dir poco inquietanti, comincia a farsi sentire anche in Europa dove sta diventando motivo di crescente (e più che giustificata) preoccupazione da parte di psicologi, pediatri ed educatori.
Ciò nonostante, alcuni studiosi non condividono l’opinione, ampiamente recepita dai media, che il diffondersi delle patologie dell’attenzione tra i bambini e gli adolescenti (e di recente anche tra gli adulti) sia da attribuire, in prevalenza, al multitasking, in quanto a loro parere molti degli esempi che si forniscono di multitasking non sarebbero convincenti. Semplicemente per il fatto che alcune delle attività ipotizzate non hanno niente di eccezionale, e possono essere eseguite nello stesso momento senza particolare difficoltà. Per es., guardare la televisione, ascoltare musica con l’iPod e parlare con il telefono cellulare. La nocività del multitasking però non va tanto ricercata nel fatto che simultaneamente si presta attenzione a messaggi provenienti da canali diversi – visivi, auditivi e tattili – quanto piuttosto nella natura intermittente dell’esperienza, nella sua ricorsività, nel suo ripetersi frequentemente, così come nel suo incessante passaggio da un compito a un altro.
Appare ora evidente che i disordini (o disturbi) dell’attenzione, e la loro tendenza a diventare cronici, sono dovuti in gran parte alla straordinaria diffusione dell’uso dei mezzi informatici (e in un senso più generale dei media elettronici) nella nostra società. Non è infatti azzardato pensare che questa sia una delle cause del fenomeno. È ormai appurato che l’uso di questi strumenti condiziona fortemente il nostro stile di vita, dando origine a ciò che abbiamo chiamato prima la cultura del ‘sempre connesso’ e del ‘fare presto’.
Videogiochi
Da sempre fonte di piacere per gli esseri umani, il gioco illusorio sta in questi tempi assumendo caratteristiche più problematiche che riguardano anche gravi fenomeni di assuefazione constatati in bambini e adolescenti. Nella letteratura sull’argomento, la stragrande maggioranza degli autori è orientata a identificare nel videogioco, se non l’unico, almeno il fattore più direttamente responsabile di questi fenomeni. Sennonché, il bersaglio delle critiche riguarda solo alcuni tipi di videogioco. In specie, quelli caratterizzati dalla particolare dinamicità del soggetto narrato e dall’intenso coinvolgimento emotivo dell’utente. Videogiochi, di solito, con forti ingredienti di azione, di competitività e di violenza (per es., quelli noti come Beat’em up, Shoot’em up e First person shooter). Il fatto che la critica si sia concentrata su questo tipo di videogiochi, e non su altri, è pienamente giustificato. Non si può ormai negare (o relativizzare) la devastante influenza che essi esercitano su coloro che, nella nostra società, si trovano ancora nelle prime o seconde fasi dello sviluppo cognitivo.
Ma perché questi videogiochi sono tanto pericolosi? Benché essi siano di sicuro pericolosi per le cose che raccontano, lo sono ancora più per il modo in cui le raccontano. Questo fatto si spiega con la particolare natura del loro impianto dinamico-interattivo, un impianto in cui la velocità del rapporto domanda-risposta costituisce l’aspetto saliente. Essi sono videogiochi d’azione e, proprio in quanto tali, si situano agli antipodi dei videogiochi cosiddetti passivi. Un esempio di videogioco passivo è quello dedicato al gioco degli scacchi. In quest’ultimo, miglior giocatore risulta essere colui che è in grado di prevedere il maggior numero di mosse probabili, tanto le proprie, quanto quelle del suo avversario. Perché questo si verifichi è necessario, in pratica, soffermarsi a lungo prima di spostare un pezzo sulla scacchiera.
Nei videogiochi d’azione, il miglior giocatore è colui che è in grado di reagire in modo fulmineo a una richiesta di azione e il peggiore quello che non è in grado di farlo. Nel First person shooter, il primo viene ricompensato con la sopravvivenza, il secondo penalizzato con la morte. La differenza tra questi due generi di videogioco è chiara: nel First person shooter si privilegia una subitanea reazione riflessa di fronte a uno stimolo, nel gioco degli scacchi si favorisce invece il ragionamento strategico.
Nondimeno, quando il videogioco d’azione, come in molti casi accade, diviene oggetto di frequentazione ossessiva – vale a dire di assuefazione – dà origine a una serie di gravi patologie che interessano la sfera cognitiva e comportamentale. Tra queste, per citare soltanto quelle più diffuse, vanno annoverati i disturbi di ansia generalizzata, di incapacità di attenzione e concentrazione, di apatia conoscitiva, di sociofobia, di irritabilità e aggressività.
Bibliografia
T. Maldonado, Reale e virtuale, Milano 1992.
T. Maldonado, Critica della ragione informatica, Milano 1997.
The digital phoenix. How computers are changing philosophy, ed. T.W. Bynum, J.H. Moor, Oxford-Malden (Mass.) 1998 (trad. it. Milano 2000).
R. Whitaker, The end of privacy. How total surveillance is becoming a reality, New York 1999.
P. Norris, Digital divide, civic engagement, information poverty, and the internet worldwide, Cambridge-New York 2001.
M. Warschauer, Reconceptualizing the digital divide, «First Monday», 2002, 7, www.firstmonday.org/issues/issue7_7/ warschauer/ (31 ott. 2008).
Cyberphilosophy. The intersection of computing and philosophy, ed. J.H. Moor, T.W. Bynum, Oxford-Malden (Mass.) 2002.
J.M. Fuster, Cortex and mind. Unifying cognition, Oxford-New York 2003.
M. Warschauer, Technology and social inclusion. Rethinking the digital divide, Cambridge (Mass.) 2003.
J.-P. Changeux, L’homme de verité, Paris 2004.
D.J. Solove, The digital person. Technology and privacy in the information age, New York 2004.
T. Maldonado, Memoria e conoscenza, Milano 2005.
H. Fischer, Digital shock. Confronting the new reality, Montreal-Ithaca 2006.
J. Goldsmith, T. Wu, Who controls the Internet? Illusions of a borderless world, New York 2006.
L. Sartori, Il divario digitale. Internet e le nuove disuguaglianze sociali, Bologna 2006.
K. McLeod, Freedom of expression®. Resistance and repression in the age of intellectual property, Minneapolis 2007.
N.G. Carr, The big switch. Rewiring the world, from Edison to Google, New York 2008.