intelligenza artificiale
Imitare la mente umana
L'intelligenza artificiale è una disciplina situata all'incrocio tra informatica e psicologia, nata nella seconda metà del 20° secolo. L'intelligenza artificiale studia se e in che modo si possano riprodurre al computer i processi mentali più complessi. Da un lato cerca quindi di andare un passo più in là dei normali computer per avvicinare il loro funzionamento alle capacità dell'intelligenza umana, dall'altro usa le simulazioni informatiche per fare ipotesi sui meccanismi utilizzati dalla nostra mente
Il nostro cervello somiglia a un calcolatore? Questa domanda è alla base degli studi sull'intelligenza artificiale. Anche se l'intelligenza artificiale utilizza l'informatica e i computer, il suo scopo non è semplicemente quello di costruire macchine più veloci e potenti. Piuttosto, usa questi strumenti per fare ipotesi su quello che avviene dentro al nostro cervello quando pensiamo, e per capire cosa sia effettivamente l'intelligenza.
I primi passi dell'intelligenza artificiale si possono far risalire al matematico inglese Alan Turing, che nella seconda metà degli anni Quaranta del secolo 20° propose un criterio per stabilire se una macchina poteva o meno essere definita 'intelligente'. Turing immaginava un test in cui un operatore umano era posto di fronte a due telescriventi, una comandata da una persona, l'altra da un computer programmato in modo da 'fingere', con le sue risposte, di essere un umano. L'operatore non sapeva quale delle due telescriventi fosse fatta funzionare da un uomo e se, dopo una serie di tentativi, non fosse riuscito a distinguere se la telescrivente fosse comandata dal computer o da una persona, allora si poteva definire il computer 'intelligente'.
Da quell'idea, pochi anni dopo, nacque un programma di ricerca volto a verificare la possibilità di creare una macchina capace di simulare il ragionamento umano.
La locuzione intelligenza artificiale fu coniata nel 1956 dallo statunitense John McCarthy, allora studente all'Università di Princeton, durante un seminario estivo che vide la presenza di un gruppo di giovani ricercatori che poi sarebbero diventati i pionieri di questo settore: Claude Shannon, Allen Newell, Herbert Simon, oltre allo stesso McCarthy.
Questi ricercatori si dedicarono intensivamente, dopo quell'incontro, a sviluppare programmi informatici in grado di affrontare compiti che andassero oltre il semplice calcolo numerico per avvicinare le funzioni della mente umana: apprendimento, comprensione del linguaggio naturale, riconoscimento di forme, pianificazione e decisione.
Il primo vero e proprio programma di intelligenza artificiale si chiamava Logic theorist e fu messo a punto nel 1956 da Allen Newell e Herbert Simon. Questo programma era in grado di dimostrare teoremi matematici a partire da assiomi, cioè assunzioni di partenza considerate sempre vere, e da regole per formulare teoremi. In altre parole, riusciva a eseguire un vero e proprio ragionamento formale.
Nel 1961 arrivò il programma General problem solver, che estendeva lo stesso approccio alla soluzione di ogni tipo di problema: dato un obiettivo, il programma cerca una serie di mosse valide per raggiungerlo. Ovviamente il sistema funzionava solo per problemi molto semplici e con poche variabili.
I programmi di ricerca in intelligenza artificiale ricevettero grande impulso, a partire dal 1963, dai finanziamenti della DARPA (Defense advanced research projects agency), l'agenzia di ricerca del ministero statunitense della Difesa, che era interessata alle possibili applicazioni strategiche di computer 'intelligenti'. In questo periodo, gli specialisti di intelligenza artificiale si dedicarono a programmi in grado di operare sì in modo intelligente, ma solo in un ambito molto ristretto, chiamato micromondo. Il più famoso programma di questo periodo si chiamava SHRDLU, ed era in grado di operare su un 'mondo' costituito solo da blocchi di legno appoggiati su un tavolo. Questo tipo di ricerche si rivelò molto importante per i successivi sviluppi dell'intelligenza artificiale, ma deluse le aspettative dei responsabili della Difesa, che speravano in applicazioni pratiche più immediate, e che, alla fine degli anni Settanta, sospesero i finanziamenti. Da allora le ricerche sull'intelligenza artificiale continuano soprattutto nelle università, dando origine a diverse applicazioni pratiche.
Una delle più importanti applicazioni delle ricerche sull'intelligenza artificiale sono i cosiddetti sistemi esperti, particolari programmi informatici che incorporano una grande quantità di conoscenza su un problema specifico, come per esempio la diagnosi di un particolare gruppo di malattie o la gestione degli investimenti finanziari, e sono in grado di aiutare gli esseri umani nelle decisioni più complesse, che comportano l'analisi di molte variabili. A differenza dei software classici, che hanno bisogno di ricevere in entrata tutte le variabili rilevanti per risolvere un problema e che sono deterministici ‒ ossia a parità di dati iniziali forniscono sempre il medesimo risultato ‒, questi sistemi possono dedurre, con procedimenti probabilistici, i dati mancanti e possono anche imparare dall'esperienza: la loro efficienza cioè migliora dopo ogni utilizzo. Anche in questo caso, quindi, si cerca di imitare il funzionamento della ragione umana. Un grande trionfo di questo tipo di applicazioni si è avuto nel 1997, quando un supercomputer, Deep Blue della IBM, ha battuto a scacchi il campione mondiale Garri Kasparov.
Un altro filone piuttosto noto degli studi di intelligenza artificiale è quello delle reti neurali, che rappresentano un approccio al calcolo completamente diverso rispetto a quello dei computer tradizionali. Le reti neurali sono chiamate in questo modo perché cercano, almeno idealmente, di simulare il funzionamento dei nostri neuroni, e non si basano su un programma e su una serie di istruzioni prestabilite come i computer. Sono costituite da 'nodi', unità che possono essere raggiunte da un segnale elettrico, connesse tra loro in vari modi, appunto come in una rete; alcuni nodi, quando sono raggiunti da un segnale, lo trasmettono a quelli a cui sono connessi; altri, al contrario, inibiscono l'attività dei loro vicini. Tutto ciò che 'sa' la rete neurale ‒ che in realtà è di solito simulata su un normale computer ‒ è che, dato un certo segnale in ingresso, deve restituire un preciso risultato in uscita. Al primo tentativo il segnale in uscita non sarà quello atteso e la rete riceverà un feedback, vale a dire una reazione, che provocherà cambiamenti nelle connessioni. Seguirà un nuovo risultato e un nuovo feedback, e così via fino ottenere il risultato voluto. Insomma, la rete, a differenza del computer, non ha istruzioni predefinite all'inizio, ma 'evolve' e 'impara'.
Le reti neurali sono state negli ultimi anni un importante strumento di indagine in psicologia, perché permettono di simulare i processi di apprendimento, ma hanno avuto anche applicazioni pratiche, per esempio nei programmi di riconoscimento vocale, che permettono di dettare un testo al computer e vederlo trascritto sullo schermo.
Costruire macchine che siano indistinguibili dagli esseri umani fino a simularne le emozioni. Il sogno di Alan Turing è stato ripreso molte volte dal cinema. Un buon esempio di questo obiettivo si vede nel film A.I. Intelligenza Artificiale (2001), di Steven Spielberg, basato su un progetto lasciato incompiuto dal grande regista Stanley Kubrick, che da questo tema era letteralmente ossessionato. In questo film si vede una società in cui gli esseri umani hanno costruito una classe di replicanti, chiamati mecca, che riproducono perfettamente le emozioni di esseri umani veri. Ma il tema, molto amato dalla fantascienza, è stato trattato anche in Blade Runner (1982), di Ridley Scott, basato su un racconto del celebre scrittore statunitense di fantascienza Philip K. Dick.