intelligenza artificiale
intelligenza artificiale insieme di studi e tecniche, pertinenti all’informatica, ma prossime alle ricerche di logica matematica e con profonde implicazioni sia filosofiche sia sociali, che mirano alla realizzazione di macchine o programmi in grado di risolvere problemi e di riprodurre attività proprie dell’intelligenza umana o che comunque ne simulino il comportamento. È anche indicata con le sigle ia o ai (dall’inglese Artificial Intelligence). Il termine fu proposto per la prima volta nel 1956 dal matematico statunitense J. McCarthy, l’inventore del linguaggio di programmazione lisp, e da M.L. Minsky. La nascita del concetto di intelligenza artificiale si può però far risalire al 1950, anno in cui A.M. Turing propose, sulla rivista «Mind», una prova per verificare l’intelligenza di una macchina, il cosiddetto test di Turing. Esso consiste schematicamente in questo: se un essere umano pone una serie di domande a un altro soggetto non visibile e non è in grado di distinguere se le risposte che riceve provengano da un uomo oppure da una macchina, allora la macchina deve essere considerata intelligente tanto quanto un uomo. Tale criterio di Turing si basa esclusivamente sull’osservazione delle prestazioni e richiederebbe ulteriori precisazioni, poiché non esiste una definizione universalmente accettata di intelligenza. Anche per tale difficoltà di definizione di intelligenza, la ricerca sull’intelligenza artificiale si articola in due principali correnti.
La prima, detta intelligenza artificiale forte, ritiene che un computer correttamente programmato possa essere dotato di un’intelligenza non distinguibile da quella umana: la mente umana sarebbe dunque il prodotto di un insieme di calcoli eseguiti dal cervello e il ragionamento sarebbe riducibile a calcolo. La seconda, detta intelligenza artificiale debole, sostiene che un computer non sarà mai in grado di competere con la mente umana, ma potrà solo arrivare a simulare alcuni processi cognitivi umani particolari senza riuscire a riprodurli nella loro totale complessità.
Nell’elaborazione di tipo classico, ogni attività intelligente è svolta preventivamente ed esclusivamente dall’uomo, che inventa l’algoritmo per risolvere il problema che desidera affrontare e, tenendo conto delle caratteristiche funzionali e operative dell’elaboratore utilizzato, implementa il programma per ottenere l’elaborazione desiderata. L’analisi dei problemi, la progettazione degli algoritmi per la loro soluzione e l’implementazione dei programmi che li eseguano è, in effetti, il compito principale degli addetti ai lavori nel settore delle applicazioni dell’informatica.
L’intelligenza artificiale forte propone, nei confronti dell’elaboratore, un atteggiamento del tutto differente: l’obiettivo è quello di porre la macchina in grado di adeguarsi in modo flessibile al modo di comunicare e ragionare dell’uomo, attribuendo a essa parte dei compiti generalmente considerati di esclusiva competenza umana nell’attività di risoluzione di un problema per mezzo dell’elaboratore. In altri termini, si vuole mettere in grado l’elaboratore di essere non soltanto un esecutore di algoritmi forniti dall’uomo, ma di costruire esso stesso, in modo del tutto automatico, gli algoritmi necessari per risolvere problemi che l’utente può semplicemente definire, lasciando all’elaboratore la responsabilità della loro soluzione.
La differenza fra le due posizioni, eseguire algoritmi e risolvere problemi, consiste essenzialmente in questo: nel primo caso l’elaboratore deve solo eseguire calcoli su dati numerici senza conoscere il significato né delle informazioni sulle quali opera né degli algoritmi che esegue, mentre nel secondo deve conoscere i principi della disciplina in cui si inquadra il problema che gli viene sottoposto, comprendere il problema stesso e saper eseguire un ragionamento sulla base delle conoscenze di cui dispone al fine di costruire la soluzione. Deve quindi avere, oltre a regole di trasformazione, una propria base di conoscenza. In altri termini, i sistemi di intelligenza artificiale sono caratterizzati non soltanto dalla capacità di fornire prestazioni esterne che appaiono intelligenti, ma anche dalla capacità di gestire ed elaborare conoscenze mediante meccanismi ritenuti tipici dell’intelligenza umana (deduzioni, ragionamento analogico, generalizzazione, apprendimento ecc.). Secondo l’intelligenza artificiale classica le facoltà cognitive di un agente intelligente sono totalmente indipendenti dal mezzo materiale con cui esso è realizzato e derivano dalla manipolazione di simboli, così come avviene in una macchina formale automatica a stati discreti (per esempio la macchina di → Turing o l’elaboratore elettronico digitale). Il connessionismo sostiene invece che per riprodurre le facoltà cognitive di un essere umano sia necessario emulare le proprietà funzionali e fisiologiche del cervello e delle sue cellule, per esempio attraverso le → reti neurali artificiali. Riguardo alla possibilità di riprodurre facoltà cognitive superiori, per le quali un livello di elaborazione simbolica, come la competenza linguistica o il ragionamento deduttivo sono necessarie, il paradigma computazionale dell’intelligenza artificiale classica sembra non sostituibile. Tuttavia, le ricerche più recenti delle neuroscienze mostrano l’importanza delle modulazioni emotive, regolate dal sistema limbico, sulle stesse scelte razionali e quindi mentre lasciano ampio spazio alla costruzione di modelli di intelligenza artificiale differenziati, più orientati a particolari problemi (si pensi alla traduzione automatica da una lingua naturale a un’altra, oppure al riconoscimento digitale di una scrittura manuale, il cosiddetto ocr: → pattern recognition), eludono il problema della simulazione di una intelligenza generale. Tra un computer e un uomo, le differenze che emergono sembrano infatti riguardare proprio i terreni delle emozioni, della socialità, della corporeità, delle intenzioni primarie di sopravvivenza, e l’isolamento dell’aspetto del calcolo razionale appare un errore metodologico. Paradossalmente, proprio il fatto che facilmente anche un uomo matematicamente colto commetta talvolta banali errori di calcolo (inammissibili per un elaboratore elettronico) mostra che la sua mente non aderisce al modello del “cervello elettronico”, e di questo fatto già si stupiva H. Poincaré.
Secondo il matematico austriaco Hans Moravec (1948), uno dei pionieri della ricerca in robotica, e secondo numerosi altri ricercatori, una macchina isolata dal mondo oppure solamente collegata attraverso una rete ad altri computer non potrebbe sviluppare una capacità di pensiero classificabile come intelligenza. Nell’uomo, negli animali e in altre forme di vita lo sviluppo e l’applicazione dell’intelligenza derivano da esigenze e stimoli corporei. L’intelligenza artificiale potrebbe quindi essere raggiunta solo da robot (non necessariamente di forma umanoide) in grado di muoversi e interagire con l’ambiente che li circonda grazie a sensori e a bracci manipolatori. Si comprende dunque perché la ricerca si sia sviluppata in alcuni settori della robotica, quali il riconoscimento e la sintesi della voce umana, il riconoscimento e la classificazione delle forme attraverso l’elaborazione di informazioni raccolte da sensori visivi, l’esecuzione di attività manuali ripetitive e la progettazione e la costruzione di programmi per elaboratori elettronici. Particolarmente significativi sono poi gli esempi di applicazione dell’intelligenza artificiale per la dimostrazione automatica di teoremi, che ha l’obiettivo di provare automaticamente la verità di asserzioni formali mediante elaborazioni simboliche di tipo deduttivo e inferenziale, e l’elaborazione del linguaggio naturale, che si pone l’obiettivo di costruire sistemi in grado di comunicare con l’uomo mediante il linguaggio naturale in forma scritta.