INTELLIGENZA ARTIFICIALE.
– Gli esordi e i primi risultati. L’agente intelligente e i bot. Il web e l’evoluzione dei sistemi esperti. I grandi dati e l’apprendimento automatico. Le prospettive. Bibliografia
L’intelligenza artificiale (IA) è la capacità di un computer o di un robot di eseguire compiti tradizionalmente eseguiti da esseri intelligenti. Realizzare l’IA significa quindi sviluppare sistemi dotati delle funzioni tipiche dei processi intellettivi umani, quali percepire, associare un significato e ragionare su ciò che si percepisce, decidere, compiere azioni, comunicare o apprendere dall’esperienza.
Gli esordi e i primi risultati. – Introdotta negli anni Quaranta del secolo scorso da Alan M. Turing, ancorché con il nome di intelligenza delle macchine, l’IA nacque ufficialmente nel 1956 nel famoso seminario di Dartmouth organizzato da John McCarthy e da alcuni altri pionieri. Nella seconda metà del secolo scorso la ricerca in IA ha studiato tutti gli aspetti dell’intelligenza umana su cui si potevano costruire sistemi computazionalmente plausibili.
Da essa sono nati campi di ricerca che hanno introdotto metodi nuovi per studiare aspetti diversi, come la visione, la percezione, il linguaggio, l’apprendimento, il controllo del movimento, la rappresentazione della conoscenza. Al contempo, l’IA ha guardato agli sviluppi della ricerca in campi quali la neurofisiologia del cervello, nella costante ricerca di modelli che siano biologicamente ispirati o che permettano di riprodurre i comportamenti umani.
Verso la fine del secolo scorso l’IA ha iniziato a ottenere i primi grandi risultati. Nel 1997 è comparsa nella prima pagina dei maggiori quotidiani la notizia che il sistema Deep blue della IBM (International Business Machines) aveva battuto Garri Kasparov, il campione mondiale di scacchi allora in carica. Il risultato fu molto discusso: IA o forza bruta? Cioè, Deep blue aveva giocato con un’intelligenza paragonabile a quella di un essere umano o aveva soltanto una grande capacità di memorizzazione e velocità di calcolo? Al di là delle controversie, è comunque indubbio che Deep blue ha imposto l’IA all’attenzione mondiale e ha dato nuovo entusiasmo alla ricerca.
L’agente intelligente e i bot. – L’IA entra nel nuovo millennio forte di molti risultati importanti, avendo esplorato una varietà di problemi, di metodi, e sperimentato una moltitudine di approcci, e dopo aver individuato l’architettura di agente intelligente. Questa è un’astrazione, un modello di sistema che agisce in un ambiente, che in questo ambiente percepisce e che – sulla base delle percezioni e del le conoscenze che ha sull’ambiente stesso – ragiona, costruisce piani d’azione, prende decisioni e agisce.
L’agente intelligente può essere o meno dotato di fisicità, quindi si ha un robot che agisce nel modo fisico o un agente software – o softbot – che, per es., agisce nel mondo virtuale del web. Sono i due aspetti di quella che si definisce robotica cognitiva, anche se spesso non si fa distinzione tra i due casi e si parla genericamente di bot.
Oltre all’introduzione dei bot, a determinare l’esplosione di risultati dell’IA negli ultimi anni hanno contribuito sia gli avanzamenti della ricerca sulla rappresentazione della conoscenza e sul ragionamento automatico, quindi sul ragionamento simbolico, sia la disponibilità di grandi quantità di dati, che permettono l’utilizzo di metodi statistici di apprendimento e decisione.
Nell’ambito della rappresentazione della conoscenza si sono definitivamente affermati i linguaggi e i sistemi inferenziali basati sulle logiche descrittive quale formalismo di rappresentazione simbolica e di inferenza su conoscenza strutturata; questo ha portato alla gestione di dati basata su ontologie e ha facilitato la comunicazione dell’agente intelligente con le risorse accessibili in Internet (web semantico).
Il web e l’evoluzione dei sistemi esperti. – Un’altra conseguenza dello sviluppo di Internet e del web è la possibilità di acquisire conoscenza dalla rete. Con la tecnologia degli anni Ottanta del secolo scorso i sistemi esperti fondavano le loro risposte su una base di conoscenza necessariamente limitata e faticosamente assemblata per ogni specifica applicazione da ‘ingegneri della conoscenza’. Ciò portava a una fragilità dell’intero sistema, tale da renderlo in pratica di utilizzo molto limitato (di qui la grande delusione che portò in quegli anni all’inverno dell’IA). Oggi un sistema esperto su un certo dominio può accedere praticamente a tutto lo scibile umano su quel dominio per formulare la sua risposta a un quesito. La base di conoscenza immessa nell’agente artificiale per descrivere un problema e da questo usata per trarre conclusioni e prendere decisioni non è più costruita per uno specifico scopo – cosa che costituisce un sostanziale collo di bottiglia –, ma è acquisita direttamente dall’agente artificiale con tecniche di apprendimento automatico.
Nell’ambito dei sistemi di domanda/risposta, un risultato molto importante è stato raggiunto nel 2011, quando il sistema Watson, anch’esso sviluppato da IBM, grazie all’evoluzione e al raffinamento delle tecniche di reperimento di informazione e generazione automatica di risposte, ha battuto in diretta televisiva i due campioni del quiz televisivo statunitense Jeopardy (il formato di Jeopardy è stato molto popolare in Italia nel periodo in cui fu ripreso dal telequiz Rischiatutto). La vittoria di Watson su campioni umani segna una pietra miliare non meno significativa di quella stabilita da Deep blue. La ricerca intorno a Watson è molto attiva: una versione specializzata per diagnosi medica, sviluppata per piattaforme più portabili e con interfacce in lingue diverse dall’inglese, è attualmente oggetto di sviluppo, mentre si sperimentano versioni di Watson per inventare ricette di cucina e per altre applicazioni.
I grandi dati e l’apprendimento automatico. – Si è già menzionato l’impatto che ha avuto sull’IA la disponibilità di grandi quantità di dati e il conseguente avvento di nuovi metodi e tecniche: conclusioni che vengono tratte non solo attraverso inferenze deduttive su rappresentazioni simboliche, ma anche mediante apprendimento statistico. L’adozione di rappresentazioni probabilistiche e di metodi di apprendimento statistici ha portato a un’integrazione e a una fertilizzazione incrociata dell’IA e dell’apprendimento automatico con la statistica, la teoria del controllo, le neuroscienze e altri campi ancora. All’impatto delle tecniche di apprendimento statistico si possono quindi attribuire gli avanzamenti nel trattamento di grandi quantità di dati (strutturati e soprattutto non strutturati), particolarmente quelli resi disponibili dall’accesso al web (big data e machine learning), nel riconoscimento di oggetti, persone e luoghi (vision) e nelle metodologie per comprendere e tradurre il linguaggio umano (natural language understanding). Gli impatti nei tre ambiti appena menzionati si sono visti con l’immissione sul mercato di (a) sistemi che sfruttano l’elaborazione di immagini e altri dati sensoriali per classificazione, riconoscimento, monitoraggio; (b) veicoli (aerei o terrestri) a guida autonoma; (c) robot agili, mobili e che possono giocare il calcio, intervenire in ambienti ostili all’uomo, oppure manipolare oggetti con estrema destrezza; (d) sistemi che traducono testi scritti o parlati in simultanea; (e) sistemi con interfacce basate sulla comprensione del parlato; ( f) sistemi capaci di gestire domande/risposte in domini aperti e di grande interesse pratico.
La disponibilità di grandi quantità di dati sul web rende anche possibile l’analisi di comportamenti o preferenze di utenti, portando alla realizzazione di sistemi che prevedono e prevengono richieste. Sono anche possibili analisi di aspetti legati a sentimenti o in generale emozioni nel linguaggio e l’adozione di metodi predittivi per quanto concerne il comportamento futuro di agenti umani (e non). Questo ha portato all’immissione sul mercato di sistemi che sono dei veri e propri assistenti digitali, come Siri, Google now e Cortana, che, come nel caso di Siri (un software basato sul riconoscimento vocale), vengono pubblicizzati con lo slogan «Capisce cosa dici. E anche cosa vuoi dire».
Le prospettive. – La disponibilità di piattaforme robotiche mobili che possono muoversi nel mondo e che possono apprendere porta a vedere più vicina la realizzazione dell’intuizione di Turing secondo cui il robot che esce dalla fabbrica non è ancora educato o intelligente, ma la sua intelligenza, soprattutto quella collegata alla comprensione del linguaggio naturale, si accresce attraverso la sua interazione con il mondo reale. Il robot che apprende direttamente dall’osservazione del mondo, in un processo che può eventualmente richiedere la mediazione umana, è un tema di ricerca di grande attualità (apprendimento simbiotico), mentre sono in atto esperimenti di apprendimento diretto da parte di robot da testi o filmati disponibili sul web (un esempio è costituito dal robot che impara a cucinare da filmati di ricette di cucina su YouTube).
Per quanto riguarda gli sviluppi tecnologici nati al di fuori della ricerca in IA, ma che hanno influito molto sull’IA stessa, non si può dimenticare la sensoristica. Attualmente si fa riferimento alla sensoristica che permette un’IA pervasiva e capillare e che dà origine alle applicazioni smart, che integrano più funzioni (smartphone; smart TV e smart home, nell’ambito domestico; smartcity, negli ambienti urbani; smart grid nel campo energetico e delle telecomunicazioni).
Notoriamente i termini smart e intelligent sono vocaboli molto diversi e non sinonimi nella lingua inglese: smart porta con sé un’idea di furbizia o di astuzia, più che di intelligenza. Comunque, le applicazioni smart sono tali perché sono consapevoli (aware) di quello che vedono e percepiscono e questo le aiuta a monitorare, suggerire, prevenire, confortare e così via.
Il 21° sec. è iniziato quindi tra gli entusiasmi e le aspettative per quello che l’IA sta facendo e quello che potrà fare. Inevitabili sono tuttavia le preoccupazioni per l’impatto sull’occupazione (si perderanno posti di lavoro quando i robot si sostituiranno a noi, oppure i robot ci aiuteranno a colmare la mancanza di forza lavoro legata all’invecchiamento della popolazione?) e sui problemi etici e legali conseguenti all’utilizzo di macchine intelligenti e autonome, e per l’impatto sulla stessa sopravvivenza della specie umana. I ricercatori del campo stanno rispondendo alle apprensioni, esternate anche da autorevoli uomini di scienza con l’avvio, per es., di istituti e gruppi di studio che guidino l’agenda della ricerca per una IA che garantisca benefici all’umanità.
Bibliografia: S.J. Russell, P. Norvig, Artificial intelligence: a modern approach, Harlow 20033 (trad. it. Milano 20052, 20103); Research priorities for robust and beneficial artificial intelligence, 2015 (http://futureoflife.org/static/data/documents/re search_priorities.pdf).