Macchina
Il termine macchina indica qualsiasi dispositivo o apparecchio costruito collegando opportunamente due o più elementi, in modo che il moto relativo di questi trasmetta o anche amplifichi la forza (umana, di natura o prodotta da motori di vario tipo), così da compiere azioni predeterminate con risparmio di fatica o di tempo. Rispetto ai semplici strumenti, la macchina rappresenta uno sviluppo in quanto sistema complesso che consente un impiego più razionale della forza e realizza, nell'ambito delle attività umane, procedimenti caratterizzati da uniformità, regolarità, ciclicità, i quali riproducono, su scala diversa, modelli costituiti da capacità umane o da eventi naturali. In senso figurato, il termine è usato per indicare un complesso di più parti o più azioni, interdipendenti tra loro in un rapporto di forze e miranti al raggiungimento di un dato scopo: in questa accezione si parla del corpo come 'macchina umana', o si dice che il cuore è una 'macchina perfetta'.
L'Homo faber cominciò nella preistoria a costruire utensili di varia durezza, rigidità, flessibilità, dimensione ecc., atti a modificare l'ambiente, a muoversi in esso, a produrre manufatti efficaci ben oltre le possibilità consentite dalla costituzione del proprio corpo. È ben nota la storia dell'evoluzione dagli strumenti paleolitici (amigdale, raschietti, coltelli) a leve, ruote, barche, vele, trapani, martelli, coclee; dall'uso di legno e pietra alla metallurgia di piombo, rame, bronzo, ferro; dallo sfruttamento di fermenti e lieviti e dalla tintura alle tecniche chimiche e alle biotecnologie. Già dall'antichità protesi di parti del corpo umano furono costruite con materiali organici e inorganici. Nel Medioevo si presentarono innovazioni notevoli come l'arcolaio, che ridusse enormemente i costi di filati e tessuti, rendendo disponibili grandi quantità di stracci, utilizzati poi per la produzione di carta a buon mercato, prerequisito al successo e alla diffusione della stampa. R. Bacone prefigurò in intuizioni notevoli macchine capaci di esercitare la forza di centinaia di cavalli, di muoversi ad alta velocità e di volare. Sono ben conosciute le macchine innovative e avveniristiche disegnate da Leonardo da Vinci. Nei secoli successivi i progressi furono lenti ma continui, con noti perfezionamenti delle armi da guerra. Una serie di innovazioni tecnologiche favorì e accompagnò, nel 19° secolo, la rivoluzione industriale, come, per es., l'avvento del motore a vapore e i progressi delle macchine utensili e della chimica; nello stesso periodo, i telai programmati di J.-M. Jacquard e il computer meccanico decimale a programma di Ch. Babbage prefiguravano gli esiti futuri sia dell'automazione sia dell'informatica. Le estensioni e le amplificazioni delle funzioni del corpo umano si possono, dunque, classificare in tre settori: hardware (attrezzi, strumenti, utensili o componenti fisiche di supporto); software (procedure, ricette, registrazioni dei metodi divisati da esperti per risolvere problemi di ogni tipo, codici, portolani, formule, programmi per computer e loro applicazioni); wetware (espressione inglese che denota facoltà umane mirate a fornire funzioni di hardware e di software con partecipazione del cervello e che viene usata, per estensione, a indicare protesi e metodi per reintegrare funzioni od organi umani menomati oppure per allontanare minacce di malattie endogene o esogene). I tre settori indicati sono oggetto di varie discipline tecnologiche, informatiche, biologiche, e sarebbe arduo trattarli in questa sede sia pure in modo approssimativo e generale. Ci limiteremo dunque a un'esposizione quasi solo enumerativa. Tuttavia per ciascuno dei tre settori tenteremo di illustrare i traguardi futuri che, secondo gli esperti, potranno essere raggiunti a breve o a medio termine.
Il termine inglese, che traduce "ferramenta", è passato a significare ogni oggetto tangibile che viene usato come strumento. Sono hardware gli attrezzi tradizionali: per es., martello, giravite, trapano a mano, pialla, sega, lima, raspa, succhiello ecc. Nel loro impiego la qualità dello strumento è proverbialmente inscindibile dall'abilità dell'artigiano. Ottenere risultati sempre identici e intercambiabili è lo scopo della standardizzazione, iniziata su larga scala nella produzione di fucili e proiettili nella guerra di secessione americana (1861-65). Tale obiettivo venne raggiunto grazie alla realizzazione di macchine sempre più automatizzate. Infatti anche torni, trapani e frese forniscono pezzi di alta qualità solo se gli operatori governano velocità, angoli di taglio, stato dell'utensile in modo appropriato. Già prima dell'informatica si realizzò il tornio-copia che seguiva il profilo di un campione e ne produceva repliche identiche. Attualmente molte macchine sono a controllo numerico, governate da un computer in cui viene immesso il progetto dei pezzi da realizzare. Notoriamente anche i lavori di assemblaggio, eseguiti dai primi anni del Novecento a cura di operatori umani alle catene di montaggio, vengono oggi largamente effettuati da robot. Tali apparati automatici, riprogrammabili a seconda della produzione richiesta, effettuano anche operazioni di verniciatura, finitura, selezione e controllo.
L'obiettivo finale è la realizzazione di stabilimenti di produzione interamente automatici (automatic factories): da ricezione e controllo di accettazione delle materie prime e dei componenti fino a lavorazione dei pezzi, montaggio, finitura, collaudo, imballaggio e spedizione. Gli operatori umani avranno, allora, solamente compiti di programmazione, manutenzione, monitoraggio e controllo. Nei paesi più avanzati, nei quali questo processo è in corso, la percentuale della forza lavoro attiva in agricoltura e nella produzione industriale sta già diminuendo da decenni. Si stima che potrà scendere a solo il 10% del totale. Allora, il 90% della forza lavoro opererà nei servizi (sempre più personalizzati) e nel terziario (ossia, per es., in elaborazione di conoscenza, comunicazione, progettazione, studi, analisi, insegnamento, addestramento, intrattenimento, arti ecc.). Il successo, oppure l'insuccesso, di una società largamente automatizzata dipenderà, allora, dalla qualità e dai livelli di impatto delle attività terziarie. Gli ulteriori sviluppi del settore hardware non saranno limitati alle innovazioni di processo, ma riguarderanno nuovi materiali, nuovi ritrovati e nuove tecnologie. Possiamo qui soltanto elencare le innovazioni più importanti: microelettronica (con applicazioni a computer sempre più veloci e adatti a ospitare software più avanzati); micromeccanica (con motori, sensori e attuatori adatti a impieghi sofisticati anche in protesi umane); telecomunicazioni; settore aerospaziale (con materiali atti a realizzare, per es., treni a levitazione magnetica, aeroshuttle per servizio civile, esplorazioni interplanetarie).
È il termine inglese coniato con l'avvento dell'informatica - in contrapposizione a hardware - per indicare i programmi di computer costituiti da formule codificate, istruzioni, sistemi interpretativi e compilativi, atti a far funzionare l'hardware per elaborare dati, risolvere problemi, produrre risultati. Le teorie fisiche, da secoli, costruiscono modelli del mondo sempre meno rozzi, seppure sempre approssimativi, che rappresentano i modi più efficaci in cui gli esseri umani conoscono il mondo naturale e lo capiscono. Però non tutti i problemi di modellazione del mondo naturale sono risolvibili, in quanto spesso mancano teorie adeguate a produrre previsioni in base ai dati disponibili. È tipico il caso delle previsioni meteorologiche che non è possibile ottenere con anticipo superiore a circa una settimana, malgrado siano disponibili dati numerosissimi rilevati a terra e da satellite. Perfino il famoso matematico J. von Neumann, il quale contribuì in maniera essenziale allo sviluppo dei primi computer, ritenne erroneamente che i grossi computer avrebbero permesso di fare previsioni accurate con mesi di anticipo.
Da secoli vari pensatori avevano concepito il sogno di meccanizzare i processi logici ed euristici. Aveva cominciato, nel 13° secolo, R. Lullo con la sua 'ars magna combinatoria', costruendo anelli concentrici su cui cercava di riportare i nomi di ogni possibile tipo di sostanza, di accidente, di predicato, per produrre ogni possibile proposizione. G.W. Leibniz aveva dato definizioni abbastanza vaghe di una 'caratteristica universale', che immaginava capace di sostenere la ricerca della verità. Infine, nel 1854, G. Boole aveva inventato e diffuso l'algebra della logica, la quale ammette per le variabili i soli valori 1 (vero) e 0 (falso) e permette di determinare se siano vere o false proposizioni logiche complesse costruite in funzione di altre elementari. Nel 1938, C.E. Shannon applicò l'algebra di Boole all'analisi e alla progettazione dei circuiti elettrici di commutazione, usati successivamente con successo nel progetto dei moderni elaboratori elettronici digitali.
Dagli anni Cinquanta è stata affrontata su basi concrete e più plausibili la sfida di realizzare sistemi di intelligenza artificiale, cioè di costruire e programmare macchine capaci non solo di svolgere calcoli ed elaborare simboli ad alta velocità, ma anche di produrre concatenazioni logiche a partire da dati osservati oppure dalla posizione di certi problemi fino a produrre soluzioni ragionate e forse anche intuite. L'obiettivo era, dunque, quello di produrre macchine capaci di pensare. Purtroppo è accaduto spesso che certi ricercatori abbiano sostenuto, ambiziosamente e senza fondamento, di aver conseguito successi straordinari (per es. con la realizzazione di Risolutori generali di programmi o di programmi capaci di effettuare traduzioni perfette da una lingua all'altra). Nel 1997, questo settore di ricerca attrasse l'attenzione anche del grande pubblico quando il computer Deep blue della IBM vinse in un torneo di scacchi G. Kasparov, campione del mondo. Dopo aver abbandonato, concedendo la vittoria al computer, Kasparov disse che quel computer aveva dato segni di intelligenza: "aveva capito che è ora di pensare". Ma non è del tutto chiaro cosa significhi davvero pensare. V. Somenzi scrisse che le ipotesi sono quattro: gli uomini pensano e i computer no; gli uomini pensano e anche i computer; i computer pensano e gli uomini no; non pensano né gli uni né gli altri. Nei primi anni Cinquanta A. Turing ha definito un suo test di intelligenza per le macchine: lo supererà il computer che dialoga (attraverso una telescrivente o un terminale) con un essere umano, facendogli credere di essere anche lui un uomo o una donna. Liza, un programma di J. Weizenbaum, ha fatto credere ad alcuni ragazzi di essere addirittura uno psicoterapeuta. Ancora nel 1960 sembrava impossibile che una macchina avrebbe mai potuto battere a scacchi il campione del mondo. Fino al 1990 lo stesso Kasparov sostenne che avrebbe trionfato sempre contro qualunque computer futuro. Nella scala di valutazione della Federazione degli scacchi statunitense, Kasparov sta a 2950, il massimo. I computer programmati per gli scacchi sono arrivati nel 1979 al livello di 'esperto' (2000) e a quello di 'gran maestro' (2500) nel 1990 con Deep thought, che analizzava un milione di posizioni al secondo. La macchina che ha battuto Kasparov analizza 200 milioni di posizioni al secondo e fra breve si arriverà a un miliardo. I criteri strategici di base furono suggeriti inizialmente da von Neumann, O. Morgenstern e Shannon, matematici famosi. Poi sono stati perfezionati da analisti e scacchisti. Il migliore scacchista fra i progettisti di Deep blue è al livello di 2200, inferiore a quello di semplice maestro. Il successo nel gioco può arridere, dunque, allo sforzo di una squadra organizzata, piuttosto che a quello di un singolo essere umano molto abile.
Le cose sono diverse se macchine e uomini competono per la risoluzione di problemi in cui non valgono regole formali definite, come nei progetti di grandi sistemi tecnologici, problemi sociali, culturali, politici. Dunque i successi nello sviluppo di sistemi di intelligenza artificiale non possono essere misurati in base a un solo criterio, né a pochi. La difficoltà vera nel valutare gli obiettivi raggiunti dalle ricerche sull'intelligenza artificiale sta nel fatto che lo stesso concetto di intelligenza è mal definito. La diffusione di una misura rozza, fuorviante e illusoria come il 'quoziente di intelligenza' (che valuta unicamente l'abilità a risolvere certi test numerici, verbali, logici o geometrici, peraltro non standard) ha contribuito pesantemente a confondere le idee e a generare polemiche volatili e poco significative. Chi esegue operazioni matematiche a mente o con carta e matita più velocemente è più intelligente di chi ottiene gli stessi risultati più lentamente? Non è detto: l'intelligenza è fatta anche di esperienza, di memoria, di sensibilità, di intuito per forme e situazioni, di abilità nel porre domande, risolvere problemi diversi, riconoscere configurazioni e analogie.
Appare ragionevole la posizione di L. Stringa (Capire l'artificiale 1990), secondo la quale l'intelligenza artificiale è una disciplina sperimentale che prova a far fornire, da macchine programmate, prestazioni che sono definite intelligenti quando fornite da esseri umani. Sembra irrilevante che queste stesse prestazioni vengano svalutate e classificate come non veramente intelligenti, dopo che sono stati svelati gli artifici mediante i quali le macchine li producono. Stringa ha anche fatto notare che, ai primordi del settore, la sfida sembrava consistere nel realizzare macchine capaci di eseguire le operazioni più sofisticate compiute dagli uomini: ragionamenti logici e matematici. Questi, invece, sono stati elaborati prontamente e in modo brillante dalle macchine; le difficoltà maggiori si incontrano, infatti, nel duplicare le capacità umane di dare giudizi e raggiungere conclusioni basate sul senso comune, cioè sull'esperienza di situazioni numerosissime sulle quali il giudizio è spesso difficilmente formalizzabile. Un'applicazione fruttuosa - intesa proprio a superare le difficoltà ora citate - e derivante dalle ricerche sull'intelligenza artificiale è costituita dai cosiddetti sistemi esperti. Si tratta di programmi di computer che includono basi dati in cui professionisti di grande esperienza hanno registrato le proprie conoscenze nel loro settore di competenza. I programmi sono organizzati in modo da consentire l'interrogazione da parte di operatori umani attivi negli stessi settori, ma aventi competenza minore di quella dei professionisti esperti consultati per la costruzione del programma. Tali sistemi esperti fungono, quindi, da consiglieri nello svolgimento di mansioni complesse, come la diagnostica medica, la manutenzione di grandi complessi industriali (raffinerie, centrali elettronucleari), la strutturistica chimica ecc.
È da ritenere che in avvenire continueranno i progressi nella produzione di software avanzato, anche con caratteristiche intelligenti utili per la soluzione di problemi nuovi. I sistemi esperti costituiscono un paradigma significativo: come altri ausili all'elaborazione di conoscenza, possono essere utilissimi a chi abbia già raggiunto un certo livello di competenza e, in particolare, sia capace di scegliere in modo oculato fra varie opzioni offerte dal software. Esiste, però, il rischio che persone poco colte immaginino di potersi formare una competenza istantanea nello svolgimento di compiti difficili. Si otterranno risultati deludenti e fuorvianti, se tali improvvisatori riusciranno a gabellarsi per veri esperti e a vendere proprie prestazioni e consulenze sul mercato del lavoro. La via futura al successo nel settore dell'intelligenza artificiale passa per numerosi traguardi, i quali devono essere raggiunti nell'aumentare e diffondere intelligenza e conoscenze acquisite dagli essere umani.
In meno di un secolo la mortalità in Italia si è dimezzata e la durata media della vita umana è cresciuta dell'80%. Nel 1911 su 35 milioni di italiani ne morirono 700.000 (cioè il 20‰); nel 1992 su 57 milioni ne morirono 540.000 (cioè il 9 ‰). Nel 1900 la durata media della vita era di 43 anni; nel 1996 era cresciuta a 77 anni. Nel 1926 morirono 60.000 persone per malattie mal definite (cioè senza diagnosi chiara); oggi la diagnosi manca solo in 12.000 casi l'anno. Le cause principali di tali marcati miglioramenti sono: l'uso di antibiotici che hanno largamente eliminato le malattie infettive; le migliorate condizioni igieniche ed economiche che hanno ridotto stress e disagi. Anche le protesi, intese in senso lato come estensioni meccaniche del corpo umano, hanno contribuito al generale miglioramento delle condizioni di vita. I difetti della vista sono stati compensati per secoli con gli occhiali, la cui invenzione risale all'inizio del 14° secolo. In epoca relativamente recente sono arrivate le lenti a contatto, anche bifocali. Divengono sempre più efficaci le operazioni su cornea e cristallino, che eliminano del tutto la necessità di protesi. Invece sono in corso esperimenti sempre più sofisticati e coronati da successo per far giungere al cervello segnali prodotti da trasduttori che ricevono impulsi luminosi dall'ambiente esterno: veri e propri occhi artificiali.
I difetti dell'udito, cui tradizionalmente si cercava di porre rimedio mediante cornetti acustici, possono ora essere eliminati, anche in caso di lesioni estreme dovute a trauma o a postumi di infezioni, mediante microprocessori che trasmettono i segnali di un microfono direttamente al sistema nervoso. Notoriamente certe affezioni cardiache sono neutralizzate mediante pacemaker che generano segnali atti a mantenere ritmi cardiaci regolari. Nei casi più gravi di occlusione delle coronarie, che potrebbero dar luogo a infarti letali del miocardio, si sostituiscono i vasi quasi totalmente occlusi con bypass in materie plastiche, ben tollerati anche da pazienti in età avanzata. Si profila in un orizzonte non lontano la possibilità di interventi non traumatici su esseri umani affetti da insufficienza coronarica, ottenuti mediante l'inserzione di DNA di caratteristiche appropriate attraverso Adenovirus, inoculati nelle cellule dei vasi, al fine di eliminare la produzione di colesterolo e di altre sostanze occludenti. Si prevede che in avvenire il ricorso a provvedimenti basati sull'ingegneria genetica (v.) sarà sempre più frequente.
Intanto già oggi vengono realizzate neuroprotesi che connettono il cervello con arti neurologicamente distaccati da esso attraverso microprocessore e trasduttori appropriati. Sono noti da anni arti artificiali (braccia, gambe, mani) che non si limitano a fornire funzioni passive di appoggio, ma sono mossi da motori elettrici alimentati a batteria e comandati dagli impulsi elettrici prodotti da muscoli non lesi in parti del corpo prossime a quelle asportate. In questi casi i pazienti sono addestrati ad azionare i muscoli responsabili delle funzioni intese a comandare le protesi. Dalle mani artificiali si riescono a ottenere anche movimenti di notevole precisione ed energia. In campo chirurgico, le microperazioni sostituiscono sempre più spesso le grandi laparatomie: lo shock operatorio si riduce enormemente e la convalescenza appare molto più rapida. Con queste tecniche si possono anche eseguire operazioni intrauterine per rimediare a difetti del feto prima della nascita. È noto, inoltre, che attualmente si eseguono con successo trapianti di numerosi organi, come, per es., cornea, cuore, fegato, midollo spinale ecc. Si tratta di elementi organici viventi, non di macchine, ma la citazione è d'obbligo poiché tali interventi equivalgono a, o superano negli effetti, quelli realizzati mediante strumenti inorganici. Siamo, invece, ancora lontani da interventi miranti a restituire funzioni cerebrali degradate mediante protesi, ancora non immaginabili date le scarse conoscenze riguardo ai meccanismi di elaborazione dei dati nel cervello.
M. Boden, Artificial intelligence and natural man, New York, Basic Books, 1977.
Capire l'artificiale, a cura di M. Negrotti, Torino, Bollati Boringhieri, 1990.
D.R. Hofstadter, Gödel, Escher, Bach, New York, Basic Books, 1979 (trad. it. Milano, Adelphi, 19885).
P. Rossi, I filosofi e le macchine, Milano, Feltrinelli, 1962.
V. Somenzi, La filosofia degli automi, Torino, Boringhieri, 1965.
J. Weizenbaum, Computer power and human reasoning, San Francisco, Freeman, 1976.
N. Wiener, Cybernetics, Cambridge (MA), MIT Press, 1965.
D. Wooldridge, Mechanical man. The physical basis of intelligent life, New York, McGraw-Hill, 1968.