Informatica
Il termine 'informatica', entrato ormai nell'uso quotidiano della lingua italiana, è di origine francese, circostanza che spiega, forse, la sua scarsa diffusione nella comunità linguistica anglosassone. Coniato nel 1962 dall'ingegnere Philippe Dreyfus, per composizione dei vocaboli 'information' e 'automatique', tre anni dopo venne adottato ufficialmente dall'Académie Française per indicare la scienza del trattamento razionale, specie mediante macchine automatiche, dell'informazione, considerata come il supporto delle conoscenze umane.
Dopo l'invenzione della scrittura e la diffusione della stampa, il trattamento automatico delle informazioni appare oggi indiscutibilmente come la terza grande innovazione tecnologica destinata a introdurre trasformazioni radicali nel modo di produrre, manipolare e conservare le rappresentazioni simboliche del pensiero umano. In questo senso è legittimo il ricorso al pur abusato termine 'rivoluzione' per descrivere i mutamenti in corso in questi anni, benché sia poi necessario interrogarsi criticamente sulla portata e sugli effetti sociali di questa terza rivoluzione nel campo delle tecniche per trattare le informazioni (v. Rossi, 1985).In realtà, la rivoluzione informatica in senso proprio è stata preceduta di circa un secolo da un'altra straordinaria rivoluzione tecnologica, cioè l'invenzione dei mezzi per trasmettere i segnali e la voce umana a distanza: il telegrafo, il telefono e la radio. Queste tecniche hanno dato luogo, a partire dalla metà del XIX secolo, a quella che Ithiel de Sola Pool definisce la "rivoluzione nelle telecomunicazioni", che precede la rivoluzione informatica.
Si possono fare molte distinzioni, e anche proporre non poche sottili analogie, tra queste due rivoluzioni, ma nell'affrontare il tema che qui ci interessa tre considerazioni ci serviranno da guida per porre in luce le più significative specificità dell'informatica.
La prima è di natura tecnica: l'informazione per essere trattata automaticamente richiede l'impiego di macchine (anzi generalmente della stessa macchina) sia per la sua produzione che per la sua utilizzazione. Diversamente da quelle fissate su un supporto cartaceo mediante le tecniche della stampa, che necessitano di macchine per la scrittura, ma non per la lettura, le informazioni fissate su un supporto magnetico non sono trasparenti: per usarle occorrono macchine e linguaggi specializzati. Si tratta di una differenza ovvia, che tuttavia comporta conseguenze assai meno ovvie e ancora largamente inesplorate, per tutto ciò che attiene alle modalità d'uso, alle caratteristiche degli utilizzatori e alle istituzioni che si organizzano, e si organizzeranno in futuro, attorno all'informatica. Ancor meno ovvie e prevedibili sono le trasformazioni di medio e lungo periodo, qualitative e quantitative, che subiranno le conoscenze affidate oggi in misura crescente al trattamento automatizzato. Come dice I. de Sola Pool (v., 1985²): "Indeed machines may talk to each other".
La seconda considerazione riguarda il contesto sociale e culturale in cui l'informatica in senso stretto si sta diffondendo, caratterizzato dal peso via via crescente dell'informazione in senso ampio, con complessi effetti reciproci tra le diverse forme di informazione, i loro utilizzatori e le organizzazioni che le producono e le diffondono. Una prima rilevante conseguenza dell'avvento di una 'società dell'informazione' è già oggi osservabile nella forte espansione dei settori dell'economia che si occupano dei molteplici aspetti dell'informazione (v. Bell, 1968; v. Dizard, 1985²): questo processo sta radicalmente trasformando la struttura complessiva della forza lavoro nelle economie avanzate, ed è quindi destinato ad avere effetti ancora non pienamente valutabili, ma prevedibilmente assai rilevanti, sulla stratificazione sociale. Mutamenti di ancor più vasta portata sembrano poi prevedibili per ciò che riguarda la forma complessiva di una cultura prodotta in una società information rich o ad alta densità di informazioni, in cui si intrecciano grandi quantità di informazioni scritte, organizzate per il trattamento automatico e incorporate nei suoni e nelle immagini (v. Inose e Pierce, 1984).
La terza considerazione importante, infine, riguarda la logica del discorso più che il suo oggetto. L'informatica, infatti, si sta diffondendo in ogni settore con rapidità straordinaria e ciò comporta, per l'osservatore, il rischio di commettere grossolani errori di valutazione e di prospettiva. È un rischio insito in tutte le forme di 'storia del presente', ma che appare straordinariamente elevato in questo campo, come risulta evidente da una semplice lettura superficiale della ormai vastissima produzione sull'argomento, tant'è che gli autori più avvertiti si rifiutano ormai di fare previsioni o anche solo affermazioni non provvisorie. "I libri sull'informatica sono inevitabilmente provvisori", scrive senza mezzi termini Mario G. Losano (v., 1988). L'informatica, poi, investendo funzioni ritenute gelosa prerogativa dell'intelletto umano, suscita inevitabilmente nei commentatori, non meno che nel grande pubblico, forti reazioni emotive di segno opposto, anche se gli entusiasmi prevalgono forse sui timori. Come dice Herbert A. Simon (v., 1980, p. 431), "il computer e l'intelligenza artificiale [...] come il darwinismo e la rivoluzione copernicana nei secoli scorsi [...] rappresentano una sfida per un'etica basata sulla unicità dell'uomo rispetto al resto della natura". Grazie anche a un importante apparato di mercato connesso con questa tecnologia, e ai suoi più o meno consapevoli ideologi, si ha l'impressione che l'informatica sia mito prima ancora di essere storia (è già stato coniato il vocabolo 'informitica': v. Phelizon, 1980, cap. I).
Il presente articolo non intende concedere niente al mito, limitandosi alla realtà pura e semplice. Esso è suddiviso in due parti: nella prima sono illustrate alcune tappe chiave dello sviluppo tecnologico nel campo dell'informatica, allo scopo di far emergere i nessi principali tra gli aspetti più strettamente tecnici e le esigenze conoscitive ed economiche legate alle innovazioni che si sono via via succedute nel tempo; nella seconda l'evoluzione dell'informatica in senso stretto è messa in relazione con il complesso più ampio delle tecnologie e delle istituzioni che trattano i diversi aspetti dell'informazione nella società contemporanea, nonché con i molteplici effetti sociali - positivi e negativi - che la diffusione dell'informatica comporta.
Come spesso avviene nei processi di innovazione tecnologica, anche l'informatica è sorta dalla confluenza di diverse linee separate di sviluppo tecnico. Trascurando le componenti ausiliarie più recenti (quali ad esempio lo schermo video, le stampanti e le memorie di massa), l'elaboratore, nei suoi elementi fondamentali, nasce dalla combinazione di tre famiglie di macchine: le macchine aritmetiche - congegni capaci di effettuare meccanicamente le quattro operazioni -, i dispositivi atti a trasmettere una sequenza ragionata di comandi ad altre macchine e, infine, le macchine contabili o tabulatrici - congegni in grado di registrare e contare grandi quantità di dati.
La storia delle macchine aritmetiche risale alla prima metà del XVII secolo, benché non manchi chi abbia cercato antecedenti in strumenti assai più antichi, come l'abaco (v. Cole, 1970). L'abaco, però, va escluso da questa linea di sviluppo, in quanto è uno strumento che, pur permettendo di eseguire molto rapidamente anche calcoli complessi (v. Bernstein, 1964; tr. it., p. 37), opera solo in combinazione con formule mnemoniche e quindi, per così dire, in simbiosi con la mente; perciò, essendo l'uso dell'abaco strettamente legato all'azione umana, non sarebbe stato comunque possibile costruire, partendo da tale strumento, un congegno interamente meccanico. L'abaco appartiene quindi a una famiglia di strumenti che non ha contribuito neppure indirettamente allo sviluppo della moderna tecnologia informatica.
È noto che, se trascuriamo il congegno descritto nel 1617 dal matematico scozzese John Napier - o Neper, l'inventore dei logaritmi - per dimostrare la possibilità di effettuare moltiplicazioni e divisioni attraverso addizioni e sottrazioni, le prime macchine in grado di effettuare meccanicamente calcoli aritmetici furono costruite nel 1623 da Wilhelm Schickhardt, un matematico astronomo di Heidelberg, nel 1642 - quasi certamente per via indipendente - da Blaise Pascal e nel 1673 da Gottfried Wilhelm Leibniz, che costruì una macchina dedicata alla semplificazione dei calcoli astronomici e in grado di effettuare tutte e quattro le operazioni aritmetiche (v. Moreau, 1981, p. 16).
Il funzionamento di queste macchine si basava su un congegno che ha avuto poi grande diffusione nelle più diverse applicazioni; esso era costituito da una serie di ruote dentate che potevano assumere, ruotando, dieci posizioni ciascuna ed erano collegate in modo che, a ogni giro completo di una ruota, quella adiacente scattasse di una posizione, realizzando il classico riporto dell'addizione. La macchina di Pascal, nota come pascaline, era inoltre in grado di effettuare conversioni tra i diversi valori monetari dell'epoca: l'idea di realizzare il congegno era infatti venuta al suo autore pensando a un modo per facilitare il lavoro del padre, incaricato di riorganizzare il sistema di imposizione fiscale in Bretagna (v. Moreau, 1981, p. 15).
Per riportare queste prime invenzioni all'esperienza contemporanea, possiamo dire che una versione 'passiva' (cioè dedicata solo alla registrazione di addizioni senza la possibilità di fare calcoli) del congegno base delle macchine aritmetiche si trova incorporata nei contachilometri meccanici in uso sui veicoli. Una versione 'attiva' è stata invece incorporata nella famiglia delle calcolatrici da tavolo, meccaniche prima ed elettromeccaniche poi (cioè mosse da una manovella, le prime, da un motore elettrico, le seconde) che hanno costituito il grosso delle macchine contabili fino a tempi recentissimi, allorquando sono state sostituite da analoghi strumenti basati sulla tecnologia elettronica.
Non interessa qui entrare nella disputa sulla priorità di queste invenzioni; è invece molto importante, ai fini della discussione che seguirà, sottolineare come fin dagli inizi l'esigenza di svolgere meccanicamente calcoli numerici provenisse da due diversi campi di attività: la ricerca scientifica, specie matematica e astronomica, da un lato, e, dall'altro, l'attività contabile, in particolare la crescente attività finanziaria dello Stato nel campo dell'imposizione fiscale. In entrambi i campi si dovevano svolgere operazioni matematiche ripetitive con la maggior esattezza possibile; le macchine aritmetiche si proponevano perciò di sostituire lavoro umano ripetitivo, riducendo la fatica, ma soprattutto la componente di errore delle operazioni manuali. Più che strumenti scientifici, i primi 'calcolatori' erano dunque macchine che, pur essendo basate su principî di funzionamento che incorporavano conoscenze matematiche, rispondevano soprattutto a esigenze pratiche. "È indegno - scriveva Leibniz nel 1671 - che uomini di valore debbano perdere ore nella schiavitù di calcoli che potrebbero essere eseguiti meccanicamente da chiunque altro" (v. Bernstein, 1964; tr. it., p. 34).
Le tre macchine seicentesche eseguivano automaticamente i singoli calcoli, ma l'impostazione delle operazioni e l'inserimento dei dati dovevano essere fatti manualmente; inoltre non era possibile 'programmare' l'esecuzione di una sequenza di calcoli successivi. Questa possibilità - che caratterizza in modo determinante le moderne macchine informatiche - deriva dallo sviluppo di un elemento messo a punto in un ambito del tutto diverso: quello del controllo automatico delle macchine industriali e più precisamente dei telai per la tessitura. Dopo un tentativo anticipatore di Basile Bouchon, databile all'inizio del XVIII secolo, fu Joseph M. Jacquard che nel 1805 mise a punto il famoso métier a tisser, che permette di variare la trama eseguita da un telaio secondo una sequenza di disegni complessi stabilita a priori: un 'programma', appunto.
L'elemento a cui veniva affidata questa operazione era una scheda di cartone con perforazioni predisposte in modo da permettere o impedire lo scatto di una serie di aghi metallici, collegati, a loro volta, con meccanismi del telaio che modificavano l'ordito della tessitura. Facendo passare una sequenza di schede si potevano ottenere tessuti con una grande varietà di disegni, alcuni dei quali portano ancora oggi il nome di Jacquard. Elementi analoghi sono alla base degli organetti di Barberia e delle pianole meccaniche, ora in via di estinzione, e, in forma più sofisticata, di una generazione di pianoforti azionati da rulli di carta perforata che attivavano pneumaticamente i tasti. Con le schede Jacquard un altro mondo, quello della produzione automatica di manufatti, si inserisce nella sequenza di sviluppo che porterà alla costruzione delle macchine informatiche contemporanee.Il passo successivo (costruire una macchina capace di eseguire calcoli di diversa natura secondo una sequenza di istruzioni programmabili e con l'inserimento automatico di diverse serie di dati) è stato compiuto da Charles Babbage nel 1835 con la sua famosa analytical engine. Questa macchina ha già tutte le caratteristiche e le componenti di un computer moderno: diversamente dalle macchine aritmetiche è capace di "eseguire qualsiasi cosa si sia in grado di ordinarle di eseguire" (v. Bernstein, 1964; tr. it., p. 53). L'analytical engine è dunque un calcolatore universale (v. Moreau, 1981, p. 18), capace di eseguire un programma di istruzioni attraverso meccanismi simili, almeno in un primo tempo, a quelli dei jacquemarts, che azionavano i percussori nelle orologerie automatiche. Babbage sostituì poi questi meccanismi con schede simili a quelle del métier a tisser di Jacquard.
Come scrisse la musa ispiratrice di Babbage, lady Ada Byron, "la macchina analitica intesse modelli algebrici come il telaio di Jacquard intesse fiori e foglie".
La macchina analitica era una macchina numerica o digitale: "realizzandola Babbage andava contro la corrente del suo secolo, un'epoca in cui, grazie ai progressi eccezionali della fisica, vennero messi a punto numerosi strumenti di calcolo detti analogici" (v. Moreau, 1981, p. 22), in particolare voltmetri e amperometri. Gli strumenti del primo tipo si basano su rappresentazioni numeriche, 'digitali' (dall'inglese digit, cifra). Questa rappresentazione si contrappone a quella analogica, che utilizza l'analogia tra diverse grandezze per esprimere quantità fisiche o matematiche. Il più noto degli strumenti di calcolo analogici è il regolo calcolatore, sviluppato sulla base dei Napier's bones o 'ossicini di Nepero'. In modo sintetico ma efficace potremmo dire, come suggerisce Jeremy Bernstein, che i calcolatori digitali contano, mentre quelli analogici misurano.
La terza linea di sviluppo che confluirà nella informatica moderna, e che darà una formidabile spinta alla sua diffusione commerciale, nasce dall'esigenza, che è alla base dei censimenti nazionali, di registrare grandi masse di dati e di contarli producendo tavole riassuntive relative a vari caratteri statistici. Le informazioni di questo tipo, su cui si fondano molte scienze sociali, a partire appunto dalla demografia, hanno una caratteristica importante ai fini dello sviluppo dell'informatica. Il loro valore conoscitivo è infatti strettamente dipendente dalla possibilità di estrarre dalla massa dei dati di base informazioni aggregate relative all'insieme delle osservazioni effettuate.
A tal fine i fogli di ogni censimento vanno contati e i diversi caratteri della popolazione devono essere contabilizzati o tabulati secondo opportuni criteri.Vediamo come si procedeva cent'anni or sono presso il Census Bureau americano, secondo il racconto di un testimone oculare. "Fino ad oggi nei censimenti e in compilazioni analoghe si sono dovuti necessariamente usare l'uno o l'altro di questi metodi. Con il primo metodo i documenti di base (i fogli di censimento) vengono conservati nella loro forma originaria e le informazioni vengono estratte via via, contando ogni gruppo di fatti separatamente. Con il secondo, i documenti vengono trascritti su schede o strisce di carta, che vengono poi ordinate e contate, prima secondo un certo gruppo di fatti e poi riordinate e computate secondo un altro gruppo.
Per avere un'idea dell'ordine di problemi connessi con il primo tipo di operazioni, facciamo l'ipotesi che i fogli di censimento relativi a ogni persona nel prossimo censimento [1890] possano essere tradotti in una serie di cifre su una striscia di carta. Le strisce risultanti, separate ciascuna da un centimetro, formerebbero un rotolo di carta lungo 500 miglia. Questa striscia deve essere riletta più e più volte, finché si sono ottenute tutte le combinazioni desiderate, ed è questo il metodo seguito in pratica nel X censimento [1880]. Il metodo delle schede è stato utilizzato per il censimento del Massachusetts del 1885 e i 2 milioni di schede pesavano 14 tonnellate. Se si usassero le stesse schede per il prossimo censimento degli Stati Uniti, ce ne vorrebbero per 450 tonnellate" (v. Martinotti, Calcolatori, 1979).
Nel successivo censimento del 1890 i 60 milioni di americani furono effettivamente contati con un metodo diverso. L'autore del brano appena citato è Herman Hollerith, un ingegnere bostoniano che riuscì a convincere il Census Bureau a usare un suo brevetto basato su un congegno in grado di semplificare notevolmente le procedure di contabilizzazione e tabulazione dei dati. Le caratteristiche di ogni individuo censito, invece di essere trascritte su strisce di carta, venivano 'codificate' e tradotte in simboli corrispondenti a 210 posizioni incolonnate su una scheda di cartone di 12 per 6 centimetri. Alle varie posizioni, disposte secondo un codice convenzionale, corrispondevano altrettante caratteristiche: per esempio alla prima posizione nella prima colonna corrispondeva la caratteristica 'maschio', alla seconda posizione la caratteristica 'femmina', ecc. Quando il foglio di censimento riportava, per un dato individuo, la presenza di una certa caratteristica, la scheda veniva perforata con un pantografo nella posizione corrispondente: ogni scheda portava quindi una serie di perforazioni relative alle caratteristiche dell'individuo censito. Successivamente i pacchetti di schede perforate venivano fatti scorrere velocemente su dei rulli e, in corrispondenza delle perforazioni, uno o più aghi stabilivano dei contatti elettrici con circuiti che, a loro volta, comandavano l'apertura e la chiusura di apposite fessure, facendo cadere le singole schede in determinati contenitori. Un contatore collegato a ogni contenitore permetteva, alla fine della procedura, di sapere quante delle schede trattate dalla macchina riportassero una determinata caratteristica. Combinando diversi cicli di smistamento e diversi criteri di selezione era così possibile costruire rapidamente, e con un ridotto tasso di errori, le tavole statistiche riassuntive dei dati del censimento.
La scheda Hollerith era del tutto simile alla scheda Jacquard, ma con una differenza importante: non conteneva istruzioni da trasmettere a una macchina manifatturiera, ma la semplice istruzione - in corrispondenza di un determinato foro - di apertura o chiusura di un percorso che la scheda stessa doveva compiere per poi essere contata. La scheda Hollerith conteneva un 'dato' che al tempo stesso era un''istruzione' per una macchina contabile, cioè una macchina che produceva non merci, ma informazioni sotto forma di numeri. Nella scheda Hollerith dato e istruzione coincidevano fisicamente, ed è questa una caratteristica importante della struttura dei calcolatori moderni. Inoltre l'insieme delle schede perforate, che potevano essere conservate e riutilizzate per un periodo abbastanza lungo, costituiva una rudimentale memoria.
Con l'invenzione delle macchine tabulatrici si completa il primo ciclo di sviluppo tecnologico delle macchine informatiche. Siamo alle soglie del XX secolo e sono ormai disponibili tutti i congegni che svolgono in modo automatico le funzioni chiave degli elaboratori: calcolare, contare, contabilizzare, controllare l'esecuzione di una sequenza di operazioni programmate e conservare dati e istruzioni. Tuttavia questi congegni sono ancora incorporati in macchine separate, utilizzate in ambiti diversi: il mondo della produzione manifatturiera, quello delle grandi organizzazioni e quello scientifico. L'unificazione di queste funzioni era ostacolata innanzitutto da ragioni tecniche: queste macchine, che potevano essere fatte funzionare solo da addetti altamente specializzati, si basavano su congegni meccanici o elettromeccanici che impiegavano parti mobili; ciò comportava una bassa velocità di esecuzione delle operazioni, gravi problemi di usura e imprecisione delle componenti, un elevato peso e un elevato ingombro delle installazioni nonché un alto consumo energetico. Tutti questi fattori comportavano, a loro volta, alti costi di realizzazione, gestione e manutenzione. Solo con l'avvento dell'elettronica si poterono compiere quei progressi - unificazione dei sistemi di elaborazione e aumento della velocità di esecuzione delle operazioni - che determinarono l'impetuosa diffusione dell'informatica nella nostra epoca. Ma non si può comprendere l'estensione e lo sviluppo dell'informatica nel mondo contemporaneo se si prescinde da un fattore determinante: il vasto mercato delle macchine per ufficio che si venne creando nel periodo tra l'invenzione di Hollerith, alla fine dell'Ottocento, e la costruzione dei primi calcolatori elettronici, a cavallo della seconda guerra mondiale. Lo stesso Hollerith sfruttò la sua invenzione nel settore privato, con diverse iniziative imprenditoriali che confluirono in una società denominata International Business Machines (IBM).
La diffusione delle macchine IBM dipese dalla loro capacità di soddisfare pressanti esigenze di razionalizzazione del lavoro non tanto nell'ambito specificamente produttivo quanto nel settore oggi comunemente chiamato 'terziario', già in forte espansione tra le due guerre. Entro la fine del 1935 l'IBM aveva 4.303 macchine tabulatrici, 4.106 macchine selezionatrici e 8.412 macchine perforatrici installate negli Stati Uniti, e noleggiava l'87,5% di tutte le macchine tabulatrici, l'86,1% delle selezionatrici e l'86,1% delle perforatrici (v. Rodgers, 1969; tr. it., p. 170). Già nel 1926 l'IBM aveva incassato 2,6 milioni di dollari con le schede perforate - di cui si era garantita il monopolio obbligando i propri utenti a comprare solo le sue schede - e questa cifra era salita a 4 milioni di dollari (corrispondenti a 3 miliardi di schede all'anno) nel 1936, quando l'IBM fu sottoposta a giudizio antitrust (ibid.). Sarà proprio grazie a sostanziosi finanziamenti dell'IBM, oltre che di altri enti privati e pubblici, che a cavallo della seconda guerra mondiale si realizzeranno i progressi tecnologici decisivi per la costruzione degli elaboratori elettronici.Non è possibile qui seguire nei particolari l'affascinante storia dei calcolatori dal dopoguerra a oggi.
Ci limiteremo pertanto a sottolineare alcuni aspetti che hanno contrassegnato questo sviluppo negli ultimi anni e che si possono compendiare in pochi parametri:
1) aumento crescente della potenza di calcolo e della capacità di memoria, nonché riduzione progressiva dei costi e dell'ingombro, per quel che riguarda l'hardware;
2) aumento altrettanto prodigioso della facilità di impiego, con progressiva despecializzazione della forza lavoro addetta, grazie ai progressi registrati sul versante del software, cioè dei linguaggi che governano i flussi di informazione nella macchina informatica e le comunicazioni tra utenti e macchine;
3) enorme ampliamento della gamma delle applicazioni, grazie alla sinergia dei progressi realizzati nei due settori indicati e al collegamento con le tecniche di trasmissione dei dati.
È diventato abituale indicare i progressi nelle tecniche costruttive parlando di 'generazioni' di elaboratori. Le macchine del periodo iniziale, che arriva fino al 1950, erano ancora assai più strumenti scientifici da laboratorio che dispositivi versatili e di impiego relativamente semplice. Grandi, costosi, difficili da usare, e spesso guasti, questi congegni sono stati paragonati ai dinosauri. Nel 1950, con la consegna dell'UNIVAC I all'ente federale di statistica degli Stati Uniti, il Census Bureau, ha inizio l'era degli elaboratori commerciali e si diffondono le macchine della 'prima generazione', destinata a durare dieci anni circa, dal 1950 al 1959. Il primo calcolatore commerciale venne dunque impiegato nelle operazioni statistico-attuariali dello Stato: un'applicazione molto simile a quella per cui era stata ideata la pascaline di trecento anni prima.
La successiva generazione è marcata dallo straordinario salto tecnologico permesso dai transistor, messi a punto nel 1947 da J. Bardeen, W. H. Brattain e W. B. Shockley, che ricevettero, per questa invenzione, il premio Nobel nel 1956. Con il transistor scompaiono le ingombranti e costose valvole termoioniche, consumatrici di energia ed emettitrici di calore, e le dimensioni delle strutture centrali degli elaboratori vengono notevolmente ridotte, mentre si realizzano incrementi rilevanti della velocità di elaborazione. Si sviluppano anche i linguaggi di programmazione, quei linguaggi artificiali tramite i quali si inseriscono dati e istruzioni nella macchina: tali linguaggi diventano sempre più versatili e facili da apprendere. L'elemento centrale della macchina è la CPU, o Central Processing Unit, che elabora i dati secondo una serie di istruzioni e contemporaneamente invia dati e istruzioni a tutte le altre parti del sistema.La terza generazione, dominata dai sistemi IBM della serie 360, si sviluppa a partire dalla metà degli anni sessanta sulla base della tecnica dei circuiti integrati, che consiste nel fissare i transistor su una piastrina di silicio di dimensioni estremamente ridotte (20 mm², circa un quarto di francobollo) detta chip, che contiene tutte le connessioni elettriche necessarie. Questa tecnologia riduce le dimensioni delle unità che trattano i dati, aumentandone nel contempo enormemente le prestazioni; essa subisce ulteriori e rapidi miglioramenti con una progressiva miniaturizzazione dei componenti del chip. Le successive tappe della miniaturizzazione, che consentono di integrare un numero sempre più alto di semiconduttori per chip, si chiamano, in linguaggio tecnico, SSI (Small Scale Integration) - da alcune decine di semiconduttori per chip -, MSI (Medium Scale Integration) - da centinaia di semiconduttori per chip -, LSI (Large Scale Integration) - da decine di migliaia di transistor per chip - e VLSI (Very Large Scale Integration); quest'ultima porta al microchip e alla quarta generazione.
La quinta generazione, di cui oggi si parla, non è tanto il risultato di ulteriori progressi tecnologici, che si stanno peraltro susseguendo a ritmo serrato nel campo degli elaboratori velocissimi e molto potenti, detti supercomputers, e nel campo dei calcolatori che lavorano in parallelo (v. Peled, 1987); essa è caratterizzata dallo sviluppo dei sistemi dell'intelligenza artificiale e dei sistemi esperti (v. Feigenbaum e McCorduck, 1983).Tutte le macchine di cui abbiamo parlato finora, e che sono oggi note con il termine generico di mainframes, hanno in comune una serie di importanti caratteristiche:
a) si tratta di grandi macchine che richiedono installazioni non diverse, per dimensioni e requisiti strutturali e funzionali, da quelle necessarie per le macchine industriali o i grandi strumenti di laboratorio;
b) sono macchine relativamente rumorose, soprattutto a causa dei sistemi di condizionamento d'aria, senza i quali non possono funzionare, e di alcune componenti come le stampanti;
c) richiedono ampi spazi per le strutture ausiliarie (perforatrici, lettori di schede e nastri, stampanti, nastroteche, magazzini, ecc.);
d) costano molto - alcuni miliardi di lire - e il loro esercizio comporta costi che si collocano tra le decine e le centinaia di milioni l'anno.
Ma così come l'elettronica ha dato alle macchine informatiche il primo grande impulso espansivo, la microelettronica ha permesso un'ulteriore radicale innovazione, che si merita a pieno titolo l'appellativo di 'rivoluzionaria': una rivoluzione dentro la rivoluzione (v. Forester, 1980 e 1985). L'oggetto che simboleggia questa sottorivoluzione è il micrordinatore da tavolo o personal computer, un oggetto che è entrato a far parte degli strumenti di uso comune in un numero crescente di abitazioni e che, per la sua versatilità e potenza, racchiusa in un ingombro ridottissimo, può essere considerato il figlio prodigio delle varie generazioni di elaboratori che si sono succedute dal 1950 a oggi. Le prestazioni tecniche, ancora in rapida evoluzione, nonché la vertiginosa diminuzione dei costi delle piccole macchine informatiche sono straordinarie. All'inizio della rivoluzione dei personal computers gli esperti del settore osservarono che, se l'industria delle automobili si fosse sviluppata con gli stessi ritmi di quella dei computer, una Rolls Royce sarebbe costata 2,75 dollari e avrebbe potuto viaggiare per tre milioni di miglia con un gallone di benzina. Oggi, senza incrementi di costo, i nuovi microprocessori offrono la possibilità - sempre in termini metaforici - di percorrere, con un gallone di benzina, trenta milioni di miglia alla velocità di 250 miglia all'ora. Ma questi pur sensazionali avanzamenti tecnici non costituiscono l'aspetto più rilevante di questa innovazione, che risiede invece, soprattutto, nelle conseguenze sociali, ancora in larga misura inesplorate, del suo uso. Con il personal computer la capacità di trattare informazioni automatizzate passa dalle grandi organizzazioni ai singoli individui.
È la sua capacità di diffusione che, più di ogni altro dei molti mirabolanti aspetti dell'informatica, la rende potenzialmente capace di causare trasformazioni sociali di grande portata e di ampio raggio. Non sorprende, quindi, che fin dalla loro comparsa le macchine informatiche abbiano stimolato speculazioni e anticipazioni di ogni genere. Oggigiorno l'informatica in senso lato è alla base di congegni che regolano sia una vasta gamma di oggetti di uso quotidiano (dall'orologio al telefono, alla lavatrice) sia numerosi settori della produzione e dei servizi (dall'automobile al credito, alle telecomunicazioni) sia, infine, l'intero complesso della ricerca scientifica. Per esaminarne le conseguenze sulla società occorrerebbe quindi una catalogazione ad ampio raggio, che tuttavia potrebbe toccare i diversi temi solo in superficie e finirebbe per rivelarsi di scarsa utilità. È più utile, perciò, limitarsi a considerare solo alcuni temi centrali del complesso rapporto tra informatica e società.
Anche se un'operazione di questo genere è sempre in qualche misura arbitraria, è però possibile rendere evidenti i criteri di scelta, che derivano a loro volta da un ordinamento sistematico dei settori di influenza dell'informatica. In primo luogo abbiamo tutti gli effetti legati alle trasformazioni nel mondo del lavoro e della produzione, direttamente conseguenti all'introduzione dell'informatica. Sono queste, probabilmente, le conseguenze sociali più radicali nel lungo periodo; si tratta però di fenomeni che non possono essere esaminati senza un esplicito riferimento all'evoluzione delle tecnologie elettroniche e alla crescente automatizzazione dei processi produttivi. In secondo luogo abbiamo le trasformazioni legate all'uso dell'informatica nelle comunicazioni: questi fenomeni hanno sia effetti indiretti sui sistemi produttivi, sia effetti più generali sulla cultura e sull'organizzazione spazio-temporale della società. Infine, poiché, come si è detto, l'informatica è "la scienza del trattamento razionale e automatico delle informazioni, come base per le conoscenze umane", esiste un'ampia famiglia di effetti che riguardano in modo specifico il ruolo dell'informazione organizzata nella società, la sua produzione, il suo uso e la sua conservazione e trasmissione: in altre parole, i sistemi informativi e la loro evoluzione. È su questo tema che concentreremo il discorso, facendo gli opportuni rinvii agli altri settori di analisi là dove ciò risulterà necessario.
Ogni società organizzata possiede un qualche tipo di sistema informativo, e anche società molto antiche, come la mesopotamica o la micenea, si dotarono di sistemi di amministrazione e di contabilità economica e sociale altamente sofisticati. Nella nostra epoca i sistemi informativi si sono sviluppati sotto la spinta di due istituzioni chiave dell'era moderna: l'amministrazione dello Stato - di cui le burocrazie nazionali e un sistema fiscale centralizzato costituiscono componenti essenziali - e l'impresa capitalistica. In entrambe queste dinamiche di institution building ha preso forma quel processo di razionalizzazione che, fra tutti gli studiosi che se ne sono occupati, Max Weber ha concettualizzato nel modo più approfondito e duraturo. Una delle componenti più importanti di questo processo è stato lo sviluppo di procedure istituzionali, amministrative e tecniche, dirette all'accumulazione, alla conservazione e alla trasmissione dei dati via via prodotti istituzionalmente. Procedure e dati di questo tipo rappresentano una delle caratteristiche specifiche della società contemporanea.Gli apparati entro i quali questi dati si vanno accumulando subiscono trasformazioni indotte da molteplici fattori, due dei quali rivestono però un'importanza cruciale: la disponibilità di diverse tecnologie informative e i modelli di interazione tra le varie parti del sistema.
Possiamo distinguere tre grandi tipi successivi - o 'architetture' - di sistemi informativi:
a) il sistema tradizionale, modellato sul tipo ideale delle burocrazie ottocentesche, che ho chiamato 'della cinghia di trasmissione' (v. Martinotti, L'informatica..., 1979), perché essenzialmente rivolto alla funzione normativa caratteristica del Herrschaftswissen, o conoscenza a fini di potere;
b) il sistema modellato sulle esigenze manageriali dell'impresa moderna, che chiamo 'del feedback', perché diretto non solo a trasmettere contenuti normativi, ma anche, e principalmente, a raccogliere informazioni dalla periferia del sistema (nel caso delle imprese, il mercato) al fine di adattare la produzione, o più in generale la performance del sistema stesso, alle mutevoli condizioni del contesto;
c) il sistema che sta emergendo dal mondo informativo contemporaneo, che definisco 'interattivo' o 'aperto', perché tendenzialmente acefalo - anche se non privo di punti forti di concentrazione delle conoscenze - e costituito da una pluralità crescente di interlocutori decentrati, capaci di interagire tra loro, oltre che con i 'vertici', per così dire, del sistema.
Il sistema tradizionale, o 'della cinghia di trasmissione', è caratterizzato da una forte verticalità: serve soprattutto a trasmettere circolari, ordini di servizio, regolamenti. Un sistema di questo genere, ovviamente, non permette elaborazioni periferiche dei dati e si rivolge a un'utenza passiva. Le informazioni trasmesse sono molto formali e, dal punto di vista della flessibilità analitica, sono rese pubbliche solo per grandi aggregati: nazioni, regioni o province. I dati qualitativi sono utilizzati in modo asistematico, come osservazioni estemporanee. Non è concepibile un accesso alle informazioni né dal basso - 'pubblico informato' - né trasversalmente. Le conoscenze sulla periferia del sistema sono di ordine prettamente poliziesco, e quindi individuali e non elaborabili statisticamente. Questo è il modello di sistema informativo prodotto dalle burocrazie nazionali tradizionali. Nei sistemi sociali in cui predomina questo tipo di sistema informativo diverse specie di conoscenze sono conservate in istituzioni tra di loro separate e con funzioni distinte come gli archivi, le biblioteche, i musei. Gli archivi dello Stato, delle grandi istituzioni come la Chiesa e delle nascenti imprese capitalistiche svolgono soprattutto una funzione di memoria storica delle organizzazioni in cui sono collocati. Il sapere colto è conservato nelle biblioteche, che rappresentano l'istituzione centrale della vita intellettuale, ma che sono in larga misura organizzate secondo principî di conservazione, e risultano quindi accessibili, in genere, solo a un'élite di studiosi. Anche i musei hanno qui funzioni di conservazione più che di esposizione al pubblico. Tuttavia la formazione e il rafforzamento degli Stati nazionali favoriscono l'idea della costruzione di una memoria collettiva della nazione, incorporata, sia pure in modo diverso, in tutte e tre le istituzioni tradizionali di conservazione del sapere, in ciascuna delle quali si adottano criteri specifici, ma progressivamente più generali, di catalogazione e ordinamento di grandi quantità di oggetti materiali e intellettuali.
Il secondo modello di sistema informativo, o 'del feedback', è quello dominante nelle grandi imprese moderne e in alcune parti più avanzate delle pubbliche amministrazioni. È un modello con funzioni tipicamente manageriali, il cui fine è quello di governare un'organizzazione formale, trasmettendo ordini ma anche, e soprattutto, ricevendo informazioni aggiornate sullo stato dell'organizzazione e sui suoi scambi con l'esterno. È questo il modello informativo 'razionalistico', basato sulla tecnologia informatica dei grandi mainframes collocati al centro o al vertice delle organizzazioni. I messaggi viaggiano nei due sensi, ma sempre in direzione verticale, con un contenuto informativo interamente asservito alle funzioni gestionali. Le unità periferiche sono attive, ma non 'intelligenti' (si tratta cioè di terminali che possono ricevere e trasmettere, ma non rielaborare informazioni in loco, indipendentemente dal sistema centrale). L'elaborazione pubblica delle informazioni (pubblicazioni statistiche, rapporti organizzativi, elaborazioni interne) avviene a livello medio, e cioè per unità produttive ed organizzative decentrate, nelle imprese, e per livelli territoriali assimilabili a quello delle province o dei comuni, nella struttura amministrativa dello Stato. I dati sono organizzati per grandi files sequenziali di specie - prodotti, clienti e personale, per quel che riguarda le imprese; elezioni, demografia e struttura economica, per quel che concerne lo Stato - non facilmente intercorrelabili. Siamo nel pieno del periodo di maggiore espansione della tecnologia informatica 'pesante', con i grandi sistemi della seconda e terza generazione, che trattano soprattutto dati numerici; le informazioni qualitative sono perciò scarse o del tutto assenti. L'accesso alle informazioni dal basso o dall'esterno non è regolamentato ed è quindi concretamente possibile, ma in modo asistematico. Questo modello si colloca in un periodo che si chiude negli anni che ci siamo lasciati or ora alle spalle e che è caratterizzato dallo sviluppo della cultura di massa. Le grandi istituzioni tradizionali di conservazione del sapere sono investite da una crescente domanda di utilizzazione da parte sia degli studiosi che del pubblico colto in generale e, sempre di più, anche da parte di operatori economici. Gli attori istituzionali che producono sapere si moltiplicano e la netta separazione tra di loro comincia a oscurarsi. Lo Stato chiede una crescente quantità e trasparenza di informazioni alle imprese, e viceversa. Le biblioteche diventano, almeno in teoria, gli strumenti strategici per il sostegno della formidabile espansione dell'istruzione superiore. I musei devono far fronte a una domanda di fruizione in forte crescita.
Alle istituzioni tradizionali, preposte alla conservazione delle conoscenze, se ne aggiungono di nuove: le cineteche e le videoteche, per la conservazione delle immagini; le raccolte di microfilm e microfiches, per la conservazione dei documenti; le nastroteche e le discoteche, per la raccolta dei suoni registrati; gli archivi dati su supporto magnetico, per la conservazione dei dati prodotti dalle istituzioni amministrative, produttive e scientifiche.
In questo periodo la cultura informatica è limitata a un'élite di tecnici, sia pure in notevole espansione. Non solo, ma i dati che si accumulano in quantità notevoli presso le organizzazioni pubbliche e private che affidano parte delle loro procedure alle macchine informatiche sono dati soprattutto di gestione, costruiti con criteri rigidi e molto analitici. Si tratta prevalentemente di dati numerici relativi a fenomeni quantitativi o a fenomeni codificati in modo da poter essere trattati quantitativamente, dati che costituiscono, quindi, raffigurazioni impoverite della realtà che rappresentano. Anche se con gli elaboratori è già tecnicamente possibile scrivere dei testi, la loro elaborazione, con le macchine della seconda e della terza generazione, è ancora poco praticata. Inoltre, benché la macchina informatica abbia tutte le risorse tecniche per conservare i dati, ha anche la capacità di produrne grandi quantità che vengono abbandonate prima che si pensi alla loro archiviazione. Infine, nei sistemi informativi di questo tipo il prevalente uso gestionale delle macchine informatiche fa sì che domini un criterio archivistico nella conservazione dei dati.
I dati si conservano come documentazione delle attività gestionali, non come memoria storica, e quindi facilmente riattivabile, delle attività dell'organizzazione. Ciò significa che l'utilizzazione successiva di questi dati non è facile, ed è resa ulteriormente problematica dalla rozzezza delle codificazioni e dal rapido avvicendarsi del personale e delle tecnologie. Per esempio, non è praticamente più possibile leggere con le unità nastro contemporanee i nastri di appena pochi lustri or sono e, molto spesso, anche in unità di lavoro o di ricerca molto piccole i libri codice per interpretare il contenuto dei dati registrati vanno dispersi. In conclusione è assai probabile che, salvo rare eccezioni, la massa di memoria storica della vita organizzativa e istituzionale nelle società avanzate, accumulata nei primi tempi di intensa informatizzazione - tra la fine degli anni sessanta e la metà degli anni ottanta - sia irrimediabilmente destinata a un rapido oblio. La perdita sarà quasi certamente di vaste proporzioni e definitiva, perché in questo stesso periodo vi è stata anche un'intensa sostituzione di archivi cartacei con archivi elettronici.L'ultimo modello di sistema informativo, il modello 'aperto' o 'interattivo', è quello che sta prendendo forma in questi anni. Questo modello è caratterizzato da una duplice spinta: le trasformazioni nel sistema delle organizzazioni private e pubbliche, che conducono a un crescente decentramento produttivo e amministrativo, e le nuove tecnologie informatiche e dell'informazione, che permettono un'architettura di sistemi sempre più aperti. In sistemi di questo tipo le informazioni viaggiano in tutti i sensi e in tutte le direzioni, e la struttura portante è quella delle grandi reti di comunicazioni tra numerosi poli dotati di elevata e crescente capacità di elaborazione autonoma.
Attualmente negli Stati Uniti ci sono 20 milioni di terminali non intelligenti, a cui vanno aggiunti i due terzi dei 15 milioni di personal computers in funzione nell'economia americana e non ancora collegati tra loro. Ma secondo le previsioni si arriverà a un collegamento in rete del 90-95% di queste macchine. Il compito dei centri del sistema è prevalentemente di coordinamento o di immagazzinamento degli archivi più vasti. Il contenuto delle informazioni è sempre più informativo-creativo, poiché le capacità di elaborazione periferica permettono grande variabilità nei contenuti, anche in organizzazioni relativamente centralizzate. Esistono ancora grandi mainframes che servono da deposito o archivio delle informazioni, ma le capacità di elaborazione e di conservazione delle informazioni a livello periferico sono ormai fortemente competitive con quelle dei sistemi maggiori. Si cominciano a creare grandi depositi di informazioni - le 'basi dati' -, che sono però sempre più scollegati dalla struttura organizzativa-gestionale e possono essere raggiunti da molti punti del sistema. L'accesso è quindi riconosciuto, regolamentato e commercializzato. Anche le informazioni prodotte da singole organizzazioni vengono messe a disposizione di altri utenti e riutilizzate come prodotti con autonomo valore aggiunto. Si tratta di un sistema in forte evoluzione, sotto la spinta di continue innovazioni tecnologiche nel campo dell'archiviazione, dell'elaborazione e della trasmissione dei dati, e non è facile prevederne gli sviluppi, anche a breve termine.
Nelle basi dati le informazioni sono organizzate in modo da poter essere recuperate molto rapidamente (information retrieval); ciò è possibile mediante appositi algoritmi che consentono di selezionare il singolo record, o registrazione individuale, senza scorrere l'intero elenco, a volte composto di milioni di registrazioni: un'operazione che imporrebbe tempi non economici neppure con i più potenti elaboratori.
La diffusione delle basi dati costituisce, per alcuni, una seria minaccia alla privacy individuale. Nel corso della sua esistenza sociale, ma soprattutto 'civica', ognuno di noi lascia nel corpo amministrativo dello Stato numerosissime tracce (records). Perciò non è difficile immaginare che in un tempo non molto lontano diversi uffici dell'amministrazione pubblica, ciascuno con i suoi elenchi, le sue pratiche e i suoi 'clienti', vengano sostituiti da un unico sistema informativo centrale, che contenga tutte le diverse informazioni relative alla 'vita civica' di ogni persona.
Da un punto di vista strettamente tecnico non vi sono difficoltà che impediscano la realizzazione di un unico deposito centrale nominativo di informazioni personali, al quale possano attingere diversi uffici, richiedendo, ma anche aggiungendo - ed è questo un aspetto che va sottolineato - nuovi dati. Le esigenze di razionalità implicite nella pubblica amministrazione spingono verso una forte concentrazione dei dati o verso la possibilità di collegare archivi diversi (interlinkage). Ben aveva visto questa potenzialità Bruno De Finetti che, nel lontano 1962, suggeriva "un servizio unificato di base per le attività di tutte le amministrazioni ed enti, statali, parastatali e privati, che in mancanza di esso devono attualmente costituire ciascuno per proprio conto, con sperpero enorme di spese, duplicazioni di evidenze necessariamente difettose, per avere ciascuno un simulacro di anagrafe" (v. De Finetti e altri, 1965, p. 1). Tuttavia il collegamento di questi dati è inerentemente minaccioso per la privacy individuale e potenzialmente anche limitativo della libertà dell'individuo (v. Losano, 1985; v. Martinotti, 1984).Gli effetti più profondi dell'informatica sulla struttura sociale derivano, tuttavia, con tutta probabilità, dalla combinazione tra gli strumenti dell'informatica in senso proprio e le innovazioni nelle tecnologie delle comunicazioni. Un aspetto caratteristico delle tendenze evolutive in questo settore sta nella forte spinta sinergica delle varie tecnologie che ne fanno parte. Lo sviluppo dell'elaborazione elettronica dei dati, infatti, lungi dal risultare competitivo con altri modi di trattare le informazioni, come si era troppo frettolosamente preconizzato alle origini dell'informatizzazione, ha stimolato una tendenza sin qui inarrestabile verso l'integrazione di molte tecnologie, in precedenza separate tra loro (v. Inose e Pierce, 1984, pp. 26-27).
Aggiungiamo che, a causa dell'universalità del supporto digitale delle informazioni, molti messaggi sono, in teoria, traducibili gli uni negli altri, e, anche se in pratica le connessioni reali tra diverse attività informative sono oggi ancora scarse, l'implicita potenzialità di collegamento non solo non può venir trascurata, ma fornisce una delle nervature strategiche degli sviluppi in corso. Al tempo stesso l'universalità del linguaggio fa sì che, nell'intero settore dell'informazione, i cui confini si vanno via via sempre più ampliando, la distinzione tra produzione, distribuzione, o trasmissione, e conservazione delle informazioni stia progressivamente oscurandosi.
Le tecnologie di trasmissione delle informazioni, di riproduzione dell'immagine e di registrazione dei suoni stanno provocando una profonda e pervasiva trasformazione dell'economia e della società a livello planetario, conosciuta con il termine di 'globalizzazione' (v. Giddens, 1990). Questo processo è in questi anni nel pieno del suo svolgimento e le sue conseguenze sono ancora ben lungi dall'essere state esplorate in modo soddisfacente; ma gli studiosi e la cronaca quotidiana sembrano concordare nel ritenere che la combinazione del trattamento e della trasmissione delle informazioni sia in grado di trasformare la società assai più radicalmente delle grandi rivoluzioni che hanno marcato la storia dell'uomo dall'invenzione della scrittura o della stampa.
(V. anche Automazione; Elettronica; Informatica giuridica; Innovazioni tecnologiche e organizzative; Tecnica e tecnologia).
Arnold, H., Logic and Boolean algebra, Englewood Cliffs, N.J., 1962.
Arzenton, A., Banche dati: ricerca on-line, Milano 1986.
Baldacci, M.B., Sprugnoli, R., Informatica e biblioteche, Firenze 1983, 1986².
Bell, D., The measurement of knowledge and technology, in Indicators of social change: concepts and measures (a cura di E.B. Sheldon e W.E. Moore), New York 1968, pp. 245-346.
Bernstein, J., The analytical engine, New York 1964 (tr. it.: La macchina analitica, Milano 1967).
Cole, R.W., Early history, in Computers and society (a cura di G.A. Nikolaieff), New York 1970, pp. 105-122.
Dani, F. (a cura di), Storia del computer: dalle origini del calcolo all'intelligenza artificiale, Roma 1984.
De Finetti, B., D'Agata, C., Cesare, B., Problemi di rilevazione e classificazione di dati demografici, Roma 1965.
Dizard, W. P., The coming information age: an overview of technology, economics and politics, New York 1982, 1985².
Eco, U., Zorzoli, G. B., Storia illustrata delle invenzioni: da aratro a Polaris, Milano 1961.
Elgozy, G., Le désorganisateur: le péril informatique, Paris 1972.
Feigenbaum, E.A., McCorduck, P., The fifth generation: artificial intelligence and Japan's computer challenge to the world, Reading, Mass., 1983.
Forester, T. (a cura di), The microelectronics revolution, Oxford 1980.
Forester, T. (a cura di), The information technology revolution, Oxford 1985.
Giddens, A., The consequences of modernity, Stanford, Cal., 1990.
Giscard D'Estaing, V.-A., The second world almanac book of inventions, New York 1986².
Halacy, D.S. jr., Computers, the machines we think with, New York 1962 (tr. it.: Macchine per pensare, Milano 1962).
Informatique, in Les mots clés de l'informatique, Paris 1982.
Inose, H., Pierce, J.R., Information, technology, and civilization, New York 1984 (tr. it.: Tecnologia dell'informazione e nuova cultura, Milano 1984).
Larsen, E., A history of invention, New York 1961.
Lazarsfeld, P.F., Philosophie des sciences sociales (a cura di R. Boudon), Paris 1970.
Losano, M. G., Informatica per le scienze sociali, Torino 1985.
Losano, M. G., Scritto con la luce: il disco compatto e la nuova editoria elettronica, Milano 1988.
Lussato, B., Le défi informatique, Paris 1981.
Manacorda, P., Il calcolatore del capitale, Milano 1976.
Martinotti, G., Le traitement des données, le gouvernement et le public: réflexions sur le cas italien, in "Revue internationale des sciences sociales", 1978, XXX, pp. 152-172.
Martinotti, G., Calcolatori, in Il mondo contemporaneo (a cura di N. Tranfaglia), vol. IX, Politica e società, t. 1, Firenze 1979, pp. 127-128.
Martinotti, G., L'informatica nella pubblica amministrazione, in L'informatica nelle regioni italiane e straniere (a cura di G. Martinotti e F. Zaiczyk), Torino 1979, pp. 15-40.
Martinotti, G., Difesa della privacy: del cittadino o dell'apparato?, in Società, norme e valori: studi in onore di Renato Treves (a cura di U. Scarpelli e V. Tomeo), Milano 1984, pp. 383-425.
Momigliano, F., Le tecnologie dell'informazione: effetti economici e politiche pubbliche, in Tecnologia domani (a cura di A. Ruberti), Roma-Bari 1985, pp. 99-128.
Moreau, R., Ainsi naquit l'informatique, Paris 1981.
Ordinateur, in Les mots clés de l'informatique, Paris 1982.
Pearson, K., The history of statistics in the 17th and 18th centuries against the changing background of intellectual, scientific, and religious thought: Lectures given at the University College, London, during the academic sessions 1921-1933 (a cura di E.S. Pearson), London-High Wycombe 1978.
Peled, A., The next computer revolution, in "Scientific American", 1987, CCLVII, pp. 35-42.
Phelizon, J.-F., Dysfonctionnements de l'informatique, Paris 1980.
Pool, I. de Sola, Introduction, in The coming information age: an overview of technology, economics and politics, di W. P. Dizard, New York 1982, 1985², pp. IX-XI.
Price, D. de Solla, Science since Babylon, New Haven, Conn., 1961.
Randell, B. (a cura di), The origins of digital computers: selected papers, Berlin-New York 1973.
Rodgers, W., Think: a biography of the Watsons and IBM, New York 1969 (tr. it.: L'impero IBM, Milano 1971).
Rokkan, S., Data services in Western Europe, in "American behavioral scientist", 1976, XIX, 4, pp. 443-454.
Rossi, P., Quale rivoluzione?, in Tecnologia domani (a cura di A. Ruberti), Roma-Bari 1985, pp. 319-354.
Simon, H.A., What computers mean for man and society, in The microelectronics revolution (a cura di T. Forester), Oxford 1980.
Singer, C., Holmyard, E.J., Hall, A.R. (a cura di), A history of technology, voll. IV-VII, Oxford 1958-1978 (tr. it.: Storia della tecnologia, voll. IV-VII, Milano 1964-1984).