Tecnologie digitali
Il diffondersi sempre più rapido delle tecnologie digitali in tutte le attività umane è il fenomeno che meglio caratterizza l’epoca che stiamo vivendo. Si può inquadrare ciò che sta avvenendo facendo riferimento all’ormai classica suddivisione della storia socioeconomica in tre stadi: preindustriale, industriale e postindustriale.
Nella fase che stiamo vivendo, ossia quella postindustriale, le attività terziarie o di servizio diventano predominanti insieme a quelle industriali a più alto contenuto tecnologico. Aumentano di conseguenza le opportunità di lavoro per mansioni di più elevato livello professionale e i metodi lavorativi assumono un alto livello di astrazione, in un contesto organizzativo di tipo sistemico. In sostanza, in quest’ultimo stadio, si porta a maturazione un processo iniziato in quello precedente (fase industriale): dalla trasformazione della materia in beni tangibili al trattamento di entità immateriali, quali l’informazione e la conoscenza. Società dell’informazione e della conoscenza è appunto l’espressione con cui si designa l’epoca attuale.
L’era digitale
I fondamenti concettuali
Tutto parte da ‘zero’ e ‘uno’, ossia dal sistema binario. Esso è, infatti, il modo più semplice per rappresentare la complessità sia del mondo fisico sia di quello del pensiero. Ma c’è anche una ragione pratica per scegliere questa dualità, e cioè che può materializzarsi nei due stati contrapposti, e quindi stabili, di un dispositivo fisico elementare, come l’interruttore elettrico, che non ha altri stati se non ‘aperto’ o ‘chiuso’. Nonostante la grande complessità dei sistemi di elaborazione – i computer –, ognuno di essi può essere ricondotto, nei suoi componenti elementari, a questo dualismo.
Il primo a formalizzare le regole del calcolo binario fu Gottfried Wilhelm von Leibniz (1646-1716), che nel 1671 realizzò una calcolatrice meccanica basata su questo principio. Un ulteriore passo in questa direzione fu fatto da George Boole (1815-1864), che pubblicò nel 1847 The mathematical analysis of logic e, successivamente, An investigation of the laws of thought (1854), in cui individuava uno stretto legame tra matematica e logica, fondando la cosiddetta algebra booleana.
Basandosi su queste idee, il primo a formulare la moderna teoria della computabilità fu Alan Turing (1912-1954) con la Macchina universale, descritta in On computable numbers, with an application to the Entscheidungsproblem (1936), che è alla base di tutti i moderni computer. È interessante notare che, con la sua Macchina universale, Turing si proponeva di rispondere al famoso problema della decisione (Entscheidungsproblem), uno dei ventiquattro problemi da risolvere nel 20° sec., proposti da David Hilbert (1862-1943) durante il Congresso internazionale di matematica del 1900 svoltosi a Parigi.
Nel 1945 John von Neumann (1903-1957) tradusse, nell’articolo First draft of a report of EDVAC, i principi della Macchina universale nello schema dello stored program computer, tuttora riferimento per l’architettura di tutti i tipi di computer. A questo contributo di von Neumann si fa generalmente risalire l’inizio dell’era digitale.
Una cronologia essenziale
Le tecnologie di cui parliamo si chiamano digitali in quanto basate sul sistema binario di cifratura, in inglese binary digit (o bit). Al cuore delle tecnologie digitali sta il computer, o elaboratore a programma memorizzato, per usare la dizione di von Neumann. Un computer è costituito da due componenti fondamentali, l’hardware e il software. L’hardware è la parte fisica, fatta di dispositivi elettronici di varia natura, mentre il software è costituito da insiemi di istruzioni (programmi) che vengono eseguiti dall’hardware.
Il computer nasce negli anni Cinquanta del 20° sec. come apparecchiatura a sé stante, ma rapidamente, già nel decennio successivo, si dota di sistemi di comunicazione che lo collegano a terminali remoti e poi ad altri computer, tramite reti di comunicazione. L’informazione viene elaborata in più sedi e scambiata nell’ambito della rete. Si verifica quindi la convergenza e integrazione tra due settori sviluppatisi indipendentemente l’uno dall’altro, l’informatica e le telecomunicazioni. Questa evoluzione dà origine a una nuova era tecnologica, quella delle ICT (Information and Communication Technologies).
L’evoluzione dell’hardware, ossia dell’elettronica digitale, è senza dubbio un fenomeno industriale senza precedenti. Siamo arrivati oggi a mettere in una tessera di silicio di pochi millimetri di lato (un chip) quello che all’origine occupava un intero salone. Ma non è solo una questione di spazio: nella stessa misura delle dimensioni è diminuito il costo, nonché il consumo di energia. Il fenomeno è descritto dalla legge di Moore, enunciata nel 1965, secondo cui ogni anno e mezzo si raddoppia la densità dei componenti elettronici realizzati su un chip e parallelamente se ne riduce il costo. È questo fatto alla base dell’enorme diffusione dei computer nel mondo di oggi.
L’altra faccia dell’era digitale è Internet. Le origini risalgono, com’è noto, agli anni Sessanta con il progetto ARPANET (Advanced Research Project Agency NETwork), una rete di collegamento tra centri di ricerca americani in grado di resistere ad attacchi nucleari. Nata per affrontare il problema della vulnerabilità, ARPANET era una rete con una struttura a maglie, in cui i messaggi tra due nodi potevano transitare su percorsi diversi, passando attraverso altri nodi della rete. Per fare questo, ogni nodo doveva essere in grado di reindirizzare i messaggi e quindi di elaborarli. La rete era perciò basata su tecniche digitali, tipiche del computer, mentre all’epoca le telecomunicazioni erano di tipo analogico, basate cioè sulla modulazione di onde elettromagnetiche. Il computer, nato come strumento di calcolo, diventava così anche strumento di comunicazione.
I computer collegati ad ARPANET parlavano linguaggi diversi: per questo fu necessario sviluppare dei protocolli di comunicazione standard, quale il TCP (Transmission Control Protocol), successivamente integrato con l’IP (Internet Protocol). Nel 1986 tutti i centri di ricerca degli Stati Uniti erano connessi in rete. La diffusione su larga scala della rete telematica doveva superare un ulteriore ostacolo. Si poneva cioè il problema di reperire con facilità, negli ormai smisurati archivi accumulati nei nodi della rete, i documenti richiesti. Nel 1990 Tim Berners-Lee presentò al CERN (Conseil Européen pour la Recherche Nucléaire) di Ginevra un approccio fondamentale per risolvere questo problema, il concetto che sta alla base del world wide web. E siamo alla cronaca dei giorni nostri, con Internet che collega centinaia di milioni di computer nel mondo e rappresenta uno strumento senza precedenti di diffusione e condivisione delle conoscenze e di stimolo alla crescita del sapere.
La simbiosi computer-Internet sta producendo una vera e propria rivoluzione nel modo di comunicare, lavorare, studiare, divertirsi, in una parola di vivere, con sviluppi e conseguenze oggi difficili da prevedere. Basti pensare alla diffusione dei dispositivi mobili (tablet, smartphone, palmari ecc.), capaci di operare in rete, di comunicare, creare e trasmettere immagini, offrire servizi altamente tecnologici, come il GPS (Global Positioning System), da cui è ormai impossibile prescindere. Alla stessa simbiosi va fatto risalire l’orientamento attuale verso il cosiddetto computer sulla nuvola (cloud computing), in cui archivi, programmi e risorse di elaborazione sono virtualizzati e disponibili per tutti con grandi vantaggi economici e gestionali.
Gli sviluppi industriali
I fatidici anni Cinquanta
A metà degli anni Cinquanta l’Italia vive una fase storica di innovazione e sviluppo. Incomincia la motorizzazione di massa, arrivano la Seicento e gli scooter, nasce la televisione e la RAI (Radio Audizioni Italia) inizia le trasmissioni. Grande è anche il fermento nell’ambito della ricerca scientifica e tecnologica. Si studiano le tecnologie nucleari per utilizzare questa nuova fonte di energia; al Politecnico di Milano Giulio Natta (1903-1979) apre l’era dei polimeri e per le sue ricerche nel 1963 riceverà il premio Nobel per la chimica; nelle telecomunicazioni si sviluppano nuove tecniche e nascono aziende come la Telettra, che realizza i primi ponti radio.
In questo contesto dinamico si inserisce anche l’informatica, allora agli albori in tutto il mondo. Quattro furono le iniziative partite contemporaneamente in questo ambito: due volte all’utilizzo di computer acquistati e due invece indirizzate a progettare autonomamente queste macchine.
Nel 1954 arrivò al Politecnico di Milano il calcolatore CRC102A (Computer Research Corporation) fabbricato in California, ancora oggi visibile in un corridoio del Politecnico. Grazie al dinamismo di Luigi Dadda (1923-2012), che aveva guidato il progetto, la macchina trovò subito ampia utilizzazione da parte di grandi aziende industriali per effettuare calcoli tecnici complessi.
Un anno dopo, nel 1955, all’INAC (Istituto Nazionale per le Applicazioni del Calcolo) di Roma venne installata una macchina Ferranti, fabbricata in Inghilterra, della quale si avvalsero in particolare i centri di ricerca accademici, ma anche enti ministeriali per elaborazioni statistiche.
A Pisa, l’università progettò e realizzò la Calcolatrice elettronica pisana (CEP). Ispiratore di questa iniziativa era stato Enrico Fermi nel 1954, durante una visita all’Alma Mater.
Nel 1955, all’avvio del progetto CEP, fu l’Olivetti a fornire all’università un supporto finanziario e a inviare alcuni suoi ricercatori. Ma contemporaneamente creò nella stessa città un proprio laboratorio con l’intento di costruire un elaboratore da mettere sul mercato ed entrare quindi nel nascente business dell’informatica. Pisa divenne così un crocevia dell’informatica italiana con due progetti: uno in ambito accademico, l’altro in campo industriale.
Il caso Olivetti
La Olivetti era all’epoca nota in tutto il mondo per l’eccellenza e per il design dei suoi prodotti meccanici per l’ufficio. La svolta che il presidente dell’azienda, Adriano Olivetti (1901-1960), aveva voluto imprimere con l’apertura del laboratorio di Pisa era di tipo strategico. Non si trattava solo di sostituire la meccanica con l’elettronica, ma di passare da macchine isolate a sistemi integrati, capaci di elaborare centralmente dati raccolti in periferia. A dirigere il laboratorio di Pisa, Olivetti chiamò un giovane ingegnere italo-cinese, Mario Tchou (1924-1961), incontrato alla Columbia University di New York.
A metà del 1957 era pronto un prototipo sperimentale che usava valvole termoioniche, tecnologia allora dominante per i circuiti elettronici. Ma era ormai già nato il transistor, per cui il sistema fu riprogettato con questa nuova tecnologia e, a metà del 1958, uscì il secondo prototipo, denominato 1T proprio per sottolineare il passaggio al transistor.
Un anno dopo era pronto il primo elaboratore di serie, denominato Elea 9003. Otre che per la concezione sistemistica e la tecnologia, questo sistema era, nella tradizione Olivetti, assolutamente innovativo per il design, opera di Ettore Sottsass Jr (1917-2007). L’Elea 9003 era un elaboratore di grandi dimensioni (un mainframe, come si diceva allora), che riscosse un notevole successo sul mercato italiano, posizionando l’Olivetti al secondo posto dopo la statunitense IBM, azienda leader mondiale del settore. L’Elea veniva realizzato nella fabbrica di Caluso, presso Ivrea, mentre i laboratori, che si erano nel frattempo trasferiti vicino a Milano, iniziavano a progettare nuovi prodotti. Avvalendosi dei progressi della tecnologia, si puntava a macchine di minori dimensioni e costo, rivolte a un mercato più ampio. Il risultato fu l’Elea 6001, che vide la luce nel 1961.
In parallelo con lo sviluppo dei computer, la Olivetti aveva investito anche nel settore della componentistica elettronica, fondando nel 1957 ad Agrate (Milano), insieme alla Telettra, la Società generale semiconduttori (SGS). È la stessa società che, dopo alterne vicende, è divenuta la STMicroelettronics, uno dei leader mondiali nel campo dei semiconduttori e dei circuiti integrati.
Tutto sembrava andare per il meglio, ma purtroppo, agli inizi degli anni Sessanta, scomparvero prima Adriano Olivetti e poi Tchou. Più o meno contemporaneamente, si registrò una crisi mondiale del mercato delle macchine da ufficio, che ebbe pesanti ripercussioni sulle finanze dell’azienda. Come conseguenza, la direzione Olivetti decise di tornare a concentrarsi sulle tecnologie meccaniche, mentre la divisione elettronica – ossia il laboratorio di Pregnana, la fabbrica di Caluso e la rete commerciale – venne ceduta in blocco al colosso statunitense General electric. Restò con la casa madre solo il gruppetto di progettisti guidati da Pier Giorgio Perotto (1930-2002), che si trasferì a Ivrea.
All’atto della cessione, la Olivetti elettronica contava oltre 2000 persone, di cui 500 impegnate nella ricerca e sviluppo. Era pronto un nuovo sistema, l’Elea 4001, macchina di dimensioni e prezzo contenuti, alla portata di un largo numero di utenti. La General electric l’apprezzò e l’adottò come standard nella sua linea di elaboratori a livello mondiale; il nome con cui, nel 1965, la pose sul mercato fu GE115. Di questo sistema, interamente progettato e fabbricato in Italia, furono venduti oltre 4000 esemplari, di cui il 60% negli Stati Uniti.
L’iniziativa avviata dalla Olivetti continuò quindi in ambito multinazionale, dapprima, come si è visto, con la General electric, poi con la Honeywell, per concludersi infine, alle soglie del 2000, con la Bull. In tutto questo arco di tempo, il laboratorio di Pregnana ha continuato a essere il punto di riferimento nazionale per la ricerca e lo sviluppo informatico in ambito industriale, generando prodotti venduti in tutto il mondo.
Frattanto, grazie al rilevante successo riscosso in America dal primo personal computer, il Programma 101, realizzato da Perotto, la Olivetti ripartì concentrandosi sui piccoli elaboratori e sostituendo a mano a mano l’elettronica nella tradizionale produzione meccanica. Per es., l’ET101 costituì, nel 1978, la prima macchina da scrivere integralmente elettronica messa sul mercato mondiale. Ma era ormai maturo il tempo dei personal computer. La Olivetti colse l’opportunità e s’inserì da protagonista nel settore con prodotti altamente competitivi, come il personal computer M24. Ai personal computer Olivetti arrise un grande successo commerciale che, durante gli anni Ottanta, portò l’azienda al terzo posto nella graduatoria mondiale dei produttori e al primo in Europa. Al successo contribuì il fatto che i personal computer Olivetti furono venduti nel Nord America dalla AT&T e dalla Xerox e in Giappone dalla Toshiba.
Ma la corsa verso l’integrazione elettronica sempre più spinta (secondo la citata legge di Moore) ebbe l’effetto di spostare una parte cospicua del valore aggiunto dal produttore di personal computer al fabbricante di circuiti integrati e Olivetti non era tra questi. Una decina di anni dopo, un identico problema si pose all’IBM, che aveva inventato il PC come lo conosciamo e che nel 2005 cedette l’intera operazione alla cinese Lenovo.
Nel tentativo di recuperare adeguati margini di profitto, nel 1990 la Olivetti abbandonò il settore dell’informatica d’ufficio e, con la Omnitel, entrò nel mercato europeo della telefonia mobile e in seguito, nel 1995, con Infostrada, nella telefonia fissa e nelle reti. Le successive vicende portarono Olivetti a essere incorporata in Telecom Italia (2003). Si chiuse così la storia quasi centenaria di un’azienda simbolo dell’industria italiana.
Le multinazionali
Tra i principali protagonisti della scena informatica italiana, oltre alla Olivetti, vanno annoverate le multinazionali, prevalentemente americane; non tanto quelle che vi stabilirono una presenza esclusivamente commerciale, ma quelle che dislocarono nel nostro Paese anche attività di ricerca e di produzione. Abbiamo già citato General electric, Honeywell e Bull, ma è doveroso accennare anche al ruolo della IBM (International Business Machines corporation). A metà degli anni Ottanta, IBM impiegava in Italia più di 12.500 persone, di cui circa 2000 nelle attività produttive degli stabilimenti di Vimercate. Negli anni Novanta vennero costituiti vari centri di sviluppo di soluzioni avanzate a Bari, Napoli, Cagliari e un centro di ricerca a Roma.
L’industria del software
Il software, ovvero l’insieme dei programmi, è l’intermediario tra l’uomo e la macchina fisica, che consente al primo di utilizzarla per i suoi fini. È un luogo comune affermare che il software non sia progredito con lo stesso passo dell’hardware. Ambedue le componenti devono continuamente confrontarsi con lo stesso problema: governare la complessità. Per l’hardware si tratta di stipare sempre più componenti elettronici su un chip, per il software di garantire il corretto funzionamento di milioni di istruzioni tra loro interagenti. Anche se il computer nasce, secondo la formulazione di von Neumann, come una «macchina a programma memorizzato», il valore dei programmi, cioè del software, venne riconosciuto solo molti anni dopo.
Fu nel 1969 che la IBM, sotto la pressione del governo americano, dovette abbandonare la sua politica commerciale che incorporava il software nel prezzo dell’hardware. Fino allora, infatti, il software veniva considerato, ai fini dell’offerta al cliente, come parte integrante dell’hardware. La sentenza del governo portava a quello che, in inglese, venne chiamato unbundling, ossia separazione tra le varie componenti dell’offerta. La sentenza non cambiò l’essenza del software, ma gli diede autonomia economica, nel senso che poteva essere venduto e comprato come tutti gli altri prodotti e servizi. Si aprì così, in tutto il mondo, la strada alla costituzione di società dedicate allo sviluppo di programmi, in concorrenza o in collaborazione con i principali fornitori di sistemi di elaborazione.
Nel 1969 in Italia fu varata un’iniziativa del Gruppo IRI (Istituto per la Ricostruzione Industriale) volta a creare una società pubblica per lo sviluppo del software; denominata inizialmente Italsiel, diventò in seguito Finsiel. L’intento dell’iniziativa era di far fronte alle esigenze in campo informatico della pubblica amministrazione.
Ci si era resi conto dell’enorme potenzialità dell’informatica in questo campo, ma anche del fatto che l’ostacolo alla sua valorizzazione era costituito dai programmi che le singole amministrazioni non erano in grado di realizzare in modo autonomo. L’iniziativa Finsiel doveva sopperire a questa carenza avviando un ciclo virtuoso di razionalizzazione e automazione del lavoro amministrativo. I presupposti dell’operazione erano corretti ed era giusta anche la decisione di puntare sul software, accantonando l’ambizione di fare concorrenza alle grandi società fornitrici di sistemi, che già godevano di una presenza consolidata sul mercato mondiale.
Tuttavia, l’iniziativa, che si sviluppò per più decenni, mancò sostanzialmente i suoi obiettivi. In questo caso, la ragione dell’insuccesso non è certo imputabile alla scarsità di investimenti finanziari, che resero Finsiel, negli anni Ottanta, la più grande azienda di software a livello europeo. Non fu dovuto neanche alle limitazioni del mercato nazionale, considerata la dimensione dei problemi informatici nella pubblica amministrazione italiana e la sostanziale posizione di monopolio di cui godeva il gruppo.
Finsiel non riuscì a conseguire quel primato nel campo del software che i mezzi avrebbero potuto consentirle e non riuscì a costruire quella scuola di eccellenza nei metodi e nelle tecniche di analisi e programmazione applicativa che avrebbero potuto conferire al nostro Paese una posizione privilegiata in quello che era destinato a essere uno dei maggiori mercati. In sostanza, Finsiel non riuscì ad anticipare un filone fondamentale dello sviluppo del software, ossia la creazione di soluzioni parametriche di largo impiego, il cosiddetto software riusabile.
Dopo una ventina di anni di attività, resasi evidente la modestia dei risultati raggiunti, Finsiel venne privatizzata e ridimensionata negli obiettivi e nelle risorse. Attualmente, il software di cui la pubblica amministrazione necessita è commissionato a società private, in seguito di gare.
Sul versante dell’iniziativa privata, a cavallo degli anni Sessanta e Settanta esistevano nel nostro Paese due importanti poli di sviluppo software. Il primo era il già citato laboratorio di Pregnana Milanese, dove si sviluppava, insieme all’hardware, anche il software degli elaboratori di fascia medio-piccola assegnati alla consociata italiana nell’ambito della divisione internazionale del lavoro. Il secondo polo si costituì negli anni Settanta, ancora in Olivetti, sulla scia della geniale invenzione di Perotto del computer da tavolo, che aveva aperto una nuova era dell’industria informatica, in cui però era necessario avviare un’ampia attività di sviluppo del software.
Dal 1971, inoltre, la società Syntax, sempre del gruppo Olivetti, entrò nel mercato del software per le applicazioni dei clienti del gruppo. All’inizio degli anni Novanta, quando l’organico dell’azienda aveva raggiunto diverse centinaia di unità, la Syntax fu inserita in un gruppo più ampio e meno specializzato, perdendo identità e caratteristiche.
Oggi il panorama italiano del settore è caratterizzato da alcune grandi società, come Value Partner, Engineering, Almaviva che lavorano su grossi progetti, soprattutto in campo pubblico, e da una miriade di migliaia di piccole e piccolissime aziende che, operando su base locale, fanno soprattutto assistenza e gestione informatica per i clienti.
Una nicchia industriale, di dimensioni limitate, ma non meno interessante, è quella costituita dai supercomputer nati per esigenze di ricerca. Nel 1985, l’Istituto nazionale di fisica nucleare (INFN) lanciò il progetto di un supercomputer ad alto parallelismo, chiamato APE (Array Processor Experiment). Si trattava di matrici di microprocessori disponibili sul mercato che, operando in parallelo, consentivano prestazioni elevatissime. Al sistema originario seguirono sviluppi successivi che si confrontarono, nei centri di ricerca internazionali, con concorrenti quali IBM, CRAY, nQube. La produzione industriale iniziò con Alenia spazio che commerciò il prodotto con il nome Quadrix, per approdare infine a Eurotech.
Quest’azienda, nata nel 1992, ha sede e stabilimento presso Udine, con rappresentanze in tutto il mondo, dagli Stati Uniti alla Cina. Le applicazioni di questi supercomputer di avanguardia vanno dalla fisica delle particelle alle nano- e biotecnologie.
L’automazione industriale
Le tecnologie digitali, nella loro pervasività, sono penetrate sin dagli anni Sessanta nel mondo della progettazione e fabbricazione industriale. Basti qui ricordare le macchine utensili a controllo numerico, nelle quali un programma di computer, scritto in un opportuno linguaggio, guida la lavorazione che la macchina esegue sulla materia per ricavarne il prodotto richiesto.
In questo ambito, la capacità di elaborazione del computer ha giocato il ruolo di ‘intelligenza’ capace di guidare e controllare altre macchine secondo una logica di sistema. L’obiettivo dell’automazione industriale è quello di realizzare un nuovo modo di concepire e sviluppare la produzione, integrando la fabbricazione con il sistema informativo gestionale e le altre funzioni aziendali, dall’adattamento del prodotto alle richieste del cliente, alla monitorizzazione dei costi nelle singole fasi del processo.
Derivano da questo obiettivo le definizioni di lean production o customer centred (o driven) production, che sottolineano come l’automazione s’inserisca in un contesto aziendale flessibile, adattivo rispetto al mercato.
Il settore è molto articolato, ma si può individuare una distinzione di massima tra processi produttivi continui e discreti. Della prima categoria fanno parte centrali di produzione di energia indipendentemente dalla fonte (idrica, termica, nucleare, gas, solare, eolica ecc.), raffinerie, cementifici, cartiere, acciaierie, laminatoi e così via. Alla seconda categoria appartengono invece produzioni di tipo meccanico (come una fabbrica automobilistica), elettromeccanico (per es., motori o macchine elettriche) e meccatronico. Con quest’ultimo termine s’individua il settore nel quale interagiscono le tre discipline della meccanica, dell’elettronica e dell’informatica.
Uno dei principali campi di applicazione della meccatronica è la robotica. Questo termine deriva dal ceco robota, che indica il lavoro nelle sue forme più ripetitive e faticose, ed è stato introdotto nel 1920 da Karel Čapek nel dramma Rossum’s universal robots. Il termine è stato poi ripreso dal celebre scrittore di fantascienza Isaac Asimov, che ne ha fatto il tema di molte sue opere. In estrema sintesi, la robotica si propone di emulare l’essere umano in alcune delle sue capacità. Nata per applicazioni industriali, si è estesa a un’ampia gamma di applicazioni, dalla chirurgia all’esplorazione sottomarina, dagli aerei senza pilota alle sonde per le esplorazioni spaziali. L’ambito di maggior utilizzo è, in ogni caso, quello della robotica industriale: dai bracci manipolatori sulle catene di montaggio per operazioni quali l’assemblaggio di parti, la saldatura e la verniciatura, ai sistemi per la movimentazione dei materiali.
In questo vastissimo panorama di applicazioni industriali, si può individuare un concetto unificante: l’anello chiuso con retroazione (feedback). Qualunque sia il processo, esistono tre funzioni fondamentali: la sensoristica, il controllo e l’attuazione. Queste tre funzioni sono comuni a tutti i processi di automazione industriale, in cui un ruolo essenziale è giocato dal software, ossia dai programmi informatici che sovrintendono all’operatività dell’impianto.
L’Italia, nel campo dell’automazione industriale, vanta una lunga tradizione di eccellenza che risale alle prime macchine utensili a controllo numerico per arrivare agli impianti completamente robotizzati. Il settore è costituito da migliaia di aziende di varie dimensioni, rappresentate da una specifica associazione industriale (ANIE, Federazione Nazionale Imprese Elettrotecniche ed elettroniche). Il fatturato del settore nel suo complesso è dell’ordine del centinaio di miliardi di euro, di cui più del 30% dovuto all’esportazione. La ricerca e l’innovazione sono in questo campo essenziali e assorbono quasi il 5% del fatturato.
Mercato e occupazione
Il mercato digitale
L’industria informatica nasce negli Stati Uniti durante la Seconda guerra mondiale e si diffonde con una dinamica decisamente accentuata; basti osservare come, alla fine del 2011, dopo neppure settant’anni dall’avvio, il valore complessivo del mercato digitale sia superiore a 3300 miliardi di dollari, con un’incidenza, sul PIL (Prodotto Interno Lordo) mondiale, attorno al 6% (Rapporto Assinform sull’informatica, le telecomunicazioni e i contenuti multimediali, 2013).
La crescita è il risultato di dinamiche molto differenti, sia a livello temporale sia a livello di area geografica e di Paese. L’America Settentrionale ancora oggi rappresenta l’area territoriale più importante in termini dimensionali (30% della domanda complessiva), seguita dall’Europa, con il 28%; in forte crescita, negli ultimi anni, sono i Paesi dell’area Asia-Pacifico (la quota è del 26%), mentre in Africa e in America Latina le dinamiche sono molto diverse tra i vari Paesi, in rapporto alla situazione politica ed economica e quindi al potere d’acquisto della popolazione. Negli ultimi vent’anni i tassi di crescita del mercato hanno mostrato, a livello mondiale, una forte correlazione con l’andamento del PIL. Secondo uno studio McKinsey (2011), nelle economie più mature l’economia digitale ha contribuito nell’ultimo decennio a circa il 10% della crescita del PIL. In alcuni anni, però, fattori congiunturali non favorevoli hanno contribuito a un rallentamento della domanda e dello sviluppo del mercato ICT.
Per quanto riguarda l’Italia, dove il mercato digitale, alla fine del 2012, ammontava a circa 68 miliardi di euro, il confronto con le economie più mature sottolinea una spesa digitale, rispetto al PIL, nettamente inferiore alla media europea (4,9%, contro 6,8% nel 2012). L’Italia soffre inoltre di tassi di sviluppo inferiori a quelli degli altri Paesi e mostra una staticità negli investimenti informatici: si è andato quindi approfondendo il nostro gap tecnologico rispetto agli altri mercati, trasformandosi in una caratteristica strutturale negativa della nostra società. Una conferma deriva dalla classifica stilata annualmente dal World economic forum per misurare la propensione dei Paesi a sfruttare le opportunità offerte dalle tecnologie ICT: dal 48° posto del rapporto 2012, siamo infatti scivolati, nel 2013, al 50°, al di sotto dei principali Paesi europei, a eccezione di Grecia, Bulgaria e Romania.
Dinamiche di crescita
Le dinamiche di crescita del mercato dell’ICT sono state caratterizzate da grosse discontinuità, spiegate dall’evoluzione delle tecnologie, dall’ampliamento delle aree di utenza, dall’integrazione del settore informatico con altri mercati, quale quello delle telecomunicazioni, e dallo sviluppo accelerato di contenuti digitali.
La prima grossa discontinuità si registra attorno agli anni Settanta, quando i sistemi general purpose (ossia grosse macchine adibite al controllo di processi gestionali), che allora avevano rappresentato l’elemento trainante del mercato, vengono sopravanzati da minielaboratori, che iniziano a diffondersi con applicazioni ‘dedicate’, in particolare nel campo del controllo e delle applicazioni tecnico-scientifiche.
Il successivo, importante, fattore di discontinuità è dato dal successo del personal computer che, a partire dall’inizio degli anni Ottanta, inizia a crescere a ritmi decisamente sostenuti. Appare quindi evidente l’alternarsi delle principali generazioni di prodotti nel guidare il mercato; a mano a mano che la generazione precedente tende a saturarlo, indebolendo i propri tassi di crescita, quella successiva vi si sovrappone.
Il processo che investe il settore, all’inizio degli anni Ottanta, è il passaggio da una fase essenzialmente technology driven a una market driven. Le cause sono molteplici: la minor concentrazione dei produttori, che porta a una maggiore differenziazione dell’offerta; l’enorme incremento nel ventaglio di innovazioni e, di conseguenza, della gamma di prodotti e possibilità applicative; l’ampliamento dell’utenza e la sua più varia tipologia. La disponibilità di tecnologie a basso costo aumenta enormemente il numero di potenziali nuovi utenti. Si diffonde il fenomeno del personal computing, rivolto tipicamente ad attività non strutturabili proprie del personale specialistico, direttivo e di supporto, sulle quali l’automazione opera in termini marginali.
Per quanto riguarda la domanda di software e di servizi, che rappresenta una quota significativa della spesa totale in ICT, si passa gradualmente dalla richiesta di singoli prodotti o di servizi a quella di soluzioni integrate.
La terza fase della digitalizzazione, che caratterizza gli anni Novanta, vede, come paradigma tecnologico di riferimento, l’Internet/networking computing.
Internet, che ha iniziato a diffondersi attorno alla metà degli anni Novanta nelle economie più ricche, e con qualche anno di ritardo negli altri Paesi, già nel 2000 rappresenta una tecnologia che si è imposta sul mercato, affermandosi, in misura significativa, non solo all’interno delle imprese, ma anche nella vita quotidiana delle singole persone. L’effetto di una tecnologia dirompente come quella di Internet, associata a una progressiva globalizzazione e interdipendenza dei mercati, porta allo sviluppo di un nuovo modello economico e di un nuovo modello competitivo, basato sulla capacità di integrare e sfruttare le opportunità offerte dalle nuove tecnologie, nell’ambito delle specifiche realtà imprenditoriali. Il numero di utenti Internet conosce una crescita esponenziale: attorno a 45 milioni nel 1995, circa 260 milioni nel 1999 e, nel 2012, più di 2 miliardi e mezzo di utilizzatori, circa il 35% della popolazione mondiale.
La diffusione di Internet riesce a trainare lo sviluppo di diverse componenti di mercato: in primo luogo reti, apparati e servizi di telecomunicazione; aumenta progressivamente la velocità della rete, con una accelerazione molto sostenuta e, già dalla fine degli anni Novanta, la telefonia mobile si diffonde a ritmi decisamente accelerati, tanto che, alla fine del 2012, il numero di utenti supera i sei miliardi. All’inizio del secondo decennio del 21° sec. si afferma anche la comunicazione mobile, ossia l’accesso a Internet generato da utenti su rete mobile; lo sviluppo della banda larga mobile è tale che, nel 2011, gli abbonati sono due volte quelli su rete fissa. A spingere la diffusione dell’Internet mobile, negli ultimi anni, concorrono i tablet e i cellulari di ultima generazione, dotati, nella maggioranza dei casi, di possibilità di connessione a Internet. Nel 2010, secondo l’ITU (International Telecommunication Union), il numero di abbonamenti alla banda larga da cellulare e computer portatili si è attestato attorno al miliardo di unità.
Ulteriori componenti di crescita del mercato, legati alla diffusione di Internet, sono il software e lo sviluppo di servizi correlati a nuovi progetti, quali la posta elettronica, l’e-commerce, l’e-government, l’editoria elettronica, la telemedicina.
Negli anni più recenti, come si è accennato, cresce a ritmi sostenuti l’accesso a Internet in mobilità e, di conseguenza, un utilizzo sempre più frequente di applicazioni mobili; secondo uno studio del 2013 di ABI Research, nel 2012 i download di applicazioni, in tutto il mondo, sono stati circa 36 miliardi, l’88% in più rispetto al 2011; ad applicazioni di messaggistica e di VoIP (Voice over IP), tipo Skype, si affiancano sempre più applicazioni legate anche al mondo dell’impresa.
Internet, infine, ha contribuito a creare una fase di digitalizzazione di massa, che ha visto un forte incremento nelle vendite di PC, di tablet, di smartphone e un utilizzo molto intenso di questi strumenti e dei servizi a essi associati (basti pensare allo sviluppo dei social network), da parte del mondo consumer.
Quali sono dunque, oggi, le principali connotazioni del mercato digitale, che influenzeranno l’immediato futuro? In primo luogo, l’integrazione evidente fra prodotti/servizi IT (Information Technology) e le telecomunicazioni. In secondo luogo, la mobilità crescente che porterà a uno sviluppo ancora più accentuato del mercato delle applicazioni mobili; un aumento nell’utilizzo di contenuti digitali (pubblicità on-line, editoria elettronica, formazione a distanza, video, musica ecc.); un’attenzione crescente ai social network; la progressiva adozione del cloud computing che, negli ultimi anni, ha comportato uno spostamento dalla vendita di prodotti, nel mondo IT, alla vendita di servizi a consumo; l’esigenza di gestire in modo sicuro, e anche di interpretare, una mole crescente di dati che comporterà, molto probabilmente, un consolidamento del cloud.
L’occupazione
Lo sviluppo delle tecnologie ICT ha portato alla nascita di un nuovo settore economico, che ha visto nascere migliaia di aziende e ha creato milioni di occupati. Difficile disporre di informazioni precise sul numero di aziende ICT, spesso di piccolissime dimensioni; alcuni dati della Banca d’Italia, presentati a un convegno CNEL (Consiglio Nazionale dell’Economia e del Lavoro) nel 2012 (ICT, occupazione, produttività, 27 nov. 2012, relatrice Paola Manacorda), forniscono comunque un’utile indicazione sull’ordine di grandezza di tale mercato: il numero di aziende presenti in Francia, Italia, Germania, Spagna e Regno Unito superava, nel 2009, le 540.000 unità (circa 118.000 in Italia); sono imprese che hanno mediamente sei addetti, e la dimensione media delle aziende italiane è allineata a quella degli altri Paesi.
Per quanto riguarda gli occupati, il numero si riferisce sia a coloro che lavorano nei settori ICT sia a quelli che hanno mansioni e competenze nell’uso dell’ICT. Secondo uno studio di Empirica (e-Skills for competitiveness and innovation: vision, roadmap and foresight scenarios, 2013), nel 2011 i lavoratori ICT superavano gli 8 milioni, rappresentando il 3,7% del totale della forza lavoro.
La situazione italiana non si discosta molto dalla media europea (l’incidenza è pari al 3,2%), ma è assai inferiore a quella del Regno Unito (5,1%), della Svezia (5,9%) e del Belgio (4,5%); un elemento di criticità della situazione italiana, rispetto agli altri Paesi, è la prevalenza di addetti in attività a basso valore aggiunto.
Dal 2000 al 2010, l’occupazione nel settore ICT in Europa, secondo l’indagine di Empirica, è cresciuta a un tasso medio annuo del 4,2%; anche negli ultimi anni, nonostante la crisi economica e finanziaria europea, la crescita è risultata del 2,6%; il dato rappresenta una conferma di quanto affermato recentemente dalla Commissione europea, che identifica nell’ICT, oltre che nella green economy e nella sanità, gli ambiti che presentano le migliori prospettive occupazionali per il futuro.
È vero, peraltro, che Internet ha portato anche alla perdita di posti di lavoro, soprattutto in attività a basso valore aggiunto, in particolare nei settori finanziario e manifatturiero. Comunque, secondo uno studio del McKinsey global institute (Internet matters: the net’s sweeping impact on growth, jobs and prosperity, 2011), l’economia digitale comporta la creazione di 2,8 posti di lavoro per ogni posto perso. Anche se il saldo, a livello economico, è positivo, è indubbia l’attenzione che queste tecnologie impongono alla riqualificazione delle persone e alla formazione continua.
Cultura, economia e società
Le ICT hanno avuto e sempre più stanno avendo un impatto radicale sulla società e sull’economia. La popolazione globale del nostro pianeta è di circa 7 miliardi di persone; alla fine del 2012 più di 2,5 miliardi di persone risultavano collegate a Internet, sempre più in modalità mobile; i social network interessavano, a fine 2012, oltre il 20% della popolazione: più di un miliardo il numero di iscritti a Facebook.
La nuova tecnologia ha delineato, e sta delineando, nuovi equilibri, una trasformazione del sistema di identità culturali, politiche e sociali. Le società digitali sono reticolari, vedono la nascita di gruppi virtuali di opinioni, e la cittadinanza attiva richiede anche regole nuove di regolamentazione e di verifica dei contenuti della rete.
Nelle pagine successive si passeranno rapidamente in rassegna alcuni dei più significativi aspetti di questo cambiamento, in particolare nell’ambito della scuola, del lavoro e dell’impatto sull’ambiente.
Sapere e saper fare
Il ruolo che le tecnologie dell’informazione hanno nel mondo contemporaneo implica la loro forte presenza anche nella scuola e nell’università. In Italia, l’informatica come disciplina a sé stante ha avuto una sua prima istituzionalizzazione con il corso di laurea in scienze dell’informazione nel 1969 all’Università di Pisa, seguito poi dall’istituzione del corso in altri atenei. Molto più tardi, il computer è entrato anche nella scuola, senza però la tempestività e la pervasività che sarebbe stata auspicabile. A rendere problematica tale diffusione ha contribuito senza dubbio la scarsa familiarità del corpo docente con le nuove tecnologie.
Del resto, anche nel mondo del lavoro, sia privato sia pubblico, si è dovuto fare i conti con la resistenza al cambiamento. Può essere interessante a questo proposito citare le indagini sviluppate negli anni recenti da AICA (Associazione italiana per l’Informatica e il Calcolo Automatico) con l’Università Bocconi sul cosiddetto costo dell’ignoranza informatica. Con queste ricerche ci si è posti l’obiettivo di quantificare il danno economico conseguente all’inadeguata preparazione e competenza dei lavoratori a vari livelli: dall’impiegato amministrativo al manager, allo specialista informatico. L’aggiornamento delle competenze è un problema di carattere generale nella nostra società, ma è particolarmente accentuato quando si tratta di quelle digitali, che riguardano tecnologie con un ritmo di cambiamento senza precedenti.
Come cambia il lavoro
Internet è uno dei fattori di catalizzazione del cambiamento, in quanto innovazione non solo tecnologica, ma anche culturale. Oggi l’impresa, quasi indipendentemente dalle sue dimensioni, è in grado, grazie alla rete, di competere sul mercato mondiale. Ancora, grazie alla rete, possono essere affrontati i problemi di approvvigionamento, produzione, marketing e distribuzione, prescindendo dai vincoli di tempo e di spazio.
In quest’ottica, un caso paradigmatico è quello della ‘fabbrica che si sposta con il Sole’. Giocando sui fusi orari, quando si smette di lavorare in Europa si comincia a lavorare in Estremo Oriente e, quando si smette là, si comincia negli Stati Uniti. Ciò è reso possibile dall’interconnessione delle tre unità lavorative, tramite una rete telematica multimediale che consente a ciascuno di partire da dove erano arrivati gli altri. Questo sistema è da tempo in uso nella produzione del software, con ampi vantaggi sia economici sia di qualità della vita dei lavoratori.
Fa parte di questo stesso quadro il telelavoro cosiddetto nomadico, basato sull’uso di dispositivi digitali portatili (notebook, tablet, palmari ecc.) e della rete, un modo di lavorare esploso a partire dai primi anni del 21° sec., con conseguenze positive per tutti.
C’è un ulteriore interessante sviluppo che sta prendendo piede anche nel nostro Paese, costituito dalla rete dei cosiddetti Fab Lab (Fabrication Laboratories), ossia piccole unità produttive che offrono servizi personalizzati di fabbricazione digitale. Un Fab Lab è dotato di strumenti computerizzati, in grado di realizzare un’ampia gamma di oggetti in modo semiautomatico. Il più rivoluzionario di questi strumenti è la cosiddetta stampante 3D (tridimensionale), in grado di realizzare oggetti a partire da un software di progettazione.
Anche nell’ambito della medicina è naturalmente di estremo rilievo l’impatto delle tecnologie digitali. L’attività medica consta sostanzialmente di tre momenti: osservazione, diagnosi e terapia. Queste tre fasi possono essere viste nel loro insieme come un complicato processo di elaborazione dell’informazione in cui il computer e le tecnologie digitali giocano già oggi un ruolo fondamentale. Basti pensare all’automazione dei processi di osservazione e diagnosi, alla possibilità di organizzare in rete consulti virtuali con esperti remoti, alla telemedicina per raggiungere pazienti localizzati in posti di difficile accessibilità, ma anche per tenere sotto controllo anziani o disabili senza che debbano spostarsi da casa loro. Infine, non si può non accennare alla robotica chirurgica, che è destinata ad avere un enorme sviluppo in virtù delle tecnologie microelettroniche.
L’ambiente intelligente
Il termine domotica deriva dal francese domotique, composto dalla parola latina domus e da (informa)tique e si occupa dell’applicazione di tecnologie basate sull’ingegneria informatica ed elettronica per realizzare dispositivi che consentano di automatizzare le operazioni che avvengono in un edificio.Termini analoghi sono home automation (automazione della casa), smart home (casa intelligente), building automation (automazione degli edifici) e altri.
Nella domotica gli aspetti di automazione e controllo sono relativamente semplici rispetto alle applicazioni industriali, dato il tipo di processi da monitorare: illuminazione, climatizzazione, controllo degli accessi, sensori per la sicurezza (gas, fuoco) e l’insieme degli elettrodomestici.
È invece complessa la parte che concerne le interconnessioni tra gli svariati sottosistemi e la programmazione dei dispositivi di controllo e supervisione che, in strutture di grandi dimensioni, possono arrivare a essere migliaia. Un esempio concreto può dare un’idea dei problemi affrontati.
Il più classico è il condizionamento dell’ambiente. Il microclima di un grande edificio, per es. un centro commerciale, dipende dall’esposizione di ogni singolo locale, dalla sua tipologia e dalla presenza di persone e macchine al suo interno. Per ottenere un ambiente confortevole è necessario far arrivare aria calda o fredda in modo differenziato nelle varie zone, regolando temperatura e flusso in uscita con i servomeccanismi e i sensori presenti. Inoltre, è necessario regolare i gruppi generatori di caldo e freddo in modo da ottimizzare i consumi ed eventualmente attivare i gruppi di riserva. Tutto il funzionamento dev’essere monitorato, insieme agli altri sistemi automatici dell’edificio, da una sala di controllo dotata degli opportuni allarmi. Un sistema di questo genere può essere costituito da migliaia di sensori di temperatura e umidità (interna ed esterna), di presenza di persone, di consumo energetico e da altrettanto numerosi attuatori per le portate di aria, le pompe, i gruppi generatori e così via. Il collegamento tra tutti questi dispositivi costituisce la rete domotica che, a sua volta, si collega alla rete locale che fa capo ai computer della sala di controllo ed eventualmente anche a Internet per interventi di tipo remoto. Un software specifico presenta agli operatori dei quadri sinottici, genera i parametri di regolazione di tutto il sistema e, in caso di necessità, consente interventi correttivi da parte dell’uomo. Ogni sensore e attuatore è costituito da un microcomputer a basso costo che esegue compiti standard in modo coordinato con gli altri, oppure può essere programmato per svolgere azioni locali specifiche di regolazione, di acquisizione dati o di allarme.
Sistemi con strutture analoghe controllano gli altri servizi automatici dell’edificio: l’illuminazione, gli ascensori, l’apertura e chiusura delle porte, le comunicazioni vocali (citofoni, altoparlanti), i consumi di elettricità e così via.
Guardando al futuro, si può prevedere una focalizzazione delle tecniche domotiche al servizio dell’individuo, dando luogo alla cosiddetta ambient intelligence. Si tratta di applicazioni e servizi che creano un’interazione diretta tra la persona e la sua abitazione, oppure tra il lavoratore e il suo ufficio, in un quadro di comunicazioni mobili.
Un importante obiettivo dell’ambient intelligence è rivolto ad aiutare persone con forme di disabilità o in età avanzata che sono confinate a casa. Per es., un soggetto affetto da malattia cronica potrà essere monitorizzato con continuità e sollecitato automaticamente a prendere a certi orari determinate medicine o a svolgere determinate attività fisioterapeutiche.
Ci siamo soffermati sulla domotica perché, oltre al suo interesse oggettivo, è un caso paradigmatico del cosiddetto Internet delle cose. Si tratta di un’evoluzione della rete in cui gli oggetti si rendono riconoscibili, si scambiano informazioni sul loro stato e possono accedere a informazioni esterne. Gli esempi sono moltissimi: il frigorifero che segnala la mancanza di determinati alimenti e, al limite, può autonomamente richiederne l’approvvigionamento; il cassetto dei medicinali che avvisa il paziente quando è l’ora di prendere il farmaco; la segnaletica urbana che indica all’automobilista percorsi alternativi per evitare congestioni di traffico; l’automobile che segnala al guidatore il superamento della velocità consentita e molto altro.
Il meccanismo che sta alla base di tutti questi esempi si fonda sulla possibilità delle tecnologie digitali di dare un’identità alle cose e ai luoghi dell’ambiente attraverso etichette RFID (Radio Frequency IDentification) o codici QR (Quick Response). Le comunicazioni degli oggetti possono essere recepite su tutti i dispositivi mobili, compresi i normali cellulari.
Altri settori e attività
Molti altri sono i settori e gli ambiti di attività che sono stati rivoluzionati dalle tecnologie digitali. Tra queste, l’editoria, che negli ultimi vent’anni, con l’avvento del computer e con Internet, ha subito una trasformazione radicale. Da tempo anche l’editoria si avvale di testi in forma digitale che consentono di realizzare prodotti cartacei da distribuire con i sistemi tradizionali. Per editoria elettronica s’intende invece la creazione di contenuti, la confezione, la distribuzione e la fruizione per via elettronica. Negli ultimi anni sono stati introdotti sul mercato i cosiddetti e-book readers per consentire la lettura di opere in formato digitale. Per farsi un’idea di come le nuove tecnologie influiscono sulla catena del valore, possiamo richiamare ciò che è già avvenuto nell’industria cinematografica. In questo ambito, infatti, si è verificato un sostanziale spostamento di valore dalle infrastrutture tradizionali di distribuzione (sale di proiezione), alla fruizione diretta on-line su TV, computer, tablet e così via. Un fenomeno analogo è quello della musica, dove la diffusione degli strumenti di riproduzione digitali ha stravolto il panorama industriale e commerciale.
Anche nell’ambito della ricerca scientifica la digitalizzazione ha consentito progressi straordinari addirittura sul piano metodologico. Infatti, da Galilei in poi, la ricerca scientifica si è basata su due pilastri: la teoria e l’esperimento. Il computer ha introdotto quello che possiamo considerare un terzo paradigma fondamentale, ossia la simulazione dell’esperimento. Rispetto alla sperimentazione tradizionale, la computer simulation presenta vantaggi straordinari in termini di flessibilità, di tempo e di costo. Può al limite sostituire esperimenti che sarebbero letteralmente impossibili da realizzare, per es. per ragioni economiche o di tempo o per entrambi i fattori.
Oltre alla simulazione, le tecnologie digitali sono essenziali nella cosiddetta big science, le ricerche sulle particelle fondamentali della materia svolte con il LHC (Large Hadron Collider) del CERN di Ginevra. Per effettuare i calcoli richiesti da esperimenti di questo genere, si utilizza il sistema di grid computing, ossia la potenza di calcolo di migliaia di computer, dislocati su tutto il globo e tra loro interconnessi.
Il computer e Internet hanno anche cambiato i rapporti fra cittadini, imprese e pubblica amministrazione: «l’uso delle nuove tecnologie dell’informazione e della comunicazione da parte delle pubbliche amministrazioni, applicato a un vasto campo di funzioni amministrative» (secondo la definizione OCSE di e-government, in e-Government: analysis framework and methodology, 2001) si presenta come una straordinaria opportunità per ridurre l’inefficienza della burocrazia, ridurre i costi, dematerializzare e standardizzare i processi. L’impatto delle nuove tecnologie ha il potenziale di migliorare i servizi resi dalle pubbliche amministrazioni agli utenti finali, cittadini e imprese: può garantire una maggiore efficienza delle procedure amministrative, mediante l’apertura di sportelli on-line d’accesso ai servizi, ma anche una maggiore trasparenza dell’attività amministrativa. Un fondamentale obiettivo della Commissione europea (European eGovernment action plan 2011-2015) è quello di arrivare all’implementazione di servizi e-government che superino i confini nazionali, agevolando così lo sviluppo di un mercato unico in termini sia imprenditoriali sia di mobilità dei cittadini. Un obiettivo, indicato dal piano europeo, è che, entro il 2015, il 50% dei cittadini e l’80% delle imprese utilizzino servizi di e-government.
Nel mercato italiano, la pubblica amministrazione ha compiuto investimenti ed effettuato sforzi organizzativi importanti per migliorare una serie di servizi on-line: una classifica europea del 2010 relativa a venti servizi di e-government pienamente disponibili on-line, vede l’Italia al di sopra della media UE27 e allineata ai principali Paesi occidentali.
Il livello di disponibilità dei servizi, comunque, varia sia in funzione della tipologia di ente erogatore sia in funzione dell’interlocutore (cittadino o impresa) e del grado d’interattività del servizio stesso.
Il processo di digitalizzazione è quindi ancora molto disomogeneo. Il ricorso ai servizi on-line da parte dei cittadini, per interagire con la pubblica amministrazione, è ancora nettamente inferiore alla gran parte dei Paesi europei, a conferma anche di uno scarso livello di alfabetizzazione informatica della popolazione italiana; superiore alla media continentale è invece l’utilizzo di tali servizi da parte delle imprese, anche se, rispetto al grado d’interattività, caratterizzato dalla possibilità d’inviare pratiche direttamente on-line, il segmento delle imprese mostra un certo ritardo: sintomo, da un lato, di una mancata rispondenza della pubblica amministrazione ad alcuni servizi, ma anche di un ritardo culturale delle nostre imprese.
Un tema divenuto di grande attualità, anche alla luce della crisi economico-finanziaria a livello mondiale, è l’HFT (High Frequency Trading), costituito da programmi software in grado di eseguire milioni di transazioni in frazioni di secondo sulle piazze borsistiche mondiali. Circa il 50% di tutte le transazioni di borsa avvengono ormai con questa tecnica. L’HFT viene considerato uno dei fattori che hanno scatenato e amplificato la crisi, a causa delle manipolazioni speculative cui si presta; con esso, infatti, è possibile prendere di mira il titolo di un’azienda e, attraverso rapidissime operazioni di compra-vendita, comprometterne le sorti, facendo guadagnare gli speculatori a scapito degli investitori.
D’altra parte, il processo di digitalizzazione incide su quasi tutti i settori dell’economia, trasformando interi mercati. Internet è ormai di uso comune nelle aziende; secondo un rapporto dell’OECD (OECD Internet economy outlook 2012, 2012), a fine 2010, nei due terzi dei Paesi OCSE, una percentuale superiore al 95% delle imprese utilizzava Internet e solo il 5,7% delle piccole imprese (10-49 dipendenti), negli UE25, non era ancora collegata.
La ristrutturazione dei modelli imprenditoriali associata all’uso di Internet consente un miglioramento dell’efficienza; uno studio McKinsey (2011) indica come il 75% dell’impatto positivo di Internet, in termini economici, derivi da imprese tradizionali che hanno avuto la capacità di riorganizzare attività abituali mediante l’uso delle nuove tecnologie. In questo ambito, il ruolo più importante sembrano giocarlo le piccole e medie imprese che, grazie alla rete, possono fare economie di scala, aprirsi a nuovi mercati e recuperare competitività; lo studio riporta i risultati di un’indagine effettuata su 4800 piccole e medie imprese: quelle con una forte presenza sul web sono cresciute molto di più, fino al doppio rispetto a quelle che invece non usano la rete e presentano un valore doppio di esportazioni e di posti di lavoro creati.
Per completare questa panoramica, non si può non citare il settore dei videogiochi, che sfrutta le caratteristiche di interattività del computer nel suo tumultuoso progresso. I videogiochi rappresentano un comparto economico a fortissima crescita, che in Italia ha superato quello cinematografico e che si sta avviando nel mondo verso i cento miliardi di euro.
Quali competenze
L’impatto che le tecnologie dell’informazione e della comunicazione hanno nella ridefinizione dei processi organizzativi e gestionali, negli investimenti in infrastrutture e tecnologie, richiedono necessariamente, per la loro efficacia, un adeguamento delle capacità e delle competenze dei cittadini. La competenza digitale è una delle otto competenze chiave individuate dall’Unione Europea «per la realizzazione e lo sviluppo personali, la cittadinanza attiva, l’inclusione sociale e l’occupazione». Nella Digital agenda for Europe, il documento del 2010 della Commissione europea che delinea le principali linee d’intervento da attuare entro il 2020, il tema del miglioramento delle competenze digitali rappresenta una delle sette aree di azione ritenute prioritarie perché le nuove tecnologie possano produrre i loro effetti sulla produttività del sistema.
Il tema delle competenze digitali deve riguardare innanzi tutto i giovani: sono loro i più aperti all’uso di queste tecnologie e a loro vanno quindi indirizzati gli sforzi necessari per portarli in misura sempre maggiore on-line; sotto questo aspetto la scuola rappresenta una piattaforma cruciale per lo sviluppo della società dell’informazione: per l’arricchimento delle competenze e degli skills degli studenti, per una maggiore efficienza nelle attività gestionali e organizzative delle scuole, ma anche per una maggiore circolazione dei contenuti didattici e per l’aggiornamento dei docenti.
Secondo un’indagine commissionata dalla Commissione europea per il periodo 2011-12 (Wastiau, Blamire, Kearney et al. 2013), l’Italia presenta grossi problemi proprio in termini di connettività: è infatti il Paese in cui è più alta (per ogni tipologia di scuola) la percentuale di studenti senza accesso a comunicazioni a banda larga.
Competenze informatiche adeguate dovrebbero essere fornite anche alle persone già inserite nel mondo del lavoro; lo sviluppo continuo delle tecnologie digitali richiede, infatti, non solo un aggiornamento di capacità lavorative specifiche, ma anche di competenze che consentano di trarre il massimo vantaggio da tali tecnologie. Secondo dati Eurostat (2012) solo il 19% delle imprese europee (UE27) ha investito in formazione digitale per i propri dipendenti. La percentuale è il risultato di valori molto diversi: si passa da un 40-42% delle aziende con sede nell’Europa settentrionale a un 10-15% dei Paesi dell’area mediterranea (Italia: 11%). Un’ulteriore conferma della scarsa attenzione prestata dalle imprese italiane alle ‘raccomandazioni’ europee deriva da un’indagine dell’OECD (Education at a glance 2011): in Italia solo il 20% dei cittadini ha partecipato a corsi di aggiornamento non formali, contro una media, a livello mondiale, del 34%.
La scarsa competenza informatica dei lavoratori implica non solo un ritardo nell’accesso ad applicazioni innovative, ma rappresenta anche un costo per le aziende e per la collettività. A tale riguardo vanno richiamati i risultati del progetto AICA-Università Bocconi, già citato, che ha l’obiettivo di valutare, in termini quantitativi, il costo che «il non sapere informatico» comporta per il sistema economico o, più in generale, per la collettività. Le diverse ricerche hanno riguardato sia specifici settori economici sia il mondo del lavoro in generale; a livello del sistema economico nel suo complesso, si è constatato come il tempo perso dagli utenti per difficoltà nell’uso degli strumenti informatici comporti un costo annuo di circa 2500 euro a persona. Moltiplicando questo valore per il numero totale di utenti, ne deriva un costo annuo, per l’intera economia italiana, di circa 19 miliardi di euro. Una cifra talmente rilevante che, pur considerandola un indicatore di massima, pone il problema di come riuscire a ridimensionarla; la strada da perseguire, con fermezza, è sicuramente l’investimento in una formazione adeguata, sia dell’utenza sia degli specialisti informatici, per ridurre gli effetti negativi di una competenza non conforme alle nuove necessità.
Al di là di coloro che sono già inseriti nel mondo della scuola o del lavoro, vi sono ampi strati della popolazione (anziani, disoccupati, casalinghe) che devono essere messi nelle condizioni di trarre vantaggio dalle opportunità offerte da Internet.
Il tema della e-inclusion è oggetto di grande attenzione da parte dell’Unione Europea, che ha posto il valore della coesione sociale fra i propri modelli di sviluppo. Si ritiene, quindi, fondamentale che tutti quei fattori socioambientali (età, livello d’istruzione, distribuzione geografica) che già oggi tendono a escludere strati della cittadinanza da un ruolo attivo nel contesto sociale, non siano amplificati dalla mancanza di capacità d’accesso alle tecnologie digitali.
Ancora nell’ambito delle ricerche AICA-Università Bocconi, nel 2011 è stato condotto un esperimento su 2000 cittadini sfavoriti in termini di capacità tecnologiche, erogando loro un semplice percorso di formazione informatica. Il 78% delle persone che hanno seguito il corso usa oggi Internet, contro il 31% della popolazione italiana in condizioni sociodemografiche simili al campione esaminato e contro il 47% dei cittadini italiani con più di 20 anni. La formazione fa quindi la differenza in termini di accesso alla rete e garantisce, anche a fasce di popolazione a rischio marginalità, quella fiducia che porta a una maggiore inclusione.
Genio italiano: alcuni contributi
Anche se la terminologia dell’ICT è essenzialmente inglese, il nostro Paese ha dato a questo settore numerosi e importanti contributi, sia nel campo teorico-concettuale sia in quello tecnologico-applicativo.
Tra i nomi più importanti è da ricordare Corrado Boehm (n. 1923), professore emerito dell’Università La Sapienza di Roma, il quale, partendo da ricerche teoriche sulla Macchina universale di Turing e sul modello di von Neumann, è arrivato a formulare nel 1966, in collaborazione con Giuseppe Jacopini, un celebre teorema, universalmente considerato il fondamento teorico della programmazione dei computer. In sostanza, il teorema afferma che qualunque programma di computer può essere realizzato utilizzando tre sole strutture logiche: sequenza, selezione, iterazione. Questo teorema ha avuto importantissime ricadute pratiche nelle attività di progettazione e sviluppo del software.
Scienziato umanista, convinto della sostanziale unità della cultura al di là delle barriere della specializzazione, Eduardo Caianiello (1921-1993), dotato di un’ampia versatilità intellettuale e autore di importanti ricerche nel campo della fisica teorica, è stato il fondatore del laboratorio di ricerche del CNR sulla cibernetica. Nel campo dell’informatica, fondamentale è stato il suo apporto sulla modellazione matematica delle reti neuronali del cervello. La teoria di Caianiello è alla base delle ricerche sulle reti neuronali artificiali, uno dei grandi filoni di ricerca sulla intelligenza artificiale.
Roberto Busa (1913-2011) è stato invece il pioniere, a livello mondiale, dell’applicazione dell’informatica alla linguistica, fondando la nuova disciplina della linguistica computazionale. In questo ambito di ricerca, ha realizzato l’Index Thomisticus, monumentale lemmatizzazione dell’opera omnia di Tommaso d’Aquino. Busa iniziò questo lavoro fondamentale nel 1949 con macchine a schede meccanografiche e, successivamente, passò ai computer. Nel 1980 pubblicò l’edizione completa a stampa dell’Index, costituito da 56 volumi, mentre nel 2005 mise l’opera sul web a disposizione di tutti.
L’inventore del primo personal computer è invece Pier Giorgio Perotto, il quale, giovane ingegnere della Olivetti, nel 1965, in un mondo di computer mastodontici, utilizzabili solo da personale altamente specializzato, realizzò un calcolatore elettronico che stava sul piano di una scrivania e che consentiva prestazioni assolutamente impensabili con le tecnologie meccaniche dell’epoca. La macchina, denominata Programma 101 a ricordare la sua natura digitale, venne presentata nell’ottobre del 1965, a New York, alla mostra internazionale della BEMA (Business Equipment Manufacturers Association), suscitando un grandissimo interesse.
Agli inizi degli anni Settanta la tecnologia microelettronica era in grado di realizzare su una tessera di silicio di alcuni millimetri di lato circa 2000 transistori tra loro interconnessi. Utilizzando una tecnologia originale, fu il fisico italiano Federico Faggin (n. 1941) a progettare nel 1971 il primo microprocessore al mondo, l’Intel 4004, che realizzava l’intera logica di un computer su un chip. Inviato negli Stati Uniti nella seconda metà degli anni Sessanta, Faggin venne assunto dalla Intel proprio per il progetto ‘computer su un chip’. Faggin è tuttora un leader nel settore dell’industria microelettronica ed è stato insignito nel 2010 dal presidente Barack Obama della National medal of technology and innovation.
Se tutti oggi possono scaricare da Internet sul loro smartphone o tablet immagini, musiche e filmati, è invece perché Leonardo Chiariglione (n. 1943) ha fondato (1988) e guidato il gruppo MPEG (Moving Picture Expert Group), che ha generato nel tempo gli standard internazionali con cui oggi vengono codificati e fruiti i contenuti multimediali.
Mentre fu il maestro Pietro Grossi (1917-2002), compositore e docente al Conservatorio di Firenze, dove tenne la prima cattedra di musica elettronica in Italia, ad avere l’idea di tradurre uno spartito musicale in un programma informatico e a farlo eseguire da un computer dotato di opportuni trasduttori sonori. Nel 1967 fece eseguire a un computer Olivetti-General electric il Quinto Capriccio di Niccolò Paganini. Un suo allievo, Goffredo Haus, è promotore a livello internazionale degli standard di codifica musicale.
Bibliografia
La bibliografia sugli argomenti trattati in questo saggio è pressoché infinita. Si ritiene più utile fornire qui soltanto alcuni riferimenti nei quali si trovano, oltre ai testi, anche ampi rimandi bibliografici:
L’informatica. Lo sviluppo economico, tecnologico e scientifico in Italia, a cura di F. Luccio, Firenze 2007.
McKinsey global institute, Internet matters: the net’s sweeping impact on growth, jobs, and prosperity, 2011, http://www.mckinsey.com/~/media/McKinsey/dotcom/Insights%20and%20pubs/MGI/Research/Technology%20and%20Innovation/Internet%20matters%20 -%20Nets%20sweeping%20impact/MGI_internet_ matters_full_report.ashx (16 ottobre 2013).
OECD (Organisation for Economic Co-operation and Development), Education at a glance 2011, Paris 2011.
OECD (Organisation for Economic Co-operation and Development), OECD Internet economy outlook 2012, Paris 2012.
Scienza e tecnica, 7° e 8° vol., Informatica, Istituto della Enciclopedia Italiana, Roma 2012.
e-Skills for competitiveness and innovation: vision, roadmap and foresight scenarios, 2013, http://www.empirica.com/aktuelles/meldung_en.php?newsID=matoc-lpqcx-asqrf-ca302 (16 ottobre 2013).
P. Wastiau, R. Blamire, C. Kearney et al., The use of ICT in education: a survey of schools in Europe, «European journal of education», 2013, 48, 1, pp. 11-27.
Si vedano inoltre:
Rapporti Assinform. Da circa vent’anni, l’Associazione Confindustriale dei produttori di tecnologie e servizi informatici pubblica, annualmente, un esame puntuale e completo dell’andamento del mercato digitale in Italia, con confronti internazionali.
Mondo Digitale - Rassegna critica del settore ICT, rivista trimestrale edita da AICA (Associazione italiana per l’Informatica e il Calcolo Automatico), che fa il punto sui temi più attuali e di maggior interesse delle tecnologie digitali, presentati in termini rigorosi, ma accessibili anche ai non specialisti (http://mondodigitale. aicanet.net, 16 ottobre 2013).