Scienza che studia l’elaborazione delle informazioni e le sue applicazioni; più precisamente l’i. si occupa della rappresentazione, dell’organizzazione e del trattamento automatico della informazione. Il termine i. deriva dal fr. informatique (composto di INFORMATion e automatIQUE, «informazione automatica») e fu coniato da P. Dreyfus nel 1962.
L’i. è indipendente dal calcolatore che ne è solo uno strumento, ma è chiaro che lo sviluppo dell’i. è stato ed è tuttora strettamente legato all’evoluzione del calcolatore; è proprio per questo stretto legame tra i. e calcolatore che l’i., pur avendo radici storiche antiche, si è sviluppata come disciplina autonoma solo a partire dagli anni 1960, sulla spinta del progresso dei sistemi di elaborazione e della formalizzazione del concetto di procedura di calcolo, che possiamo datare al 1936, allorché A.M. Turing presentò un modello di calcolo, oggi noto come macchina di Turing.
È caratterizzata da tre aspetti fondamentali: l’ingresso, gli algoritmi e l’uscita. Lo studio dell’ingresso include aspetti quali: le strutture dati, le tecniche di rilevamento, la classificazione e fusione di dati e informazioni, le tecniche di rappresentazione, la costruzione e la gestione di grandi quantità di dati o informazioni, i linguaggi di programmazione (➔ linguaggio). Lo studio del trattamento delle informazioni, ossia degli algoritmi, include aspetti quali: la formalizzazione degli obiettivi (ossia delle finalità delle elaborazioni, eventualmente sulla base delle diverse applicazioni), la formalizzazione degli strumenti di elaborazione (le cosiddette primitive, ovvero istruzioni elementari utilizzabili ed eseguibili da un calcolatore e le risorse disponibili per le elaborazioni), le procedure di formulazione e soluzione di problemi (ossia di raggiungimento degli obiettivi sulla base delle primitive e delle risorse disponibili), i modelli di calcolo, gli automi (➔ automa) a stati finiti, la correttezza delle elaborazioni, la gestione della memoria (ossia del sottoinsieme di informazioni presenti in ingresso e utili alle elaborazioni), la complessità computazionale, il parallelismo, i linguaggi di programmazione, le trasformazioni di rappresentazione, le architetture di elaborazione, l’implementazione delle procedure nei diversi ambienti di programmazione e di elaborazione. Lo studio dell’uscita include aspetti quali: la formalizzazione degli obiettivi e dell’applicazione, le interfacce utente, la grafica, i linguaggi di programmazione, le applicazioni.
Per quanto riguarda le conoscenze necessarie per interagire con l’ambiente virtuale (per es., per la ricerca di particolari informazioni sulla rete o per scambiare messaggi di posta elettronica), un aspetto ricorrente è che le conoscenze in oggetto solo in parte vengono apprese nelle strutture formative. In larga misura esse vengono apprese sul campo, utilizzando i programmi disponibili localmente o in rete per scopi di lavoro o di svago, navigando nella rete, guidati dalle istruzioni via via fornite all’utente. La semplice interazione con il sistema è però solo l’inizio; per sfruttarne le grandi potenzialità è necessario disporre di alcune conoscenze di base che consentono di costruire le procedure atte a soddisfare determinate esigenze, di elaborare le informazioni reperibili nella rete o prodotte localmente, di visualizzare le informazioni utili nel modo più opportuno; è necessaria infine una formazione modellistica e algoritmica che consenta di sviluppare un modello concettuale di quello che si vuole ottenere e le relative procedure da implementare.
Nel campo dell’automazione, della produzione e della gestione di sistemi complessi e di tecnologie, gli aspetti di tipo funzionale e di sistema diventano sempre più legati ai flussi informativi e informatici che accompagnano la trasformazione dei materiali e alle strutture organizzative sviluppate per gestire tali flussi. Diventano patrimonio comune concetti quali: teleoperazione (operazione effettuata in modo automatico sulla base di ordini impartiti a distanza e gestiti da una rete di elaborazione); separazione (rete formata da fabbriche senza uomini e fabbriche senza macchine, integrate opportunamente attraverso una rete: ➔ fabbrica); modularità (pochi macrocomponenti con elevata flessibilità, ottenuta attraverso opportuni apparati di gestione automatica delle operazioni, in grado di soddisfare le più diverse esigenze produttive); integrazione (capacità di mettere insieme senza problemi macrocomponenti eterogenei, garantendo, attraverso interfacce informatizzate, correttezza, efficienza ed efficacia di comportamento); producibilità (capacità di prevedere, attraverso simulazione al calcolatore, il comportamento di un sistema produttivo ed eventualmente di un mercato, a fronte dell’introduzione di un nuovo prodotto, specificato attraverso un supporto informatizzato); supporto alle decisioni (capacità di fornire al decisore, attraverso un supporto informatico in rete, un quadro chiaro dell’ambiente, delle alternative esistenti e delle loro caratteristiche tecnico-economico-organizzative).
Un sistema informativo è un sistema che organizza e gestisce in modo efficace ed efficiente le informazioni necessarie per l’utente. In particolare provvede, con modalità prefissate e attraverso opportuni apparati di acquisizione, alla raccolta e all’aggiornamento dei dati e delle informazioni relative a una data applicazione, alla loro memorizzazione in modo che siano persistenti e disponibili all’utente, alla loro distribuzione da e verso le varie parti del sistema, alla loro elaborazione per porli in un formato adatto alle diverse esigenze del sistema e degli utenti, alla loro presentazione in un formato utilizzabile da operatori e utenti. I primi sistemi informativi, nati nella maggioranza dei casi per gestire l’amministrazione di imprese ed enti di diverso tipo, erano semplici archivi dati, organizzati in forma tabellare, il cui aggiornamento e la cui gestione era svolta da operatori umani. Lo sviluppo dei sistemi informativi ha seguito lo sviluppo dei sistemi di elaborazione e delle capacità di progettare e gestire grandi quantità di dati e informazioni. La tendenza è verso l’automazione e l’integrazione delle diverse funzioni in un ambiente eterogeneo e aperto verso i collegamenti con l’esterno. Il primo calcolatore commerciale (Univac I) fu consegnato nel 1951 al Bureau of Census degli USA, per gestire le informazioni relative al censimento, mentre il primo calcolatore destinato all’industria privata fu installato nel 1954 presso uno stabilimento della General Electric, per la gestione della produzione di elettrodomestici.
Con lo sviluppo delle reti (geografiche e locali) e delle basi di dati (concentrate e distribuite), i sistemi informativi diventano oggetti sempre più complessi e integrati con la struttura organizzativa delle imprese e degli enti che contribuiscono a gestire. Nell’ambito della progettazione e produzione industriale le opportunità offerte da sofisticati sistemi informatici hanno portato a profonde modifiche del modo di operare: il sistema informatico gestisce il flusso delle informazioni e le sue interazioni con il mondo fisico, con cui è collegato dagli apparati di acquisizione dei dati e delle informazioni e dai sistemi di attuazione degli interventi stabiliti dal sistema decisionale, e con il sistema decisionale, a cui fornisce informazioni opportunamente organizzate e da cui riceve decisioni; il decisore (progettista, responsabile della produzione o semplice operatore) effettua le sue scelte sulla base di una immagine informativa della realtà e le implementa attraverso opportuni flussi di informazione, richiedendo al sistema informativo una risposta sempre più rapida, completa e affidabile in entrambe le direzioni. Nell’ambito del commercio e dei servizi l’introduzione di sistemi informativi sempre più potenti ha cambiato e condiziona molti aspetti della nostra vita e si è diffuso nelle aree applicative più diverse. A causa della sempre maggiore integrazione tra sistema organizzativo, inteso come l’insieme delle risorse e delle procedure che consentono il funzionamento di una qualsiasi struttura sociale per il raggiungimento dei suoi obiettivi, e sistema informativo, tendono a essere sempre meno netti i confini tra progettazione, gestione e manutenzione del sistema; in effetti, un sistema informativo è sempre più un oggetto che evolve nel tempo insieme all’ambiente che lo circonda e da esso sempre meno separabile.
Si designa con l’espressione i. giuridica la disciplina che studia gli aspetti giuridici della rivoluzione tecnologica, economica e sociale prodotta dall’elaborazione automatica dell’informazione. Essa si avvale soprattutto di elaboratori elettronici e della microfilmatura per la conservazione di un copioso numero di informazioni, o meglio, di dati giuridici (la legislazione, la giurisprudenza e la dottrina). Più in particolare, l’i. giuridica documentaria riguarda la conservazione di documenti di notevole importanza e dei quali deve essere garantita una conoscibilità legale (registri di stato civile, registri immobiliari, registro delle imprese ecc.). Sviluppata con sistemi di avanguardia negli Stati Uniti, e in grande crescita anche nell’Unione Europea, è l’automazione dei pubblici uffici e, specialmente, di quelli amministrativi (i. di gestione amministrativa), finanziari (i. tributaria), parlamentari (i. parlamentare) o giudiziari (i. giudiziaria). Nelle sue varie applicazioni, l’i. giuridica è finalizzata a garantire una informazione ordinata dei dati giuridici archiviati attraverso la predisposizione di un sistema di ricerca basato su un linguaggio appositamente elaborato. Essa ha inoltre dato vita al cosiddetto diritto dell’i., costituito dall’insieme delle disposizioni dirette a regolare gli effetti dell’i. giuridica nei diversi campi del diritto.
Su impulso di una raccomandazione del Consiglio d’Europa (del 13 settembre 1989), la l. 547/1993 ha introdotto nel codice penale e nel codice di procedura penale italiano una serie di reati caratterizzati dall’impiego, come oggetto o mezzo del reato, di un sistema informatico o telematico. Sotto il profilo sistematico, le fattispecie delittuose sono state poste accanto alle figure di reato già esistenti. Tra queste, si ricordano: la diffusione di programmi diretti a danneggiare o interrompere un sistema informatico (art. 615 quinquies c.p.); la violazione della corrispondenza e delle comunicazioni informatiche e telematiche (art. 616, 617 quater, 617 quinquies, 617 sexies c.p.); il danneggiamento di sistemi informatici o telematici (art. 635 bis c.p.); la frode informatica (640 ter).
Strumenti tecnologici e metodi di indagine. - L’esperienza di applicazione dell’i. alle discipline umanistiche ha dimostrato come le tecniche e i metodi impiegati in un settore di studio tendano ad avere ripercussioni in altri più o meno contigui o a ispirarne di nuovi fondati su una visione interdisciplinare. Esistono settori condivisi, crocevia per molte applicazioni umanistiche (analisi testuale, organizzazione delle basi di dati), e, accanto a questi, campi che assumono rilievo per tutta la ricerca umanistica (gestione dei documenti d’archivio, automazione delle biblioteche e risorse bibliografiche).
L’introduzione di macchine per l’elaborazione automatica negli studi umanistici risale alla fine degli anni 1940, ma già durante la Seconda guerra mondiale si erano fatti tentativi di automazione nel trattamento di dati linguistici per la composizione crittografica di messaggi e la traduzione assistita dai primi rudimentali calcolatori. Per poter parlare propriamente di i. bisogna attendere gli anni 1960: il termine fu allora usato per designare non solo le innovazioni tecnologiche che hanno permesso di costruire gli elaboratori elettronici digitali, ma anche il complesso di conoscenze teoriche che sono alla base del funzionamento delle macchine e assicurano lo sviluppo di metodologie applicative coerenti. Dalla interazione tra strumenti tecnologici precisi e metodi di indagine coerenti si producono nuovi mezzi per la ricerca, in grado a loro volta di determinare nuove conoscenze e risultati originali, dando luogo a ricadute sia autonome sia nei due distinti domini d’origine. Per es., la formalizzazione delle regole (algoritmi) per l’analisi del vocabolario, del contenuto, della sintassi e dello stile di un testo, o per la traduzione automatica, costituisce il requisito indispensabile per la realizzazione di ‘sistemi esperti’ in vari settori degli studi umanistici, di sistemi per la traduzione assistita o per la sintesi automatica dei suoni e del parlato. La linguistica computazionale rappresenta il punto di convergenza delle competenze originarie dei due domini, ma fenomeni simili si osservano in altri settori come la didattica, la storia e l’archeologia.
Le esperienze. - Sul finire degli anni 1940, con l’aiuto di macchine elettrocontabili operanti su schede perforate, R. Busa condusse i primi esperimenti sottoponendo a trattamento il 3° canto dell’Inferno dantesco e inni liturgici di Tommaso d’Aquino, per poi dare inizio all’impresa di spoglio dell’intera opera dell’Aquinate (Index thomisticus). Tra il 1945 e il 1950 J.L. von Neumann e H.H. Goldstine progettarono la costruzione di un sistema di calcolo ad alta velocità: il nuovo elaboratore fu inaugurato nel 1952. A seguito delle ricerche sulla ricorsività e sulla macchina ideale condotte da Turing, von Neumann aveva maturato la convinzione che quel computer dovesse essere considerato non solo come ‘macchina da calcolo’, ma anche come l’automa in grado di influenzare i metodi di indagine e le attività di ricerca in ogni settore della scienza, comprese le scienze umane e sociali. Nel 1955, su proposta di O. Neugebauer, specialista di storia della matematica e dell’astronomia dell’antichità, il computer fu utilizzato per la compilazione automatica di effemeridi relative al Sole, alla Luna e ai pianeti osservabili a occhio nudo. Queste tavole numeriche, con le coordinate degli astri a intervalli prefissati e uguali fra loro, avrebbero potuto essere utilizzate per la datazione di registrazioni astronomiche e quindi di avvenimenti storici, dal 600 a.C. all’1 d.C. Grazie ai nuovi strumenti di calcolo, l’impiego di metodi quantitativi e statistici cominciò a diffondersi in vari settori degli studi umanistici (storia, archeologia e linguistica), mutuando tecniche e metodi applicativi da discipline affini (sociologia, psicologia, economia). Nell’ambito della storiografia, dalla seconda metà degli anni 1950 lo sviluppo di un orientamento quantitativo portò, sotto l’influsso della scuola delle Annales e della storia sociale di E. Labrousse, a nuove impostazioni metodologiche. Negli Stati Uniti nasceva la cliometria; l’adozione di metodi matematico-statistici, contro lo storicismo culturale di matrice idealista, caratterizzava anche i movimenti culturali della new archaeology e della social archaeology.
L’applicazione di calcoli statistici automatici alla linguistica e all’analisi testuale e stilistica ha avuto come punti di riferimento gli studi di L. Brandwood (1956), P. Guiraud (1960), G. Herdan (1964) e C. Muller (1977). L’elaboratore elettronico permetteva di considerare quantità di dati che era impensabile dominare con gli strumenti tradizionali, e di sviluppare intuizioni e metodi. Si sono formati nuovi settori di studio (linguistica quantitativa, statistica linguistica, linguistica matematica, stilometria e lessicometria) volti a elaborare e compendiare dati numerici e verbali (statistica descrittiva), ma anche a comprovare l’attendibilità di modelli teorici, soprattutto nello studio di quei fenomeni linguistici che, non potendo essere dimostrati sulla base di un’elaborazione completa dei dati, presuppongono l’impiego di campionature esemplificative (statistica inferenziale).
Dalla seconda metà degli anni 1950 si diffuse anche la compilazione automatica di indici e concordanze testuali: repertori che raccolgono e documentano l’impiego di vocaboli e locuzioni all’interno di un’opera, mostrando simultaneamente tutti i brani in cui una determinata parola ricorre. Successivamente si sono affinate le procedure per la compilazione automatica di indici e concordanze e, con il perfezionamento tecnologico delle unità di output, si è arrivati a impaginare automaticamente i dati per la stampa in fotocomposizione, poi anche su microfiche. Il trattamento di quantitativi ingenti di dati pose problemi relativi ai costi di elaborazione e al recupero puntuale dell’informazione. Per ovviare a questi inconvenienti, si dovettero attendere memorie di massa più capaci e interattive, in grado di dare una maggiore dinamicità ai programmi di elaborazione, integrando funzioni fino a quel momento svolte solo in una sequenza di fasi successive. Si avviava la fase caratterizzata dallo sviluppo dei programmi di gestione di banche e basi di dati, destinati ad assumere un ruolo di primo piano nell’ambito delle applicazioni umanistiche e dell’elaborazione dell’informazione.
Accanto all’evoluzione dei sistemi informatici per la gestione delle basi di dati, la diffusione di Internet ha contribuito a intensificare lo scambio di informazioni in rete nell’ambiente accademico e della ricerca; le reti di elaboratori e i sistemi distribuiti permettono alle stazioni di lavoro individuali di condividere le risorse di quella che è stata definita la biblioteca globale.
L’applicazione dei metodi matematico-statistici e l’uso delle tecnologie avanzate aprono nuove prospettive in campo archeologico. È stata la new archaeology in ambiente angloamericano a utilizzare per la prima volta i metodi delle scienze esatte per lo studio dei resti archeologici, dando inizio all’archeologia quantitativa: un campione significativo viene analizzato considerando una variabile, per es., la massa, il colore o lo stato di conservazione; i risultati vengono rappresentati graficamente ed elaborati statisticamente, tenendo conto della distribuzione spaziale dei reperti. Un ruolo particolare svolge, inoltre, l’archeometria, che si occupa di prospezioni, di analisi dei materiali e di metodi di datazione. Sono stati sperimentati con successo anche metodi di analisi statistica multivariata: di classificazione automatica (cluster analysis), di analisi fattoriale (dei componenti principali e delle corrispondenze) e di analisi discriminante, volta a enucleare gli elementi che più significativamente contribuiscono a caratterizzare ciascun gruppo di manufatti.
Per quanto riguarda l’organizzazione, la classificazione e la consultazione del materiale reperito, l’uso della grafica, integrato con informazioni alfanumeriche, ha dato luogo a nuove tipologie di gestione attraverso le banche dati e la cartografia computerizzata. Fondamentale è l’apporto delle tecnologie avanzate: il telerilevamento, che tramite sensori collocati su piattaforme terrestri, aeree e spaziali, consente di localizzare anche resti archeologici; i pacchetti informatici GIS (Geographic Information System) che, integrati da un archivio informatizzato dei dati sulle caratteristiche del contesto geografico, permettono una localizzazione sempre più precisa delle presenze archeologiche su di un territorio. L’uso del computer consente l’elaborazione di immagini tridimensionali e la loro animazione, attraverso simulazioni atte a verificare ipotesi.
Con l’uso del computer è collegato quello di Internet, che ha un ruolo sempre più importante nella diffusione delle informazioni. Nella rete è infatti possibile trovare specifici motori di ricerca con indicazione di siti archeologici variamente indicizzati, riviste, associazioni, banche dati, musei virtuali e forum. Tra le banche dati, particolare importanza rivestono i cataloghi delle biblioteche che permettono accurate ricerche bibliografiche. I musei virtuali, oltre a riprodurre musei reali, sono anche allestimento di nuovi musei: in rete si possono collegare opere provenienti da diversi musei, ma relative a uno stesso sito, a uno stesso tema, a una stessa epoca.
La musica è diventata una delle fonti di informazione trattate dall’i., al pari dei numeri, dei testi, della grafica e della visione. Ciò ha favorito lo sviluppo di importanti applicazioni in campo musicale e ha portato i sistemi informatici a diventare uno ‘strumento’ musicale di riferimento, inteso in senso assai più ampio rispetto all’accezione corrente, in quanto in grado di elaborare tutta l’informazione musicale, dal microlivello (il suono) al macrolivello (la forma). Si è prodotta così una sostanziale trasformazione dei metodi del fare musica, con il coinvolgimento di tutti i settori, dalla creazione alla produzione musicale, favorendo la nascita di nuove figure professionali. Un sistema informatico completo di opportuni programmi e periferiche svolge molte funzioni musicali. È strumento musicale polifonico e politimbrico; simula i suoni degli strumenti acustici oppure diventa il mezzo per comporre nuove sonorità elettroniche; svolge le funzioni di uno studio di registrazione audio per editing, elaborazione, montaggio di suoni e di brani musicali, stampa di CD audio; viene utilizzato nell’editoria musicale, nella ricerca musicologica, nell’archiviazione e nell’esecuzione automatica di partiture. Il compositore dispone di una grande varietà di strumenti ausiliari che lo assistono nelle diverse fasi del processo creativo e di realizzazione dell’opera. Inoltre, con l’evoluzione dei sistemi informatici multimediali, molte di queste funzioni possono essere messe in stretta relazione con il mondo della grafica, del video, dello spettacolo, della realtà virtuale e delle telecomunicazioni per ottenere prodotti artistici e culturali multimediali.
La musica informatica è nata nella seconda metà degli anni 1950, seguendo all’inizio due differenti linee di ricerca: una, orientata al trattamento simbolico dell’informazione musicale, studiava la codifica dei testi musicali, la generazione automatica di partiture per la composizione, le tecniche informatiche di analisi musicologica; l’altra (computer music), più attenta all’aspetto acustico e percettivo della musica, affrontava la codifica numerica dei suoni, la progettazione dei convertitori per dotare l’elaboratore di un’interfaccia audio con l’esterno e, quindi, le tecniche di analisi, sintesi ed elaborazione dei suoni. Fino agli ultimi anni 1970 le principali ricerche venivano svolte utilizzando elaboratori collettivi (mainframe) e programmi che imponevano lunghi tempi di attesa tra la formalizzazione dell’idea musicale e il suo ascolto. Con l’avvento degli elaboratori a monoutenza (minicomputers) si sono sviluppati i primi prototipi di sintesi e trattamento dei suoni in tempo reale, utilizzando periferiche particolari. Grazie a questi nuovi sistemi in tempo reale la musica può rientrare nella tradizione dell’esecuzione dal vivo. Si sono sviluppati i concerti di live electronics, in cui i sistemi in tempo reale generano eventi sonori complessi o trasformano dal vivo i suoni di voci o strumenti tradizionali (➔ elettronica).
Due innovazioni hanno contribuito alla diffusione dell’i. nel mondo musicale, specie nelle sue applicazioni più semplici: l’avvento dell’elaboratore personale (personal computer) e la definizione del codice di comunicazione, il musical instrument digital interface (➔ MIDI). Grazie al MIDI tali strumenti musicali elettronici possono essere collegati fra loro creando una rete di apparecchiature digitali in cui l’elaboratore personale è spesso il cuore del sistema. Nel corso degli anni è aumentato il predominio della tecnologia digitale nella musica, a livello sia professionale sia amatoriale.