Il contributo è tratto da Storia della civiltà europea a cura di Umberto Eco, edizione in 75 ebook
Il pensiero occidentale ha sviluppato due diverse concezioni della natura del mondo fisico: da una parte l’universo viene interpretato come un flusso continuo di materia-energia, che scorre nel tempo senza alcuna soluzione; dall’altra l’universo sarebbe un aggregato di particelle elementari “discrete” di materia-energia che evolve nel tempo. Le due interpretazioni si riflettono anche nelle modalità pratiche utilizzate per rappresentare il mondo, ovvero negli strumenti di misura che possono essere analogici e digitali. Gli aggettivi analogico e digitale sono diventati di uso comune soprattutto con l’avvento dei calcolatori e delle nuove tecnologie elettroniche.
Due diverse concezioni della materia dell’universo
“Un bit non ha colore, dimensioni o peso e può viaggiare alla velocità della luce. […] È un modo di essere: sì o no, vero o falso, su o giù, dentro o fuori, bianco o nero. […] Ma il mondo, come lo percepiamo, è qualcosa di essenzialmente analogico. Da un punto di vista macroscopico non è per niente digitale, è continuo.” ha scritto Nicolas Negroponte in Essere digitali (1995).
Sebbene l’uomo percepisca la maggior parte dei processi naturali come flussi “continui”, è innegabile che egli possieda fin dalla nascita una parte del corpo – per così dire – digitale : le dita della mano. Nonostante tale proprietà antropologica, l’umanità per millenni si è quasi del tutto disinteressata delle rappresentazioni discrete della realtà, anche perché l’universo che la circondava era dominato dall’analogia e dal fluire uniforme e ininterrotto del tempo. Se i segnali di fumo e quelli di luce possono essere considerati i prodromi della comunicazione digitale, si deve attendere il tardo Seicento perché Leibniz definisca con precisione il calcolo binario, un concetto che aveva preso forma a inizio secolo ma che egli standardizza suggerendo l’adozione della base 2, la più semplice possibile. George Boole, a metà Ottocento, approfondisce le ricerche sulla matematica binaria e dà origine alla cosiddetta algebra della logica (definita appunto booleana), tanto vicina a quella che governa i moderni computer da essere tuttora alla base del funzionamento di tali strumenti.
È proprio a partire dall’Ottocento, e in particolare con gli sviluppi delle nuove tecnologie legate all’elettricità, che al paradigma digitale viene riservato uno spazio sempre maggiore. Intorno agli anni Quaranta, si diffonde un nuovo medium che sarebbe poi stato preso a modello da tutti i sistemi telecomunicativi futuri: il telegrafo elettrico. Oltre alla componente hardware, Morse mette a punto un linguaggio (l’alfabeto Morse) che presuppone la digitalizzazione delle informazioni da trasmettere: il punto-linea è la prima applicazione pratica del sistema binario. Le stesse reti elettriche, nella loro semplicità, sono di natura essenzialmente digitale: all’interruttore della luce a gas, in cui si deve ruotare una manopola per far affluire la quantità di combustibile e quindi di illuminazione desiderata, succede quello elettrico che può assumere solo due posizioni, acceso (passaggio di corrente) o spento (apertura del circuito).
Sempre più nel corso dell’Ottocento e per tutto il Novecento il paradigma digitale ha sfidato quello analogico, specie nel settore delle comunicazioni: si pensi al telegrafo, alla commutazione telefonica, alla televisione meccanica di Jenkins e Baird – un dispositivo che attraverso un disco forato a spirale scompone l’immagine in righe composte da una serie di impulsi luminosi che, colpendo una batteria di fotocellule, si convertono in impulsi elettrici – che si contrappone a quella elettronica di Zworykin, basata sull’introduzione dell’inoscopio, apparato capace di tradurre immagini in segnali elettronici, alla generazione dei calcolatori elettromeccanici soppiantati da quelli elettronici.
È il caso di ricordare l’opera dello scienziato e influente teorico della società tecnologica Vannevar Bush, che sviluppa, a partire dagli anni Trenta del Novecento una serie di calcolatori analogici per risolvere le complesse equazioni differenziali necessarie per descrivere una rete di distribuzione della corrente elettrica o l’oscillazione dei ponti in condizioni ventose o per calcolare lo scattering, ossia la diffusione di elettroni da parte di atomi. Nel 1931 Bush costruisce il primo analizzatore differenziale che utilizza tre elementi: integratori, ingranaggi per la moltiplicazione di costanti e ingranaggi differenziali per addizione e sottrazione. Frustrato per la lentezza e l’inaccuratezza delle componenti meccaniche, egli in modelli successivi ne rimpiazza alcune con valvole termoioniche per immagazzinare informazioni. Benché mastodontici, lenti e macchinosi, gli analizzatori di Bush sono largamente utilizzati durante la seconda guerra mondiale per calcoli balistici, insieme a un comparatore ibrido (analogico e digitale) progettato dallo stesso Bush per decifrare i codici segreti. Mentre continua la ricerca sui calcolatori digitali, basati su dispositivi elettrici e magnetici che possono trovarsi in uno di due possibili stati, i computer analogici sono largamente usati e, a metà degli anni Cinquanta, al MIT di Boston metà del lavoro settimanale di elaborazione dati è già svolto da calcolatori analogici.
È proprio intorno alla metà degli anni Cinquanta che i due termini analogico e digitale cominciano a essere pensati come coppia antinomica ed entrano a far parte del senso comune con un noto esempio divulgativo: il concetto di analogico viene associato a un classico orologio a lancette, in cui minuti e secondi scorrono senza alcuna interruzione in un fluire continuo, mentre il digitale è rappresentato da un altro modello di orologio, quello digitale, appunto, in cui sono visibili solamente le cifre che indicano ore, minuti e secondi, ma non è visibile lo scorrere uniforme degli stati intermedi.
I dispositivi digitali godono di diversi vantaggi, primo fra tutti il fatto che consentono di sviluppare qualsiasi grado di accuratezza nella gestione di un calcolo soltanto incrementando il numero di cifre usato. Mentre i dispositivi analogici sono limitati e non possono essere più accurati delle loro componenti meccaniche, anche se rispondono in modo più immediato e consentono di rappresentare interi sistemi fisici. I computer digitali hanno quindi eclissato quelli analogici come conseguenza dell’evoluzione di microcomponenti elettronici sempre più veloci, più piccoli e più economici. I calcolatori analogici o ibridi sono rimasti in uso per i controlli cosiddetti real-time e le simulazioni, ovvero hanno trovato a lungo applicazione nelle centrali nucleari, nell’industria chimica e per i simultatori di volo.
La rivoluzione digitale
Il lavoro di Vannevar Bush sarà continuato da un suo studente, Claude Shannon che si dedicherà alla progettazione di circuiti digitali. Shannon risolverà anche teoricamente il controverso rapporto tra analogico e digitale in un articolo pubblicato in due parti nel 1948 sul “The Bell System Technical Journal” con il titolo Una teoria matematica della comunicazione. Si tratta di un classico della storia della scienza del Novecento, le cui tesi sono state riproposte in una chiave teorica ancor più generale nel 1963 in La teoria matematica della comunicazione, scritto dallo stesso Shannon e da Warren Weaver. In quest’ultimo articolo si sostiene la teoria secondo cui ogni decisione nella comunicazione umana (anche quelle che devono essere assunte fra più alternative) può essere ridotta a una scelta di carattere binario. Questa corrente di pensiero, ampiamente criticata e rivista in molte sue parti dagli studiosi contemporanei dei mass media, ha anticipato uno dei paradigmi fondamentali della cosiddetta società digitale : la possibilità cioè di ridurre a una alternativa binaria ogni tipo di dato e, conseguentemente, di tradurre tutte le informazioni immaginabili in un unico linguaggio, i cui soli due caratteri sono lo 0 e l’1. È questo il presupposto indispensabile e il vero significato della rivoluzione digitale attualmente in atto, in cui stringhe di bit (binary digit) possono rappresentare indifferentemente testi scritti, immagini (attraverso un processo di “pixelizzazione”) o suoni (campionati ed eventualmente compressi con apposite tecniche).
C’è un seconda conseguenza altrettanto rivoluzionaria legata a questo aspetto: il computer sta centralizzando e assorbendo le funzioni di svariati media precedenti, dalla macchina da scrivere al fonografo, dalle apparecchiature di videoregistrazione al quaderno da disegno. Dal momento che tutte le informazioni sono traducibili nello stesso lessico, ossia possono essere digitalizzate, è ormai sufficiente un unico strumento di lettura dei bit, capace di elaborare e riconvertire i dati discreti in sequenze che a noi paiono continue.
La digitalizzazione ha modificato anche i meccanismi di trasmissione della conoscenza. Le informazioni scambiate dagli elaboratori transitano attraverso linee telefoniche progettate e costruite per trasferire il segnale fonico in forma analogica. I dati digitali, inviati dai PC, devono quindi essere prima convertiti in analogico per il trasporto su tali reti e poi ri-digitalizzati una volta giunti al computer ricevente: questo processo è gestito da una componente hardware che prende il nome di modem (parola nata, non a caso, dall’intersezione dei termini modulazione e demodulazione).
Tanto vasta è stata la diffusione del digitale che il passaggio a tale modello pare essere oggi una delle priorità dei governi occidentali: si pensi solo all’esempio delle reti telefoniche, sempre meno adeguate all’incrementale traffico di dati odierno e che solo nel corso degli ultimi anni si stanno convertendo alla trasmissione digitalizzata; si pensi anche all’adozione, ormai predefinita nei tempi e nei modi, della televisione digitale terrestre, che dovrebbe portare all’eliminazione delle frequenze analogiche del più importante mezzo di comunicazione di massa a livello mondiale.