La seconda rivoluzione scientifica: fisica e chimica (1945-1960). L'elettronica e il calcolo
L'elettronica e il calcolo
Negli anni 1945-1946 fu resa pubblica la definizione di 'calcolatore a programma memorizzato', delineatasi in seguito al lavoro svolto per la messa a punto del primo elaboratore elettronico, l'ENIAC (electronic numerical integrator and calculator); iniziò così la 'corsa' alla costruzione di nuove macchine. L'esperienza accumulata nei progetti sviluppati durante la guerra, con l'impiego di innovazioni elettroniche (in particolare i radar) e di tecniche di decifrazione di messaggi in codice, si rivelò molto importante per il successo dell'operazione. Inoltre gli investimenti per la ricerca e lo sviluppo resi disponibili nel periodo bellico da società elettriche, elettroniche e delle comunicazioni avrebbero avuto esiti significativi in tempo di pace.
Lo sviluppo del transistore nei Bell Laboratories rivoluzionò in modo ancora più straordinario l'elettronica dello stato solido, potendosi giungere infine ai processi di miniaturizzazione che trasformarono le tecnologie commerciali, scientifiche e militari del dopoguerra.
Il matematico John von Neumann (1903-1957), venuto a conoscenza del progetto ENIAC, a partire dal settembre 1944 era divenuto un assiduo visitatore della Moore School of Electrical Engineering della University of Pennsylvania. Egli era giunto troppo tardi per contribuire al progetto della macchina, ma ancora in tempo per essere coinvolto nel progetto successivo che il gruppo di lavoro dell'ENIAC stava pianificando: il calcolatore EDVAC (electronic discrete variable automatic computer). La grande idea alla base dell'EDVAC era che la nuova macchina avrebbe dovuto memorizzare le istruzioni da eseguire (il 'programma') per essere in grado di svolgere internamente operazioni di calcolo numerico. Memorizzando il programma nello stesso formato dei dati, si poteva ottenere la sincronizzazione delle varie operazioni e, cosa ancora più importante, si poteva delegare al calcolatore la scelta delle logiche che governano le sequenze di elaborazione.
L'idea di un calcolatore a programma memorizzato (realizzata nei primi 'veri' calcolatori) fu divulgata nel 1946 in un corso estivo organizzato dalla Moore School; oltre a scienziati statunitensi, seguirono queste lezioni anche studiosi provenienti dalla Gran Bretagna e alcuni docenti della Manchester University e della Cambridge University. Per vincere la corsa alla costruzione del calcolatore si rivelò decisiva la messa a punto di un sistema elettronico per la memorizzazione dei dati e fu questa necessità a ritardare la produzione dei calcolatori americani e di quelli di Cambridge.
Da una parte all'altra del mondo industrializzato molti scienziati, ingegneri e matematici, che durante la guerra avevano lavorato su alcuni progetti nei laboratori militari e industriali, ritornarono nelle università. Tra questi Max Newman (1897-1984) e Irving J. Good, i quali avevano partecipato, presso il World War II Code Breaking Centre di Bletchley Park, al progetto sulla decodifica dei codici militari tedeschi (German enigma codes) e che a quel tempo cominciarono a lavorare presso la Manchester University. Newman si assicurò una borsa di studio della Royal Society allo scopo di iniziare la progettazione di un calcolatore; in modo del tutto indipendente arrivarono alla stessa università due ingegneri elettrici, Frederic C. Williams e Tom Kilburn, i quali avevano lavorato sui radar nello stabilimento di ricerca sulle telecomunicazioni. Williams portò con sé un componente tecnologico fondamentale: una memoria elettronica nota come 'tubo di Williams'. Questa memoria consentì al gruppo di lavoro di Manchester di completare il primo prototipo di calcolatore elettronico, basato sul modello dell'EDVAC, sul quale fu eseguito un programma il 21 giugno 1948. Tale macchina era ancora in una fase sperimentale e sebbene fosse di grandi dimensioni (tali da occupare una stanza), era dotata soltanto di 32 'parole di memoria', ciascuna di 32 bit. A partire dal 1949 il prototipo fu migliorato con l'aggiunta di una memoria espansa e con i primi 'registri indice', e rinominato Mark I.
Con i fondi messi a disposizione dal Dipartimento governativo britannico per la ricerca e lo sviluppo militare, un'azienda elettronica locale, la Ferranti, trasformò il Mark I di Manchester in una macchina commerciale denominata Ferranti Mark I. Installata alla Manchester University, essa fu utilizzata per ricerche matematiche e scientifiche da un gruppo di lavoro di cui faceva parte Alan M. Turing (1912-1954), il quale ne redasse il manuale di programmazione; tra le varie applicazioni va ricordata la realizzazione per una società britannica di radiodiffusione della prima 'musica elettronica'. La collaborazione tra la Ferranti e la Manchester University continuò per due decadi, favorendo la produzione di calcolatori sempre più veloci, la maggior parte dei quali utilizzati per la ricerca scientifica, inclusi il Ferranti Mercury (1957) e il Ferranti Atlas (1962). Dopo l'Atlas, gli sforzi degli inglesi furono di gran lunga superati dai supercalcolatori americani prima e giapponesi poi.
Nel 1949 alla macchina di Manchester si aggiunse un nuovo calcolatore, l'EDSAC (electronic delay storage automatic calculator), realizzato nel Mathematical Laboratory della Cambridge University da un gruppo di lavoro guidato da Maurice V. Wilkes. Il progetto di questo computer si ispirava all'EDVAC, le cui specifiche tecniche erano state fatte pervenire a Wilkes da Leslie J. Comrie (1893-1950), che le aveva ottenute agli inizi del 1946 durante una visita alla Moore School. Diversamente dal Manchester Mark I, la nuova macchina adottava la tecnologia di memorizzazione basata sui 'tubi di memorie acustiche', costituiti da supporti contenenti un liquido (in genere mercurio) nei quali i dati venivano diffusi e memorizzati sotto forma di impulsi acustici. Questi supporti erano stati prodotti a partire dagli anni Quaranta e, nonostante fossero di uso non agevole, erano stati utilizzati con successo nei sistemi radar. Inoltre l'EDSAC era una macchina più grande e più potente del Mark I; con essa il gruppo di lavoro di Cambridge introdusse molte innovazioni nell'informatica; in particolare, i componenti software furono raccolti e memorizzati nelle cosiddette 'librerie di subroutine', disegnate da Wilkes e costituite da piccoli programmi (i subroutine appunto), ognuno preposto allo svolgimento di una specifica funzione d'automazione. In breve tempo i calcolatori sarebbero stati costruiti in altre nazioni europee (l'Italia, per es., aveva avviato nel 1954 quattro progetti per la produzione di calcolatori a programma memorizzato).
Può sorprendere il fatto che i primi due calcolatori a programma memorizzato siano stati costruiti a migliaia di miglia dal luogo dove nacque l'idea che fu alla base della loro progettazione. La ragione era dovuta soltanto parzialmente alla presenza in Gran Bretagna di ingegneri esperti di sistemi radar; in effetti anche la Germania aveva i suoi esperti ‒ in particolare Konrad Zuse (1910-1995), trasferitosi però in Svizzera prima della fine della guerra ‒, ma la grave crisi economica che stava attraversando impediva lo sviluppo di un tale programma. Del resto soltanto negli Stati Uniti, dove il concetto di programma memorizzato era già stato acquisito, operavano scienziati con l'esperienza tecnica necessaria per realizzarlo e l'economia era in grado di sostenere un'industria nascente.
John Presper Eckert e John W. Mauchly, i due responsabili del gruppo di lavoro dell'ENIAC, erano determinati a trasformare la loro idea in un'industria redditizia. Essi avevano elaborato un progetto per la produzione del calcolatore UNIVAC (universal automatic computer) e miravano a farsi assegnare commesse da aziende del settore per disporre dei finanziamenti necessari, confidando sul fatto di ottenerli non appena l'ufficio del censimento degli Stati Uniti avrebbe firmato il relativo contratto.
La Computer Corporation (la società di Eckert e Mauchly) incontrò presto alcuni problemi, in quanto aveva adottato la complessa tecnologia dei tubi di memorie acustiche: i finanziamenti cominciarono a esaurirsi prima di averne concluso la sperimentazione. La società era impegnata anche su un altro fronte riguardante l'esecuzione di un ordine, acquisito precedentemente, della Northrop Aircraft Corporation per la produzione del calcolatore BINAC (binary automatic computer), che consentì un consistente introito assorbendo però per un certo tempo quasi tutte le risorse aziendali. Questi impegni rallentarono la produzione dell'UNIVAC; un'altra causa di ritardo furono con ogni probabilità gli orientamenti politici di Mauchly, ovvero le sue presunte 'simpatie comuniste', che si pensa abbiano condizionato e limitato i finanziamenti federali a favore della Computer Corporation. Nel 1951, anno della produzione dell'UNIVAC, la società di Eckert e Mauchly era un'azienda sussidiaria interamente posseduta dalla Remington Rand, produttrice di macchine per ufficio.
La prima generazione di calcolatori commerciali (1950-1959) utilizzava come tecnologia di base valvole termoioniche. In Gran Bretagna, al Ferranti Mark I si aggiunsero sul mercato altri calcolatori, dedicati per la maggior parte alle applicazioni scientifiche. Un'eccezione sorprendente fu il LEO (lyons electronic office), modellato sull'EDSAC di Cambridge ma progettato per l'automazione del lavoro di ufficio dall'industria di ristorazione Lyons & Co. Il mercato dei calcolatori iniziò a crescere soprattutto negli Stati Uniti.
Quando la Remington Rand cominciò a proporre l'UNIVAC, la sua grande rivale, l'IBM, era già in grado di competere validamente sul mercato. Sebbene il coinvolgimento nel progetto per l'Harvard Mark I e i contratti per i calcolatori da adibire alla ricerca per la difesa avessero già impegnato l'IBM nel settore del calcolo elettronico, per la completa riconversione dell'azienda dall'elaborazione meccanica dei dati alla produzione di calcolatori elettronici si doveva attendere l'esito della storica battaglia per il controllo della compagnia, tra Thomas J. Watson sr (1874-1956) e Thomas J. Watson jr (1914-1993). Un progetto militare, il Defense calculator, fu riconvertito nel programma finalizzato alla realizzazione di un calcolatore a uso scientifico civile, pubblicizzato con grande enfasi nel dicembre 1952 con il nome IBM 701; il calcolatore per l'elaborazione di dati commerciali prodotto attraverso un progetto precedente fu messo sul mercato nel 1953 con il nome IBM 702 (utilizzava i tubi di Williams, in licenza, e non i tubi di memorie acustiche).
L'IBM divenne il principale produttore di calcolatori dopo il suo coinvolgimento in un progetto essenziale per la guerra fredda: il SAGE (semi-automatic ground environment). Nel 1945 Jay W. Forrester, allora vicedirettore del laboratorio dei servomeccanismi del Massachusetts Institute of Technology (MIT), propose il progetto Whirlwind, inizialmente concepito per la predisposizione di un apparato di addestramento aereo basato su calcolatore. Il progetto avrebbe subito varie modifiche prima di essere completato; inizialmente pensato per adottare tecniche di calcolo analogiche, fu convertito alle tecniche digitali in seguito ai risultati conseguiti dal progetto ENIAC. Per quanto riguarda la tecnologia di memoria dei calcolatori Whirlwind, Forrester scartò sia i tubi elettrostatici sia i tubi di memorie acustiche, perché troppo lenti per consentire l'elaborazione in tempo reale di cui necessita un apparato di addestramento aereo, e nel 1949 scelse una nuova tecnologia: le memorie a nuclei di ferrite. In quell'anno l'esplosione della prima bomba atomica russa aveva inasprito le tensioni della guerra fredda e milioni di dollari del patronato militare erano a disposizione per lo sviluppo dei sistemi di difesa aerea. Forrester rimodellò il progetto Whirlwind nell'unità centrale di calcolo del SAGE che, elaborando le informazioni inviate dalle reti radar, forniva i dati per i bombardieri muniti di ordigni nucleari. Il SAGE venne infine completato nel 1963 con un costo stimato pari a otto miliardi di dollari. L'IBM fu scelta per trasformare il prototipo dei calcolatori Whirlwind nella versione finale del progetto, l'IBM AN/FSQ-7, i cui esemplari furono installati in ciascuno dei 23 centri di direzione collegati con il SAGE.
L'IBM ottenne inoltre l'accesso alle innovazioni tecnologiche introdotte con il progetto Whirlwind, che comprendevano non soltanto le memorie a nuclei di ferrite ma anche nuove tecniche per la programmazione e per la rappresentazione grafica dei dati. Il calcolatore della IBM che consentì all'azienda di vincere la competizione con la Remington Rand fu l'IBM 1401, annunciato nel 1959 e il cui primo esemplare venne consegnato nel 1960; era più economico, più veloce e più affidabile dei suoi rivali grazie al fatto che conteneva memorie a nuclei di ferrite. Il nuovo calcolatore era disponibile con un gran numero di periferiche, quali i lettori di schede e le macchine perforatrici per l'acquisizione dei dati, le unità a nastri magnetici per una memoria versatile e stampanti veloci; esso aveva anche un nuovo sistema di programmazione, chiamato report program generator, che rendeva la programmazione relativamente semplice. I suoi vantaggi erano efficacemente evidenziati da un settore marketing altamente motivato e organizzato e l'azienda fu in grado di collocare sul mercato oltre dodicimila sistemi IBM 1401, contro i mille delle iniziali previsioni di vendita. In meno di un decennio l'industria dei calcolatori a programma memorizzato era divenuta un business.
Il livello di formalizzazione più basso con cui si può redigere un programma è costituito dal linguaggio macchina espresso in codice binario. Per esempio, nell'EDSAC l'istruzione 'aggiungi il numero nella posizione di memoria 25' poteva essere correttamente interpretata dal calcolatore soltanto se memorizzata nella forma 111000000000110010. La caratteristica del codice binario di essere oggettivamente poco intuitivo ha indotto lo sviluppo dei sistemi e dei linguaggi di programmazione.
Inizialmente tutti i gruppi di ricerca sui calcolatori a programma memorizzato individuarono alcune notazioni che trasformavano la rappresentazione binaria in qualcosa di più agevolmente comprensibile. Il gruppo di lavoro dell'EDSAC, per esempio, riscrisse l'istruzione precedente come 'A 25 S'. Il compito ripetitivo e suscettibile d'errore di determinare l'equivalente binario di un'istruzione come quest'ultima poteva tuttavia essere automatizzato e affidato a un calcolatore, esonerando in tal modo i programmatori da tale onerosa incombenza. David J. Wheeler, membro del gruppo di lavoro dell'EDSAC, nel 1948 ideò questo programma di automazione, chiamato Initial orders, prima che il calcolatore di Cambridge fosse operativo. Per quanto riguarda l'UNIVAC, Grace Hopper, che nel 1943 era divenuta la prima programmatrice dell'Harvard Mark I, sviluppò un sistema automatico di programmazione che denominò 'compilatore A-O'. Il nome di ogni programma di questo tipo divenne successivamente 'compilatore'.
Non appena i produttori cercarono di creare un mercato per i calcolatori, l'inefficienza dei primi compilatori divenne evidente. Nel 1953 John Backus, un giovane ricercatore dell'IBM, si adoperò per sviluppare un approccio più efficiente e sofisticato. Egli dimostrò che la programmazione e la relativa ricerca degli errori rappresentavano i tre quarti del costo operativo di un calcolatore, incidenza che sarebbe aumentata solamente in funzione delle dimensioni e della complessità dei programmi. Il gruppo di lavoro dell'IBM, che era guidato da Backus, produsse un traduttore di formula, il linguaggio di programmazione FORTRAN (formula translation). Il programma era molto grande rispetto ai canoni della metà degli anni Cinquanta: diciottomila istruzioni scritte da una dozzina di programmatori. Lanciato nel 1957, il FORTRAN fu venduto come parte del pacchetto fornito con i calcolatori IBM, favorendone in tal modo il predominio tra i linguaggi di programmazione dell'epoca. Inoltre i programmi FORTRAN erano forniti insieme a manuali di documentazione e potevano essere trasferiti da macchina a macchina con relativa facilità.
Il FORTRAN divenne in breve tempo il linguaggio di uso comune per le applicazioni di calcolo scientifico, mentre non era idoneo per l'elaborazione di dati commerciali. Fu compito del dipartimento della Difesa degli Stati Uniti favorire gli immensi risparmi economici che sarebbero derivati dallo sviluppo di un comune linguaggio commerciale. Nel 1959 il dipartimento della Difesa riunì la Conference on Data Systems Languages per coinvolgere le parti interessate e per concentrare gli sforzi. Ne risultò il COBOL (common business oriented language), basato in modo parziale sui compilatori di Hopper e sul suo linguaggio di programmazione Flow-Matic per l'UNIVAC. Nel 1960 il governo degli Stati Uniti annunciò che non avrebbe affittato o acquistato calcolatori che non fossero in grado di utilizzare il COBOL, dando così ulteriore impulso al processo di standardizzazione. Il COBOL e il FORTRAN rappresentarono oltre il 90% dei programmi applicativi degli anni Sessanta e Settanta.
Un fattore decisivo per il successo dell'IBM 1401 fu la sostituzione delle valvole con componenti propri dell'elettronica dello stato solido, prevalentemente i transistor. Dalla metà degli anni Cinquanta fino a oggi i calcolatori sono divenuti sempre più economici, più veloci, meno ingombranti e più potenti grazie ai continui progressi dell'elettronica dello stato solido. Una prima rivoluzione avvenne con l'invenzione, nel dicembre 1947, di un componente allo stato solido in grado di amplificare la corrente: il transistor. Così come per la storia del calcolatore, le fasi attraverso le quali la tecnologia dei transistor divenne sempre più affidabile e infine diffusa a livello capillare rappresentano la storia dell'influenza reciproca fra interessi commerciali e militari.
Il transistor fu inventato da tre ricercatori dei Bell Laboratories, John Bardeen (1908-1991), Walter Brattain (1902-1987) e William Shockley (1910-1989), i quali condivisero nel 1956 il premio Nobel per la fisica. Shockley, dopo aver conseguito un PhD presso il MIT con una tesi sulle bande energetiche del cloruro di sodio cristallino, si era trasferito prima a Princeton e successivamente ai Bell Laboratories, dove la ricerca aveva raggiunto un livello di eccellenza con Mervin Kelly (1894-1971). Prima di trasferirsi ai Bell Laboratories, anche Bardeen passò attraverso Princeton, dove Brattain lavorava dal 1929.
Alcuni mesi prima dell'entrata in guerra degli Stati Uniti, Brattain fu testimone della dimostrazione, da parte di Russell Ohl ‒ suo collega alla Bell ‒ del grande salto di tensione che si verifica quando un raddrizzatore al silicio viene esposto alla luce. La causa di tale fenomeno era a quel tempo misteriosa, ma sembrava dipendere dalla presenza di due tipi di silicio: uno 'commerciale', più povero, e uno 'purificato'. Brattain ipotizzò che l'effetto fosse il risultato di una 'barriera' formatasi nella giunzione tra i due tipi di silicio.
La guerra concentrò la ricerca presso i Bell Laboratories su altri programmi: mentre l'innovazione elettronica divenne centrale nei progetti come il radar, non si considerò prioritario investigare il potenziale della scoperta di Ohl e dell'interpretazione di Brattain (la 'giunzione P-N'). Nel 1945, comunque, i laboratori americani erano diretti con una precisione invidiabile: le loro risorse erano intatte e gli esperti che vi lavoravano erano pronti per sfruttare i progressi realizzati durante la guerra.
Shockley già nel 1939 aveva tentato, senza successo, di ideare un amplificatore elettronico basato sulle proprietà semiconduttrici delle pellicole di ossido di rame. Quando nel 1947 Bardeen e Brattain, spingendo un conduttore di tungsteno in un blocco P-N di silicio ricoperto da un elettrolita, riuscirono a controllare e ad amplificare la corrente, egli fornì comunque alcuni suggerimenti in merito. Dopo un periodo di sperimentazione con materiali differenti (foglie di oro, germanio, glicol borato), l'effetto di amplificazione fu messo a punto. Nel dicembre dello stesso anno l'amplificatore a semiconduttore fu presentato ai dirigenti dei Bell Laboratories.
Shockley, volendo condividere la fama seguita ai successi concreti di Brattain e Bardeen, dopo alcune aspre dispute sui brevetti si dedicò a una febbrile attività di ricerca. Agli inizi del 1948 egli propose un'alternativa per la costruzione di un amplificatore a semiconduttore: la 'giunzione N-P-N o P-N-P'. A questo punto la difficile relazione tra Brattain e Bardeen da un lato e Shockley dall'altro arrivò a una definitiva rottura e tuttavia questi precari rapporti personali non giunsero a intaccare l'immagine pubblica dei tre scienziati, né quella dei Bell Laboratories, considerati come una struttura nella quale i gruppi di lavoro operavano in grande armonia. Kelly insisteva che ogni fotografia pubblicata di Brattain e Bardeen dovesse includere anche Shockley, che era più in alto nella scala gerarchica. Per presentare il transistor sul mercato, la società fece prevalentemente ricorso alla dimostrazione delle caratteristiche e dei vantaggi della nuova tecnologia alle forze armate e alla stampa.
L'industria dei semiconduttori fu influenzata da interessi militari e di mercato; Shockley sviluppò il transistor per utilizzare le granate da mortaio in prossimità delle spolette durante la guerra di Corea, mentre i missili balistici e i calcolatori della Difesa costituirono il mercato principale dalla metà alla fine degli anni Cinquanta. Nel frattempo la AT&T, proprietaria dei Bell Laboratories, in seguito alla minaccia di sanzioni dell'Antitrust mise in vendita i diritti di produzione dei transistor a venticinquemila dollari al pezzo. Fino al 1954 l'unica applicazione civile e commerciale dei transistor era nella nicchia di mercato delle protesi acustiche. Beneficiaria della vendita dei diritti di produzione dei transistor fu una piccola società, la Texas Instruments, titolare di contratti militari per la produzione di transistor al silicio.
Alla fine della guerra di Corea la Texas Instruments cercava nuovi mercati per diversificare la produzione e iniziò a produrre radioricevitori a transistor, ognuno dei quali conteneva quattro transistor al germanio. I radioricevitori a transistor della Texas Instruments erano piuttosto costosi; la produzione di un'elettronica economica per il consumatore fu invece una conquista dei giapponesi. L'ingegnere elettrico Masaru Ibuka e il fisico Akio Morita nel 1946 avevano fondato una società (la Tokyo Tsushin Kogyo, o Totsuko) e presto iniziarono a produrre piccoli registratori a nastro magnetico per le scuole e per le aule giudiziarie. Nel 1952 Ibuka visitò negli Stati Uniti la Western Electric, che stava cedendo i diritti del brevetto per il transistor a giunzione (uno sviluppo più avanzato della prima generazione di transistor a punta di contatto). Dopo un anno di negoziati la Western Electric concesse la licenza alla Tokyo Tsushin Kogyo. Nel 1955 l'azienda giapponese produceva radioricevitori a transistor pronti per il mercato; ne iniziò la vendita non appena informata che la Texas Instruments aveva deciso di non promuovere il proprio prodotto rivale. La società di Ibuka e Morita, che cominciò a esercitare la propria attività commerciale con un nome brillante e orecchiabile, Sony, avrebbe venduto con successo i prodotti dell'elettronica di consumo a un mercato di massa, superando la concorrenza americana.
Due ulteriori sviluppi nella tecnologia dell'elettronica dello stato solido si affermarono prima degli anni Sessanta: l'innovazione della tecnica planare, nella quale i transistor potevano essere prodotti in modo sicuro ed economico, e il circuito integrato, che accelerò la miniaturizzazione dell'elettronica. Con la tecnica planare, sviluppata nel 1958 dalla Fairchild Semiconductor Inc., si costruivano transistor operando su un solo lato di un sottile strato di materiale semiconduttore utilizzando la fotolitografia, con risparmi significativi nei costi di produzione.
L'idea di un circuito integrato era vincente: producendo tutte le componenti di un circuito elettrico su un singolo nastro di semiconduttore, i collegamenti elettrici potevano essere ridotti notevolmente e di conseguenza diminuivano anche i costi di produzione e quelli operativi. Il brevetto del primo circuito integrato fu depositato da Jack Kilby della Texas Instruments nel febbraio del 1959, sebbene l'idea fosse stata lanciata diverse volte negli anni precedenti.
La domanda per un'elettronica di dimensioni ridotte, più leggera e affidabile venne in gran parte dalle forze armate ‒ che ne avevano bisogno per le armi aviotrasportate ‒ e dalle applicazioni spaziali (per le quali peso, dimensioni e affidabilità sono relativamente più importanti dei costi). Del resto la crescita sia pure imponente della produzione di semiconduttori era dovuta sia all'accresciuta diversificazione del mercato sia alla domanda militare. Nel 1963 le forze armate utilizzarono transistor americani per un valore di centodiciannove milioni di dollari (dei quali trentatré per le applicazioni spaziali, ventidue per gli aeromobili e venti per i missili), l'industria per un valore di novantadue milioni di dollari (dei quali quarantuno per i calcolatori) e le tecnologie di largo consumo per un valore di quaranta milioni di dollari (dei quali venti destinati alle autoradio e dodici alle radio portatili). Da allora gli Stati Uniti dominarono progressivamente il mercato dell'elettronica dei semiconduttori.
Nel 1960 gli Stati Uniti impegnarono cinquecentosessanta milioni di dollari per dispositivi a semiconduttore, molto di più della spesa sostenuta congiuntamente da Gran Bretagna (ventotto milioni), Francia (ventisette milioni), Germania (venticinque milioni) e Giappone (cinquantaquattro milioni).
Pur essendo macchine di utilizzo generale, i primi calcolatori elettronici a programma memorizzato erano concepiti come strumenti per il calcolo matematico e scientifico. Non appena negli anni Cinquanta furono messi in vendita computer adibiti a un uso prettamente commerciale, un numero via via crescente di scienziati ebbe a disposizione macchine più veloci e dotate di potenza di calcolo superiore a quanto consentito in precedenza. Gli scienziati installavano i computer nei laboratori di lavoro, che furono ristrutturati seguendo due modelli fra loro differenti.
In base al primo, le attività di calcolo rimanevano in pratica le stesse ma venivano portate a termine in un tempo più breve oppure, a parità di tempo, era possibile elaborare una maggiore quantità di dati. Le conseguenze dei nuovi ritmi di lavoro furono notevoli. Negli anni Quaranta, per elaborare i dati necessari alla costruzione di strutture molecolari composte di circa cento atomi gli esperti di cristallografia a raggi X adottavano metodi di calcolo meccanici (come la tecnica di Hollerith), che furono impiegati persino per identificare la struttura a doppia elica del DNA, più grande. Negli anni Cinquanta, invece, per rendere più rapida l'elaborazione dei dati i computer a programma memorizzato cominciarono a essere impiegati da cristallografi come Dorothy Hodgkin della Oxford University e Max Perutz e John C. Kendrew della Cambridge University. Tutti e tre vinsero il premio Nobel per la chimica per avere individuato la struttura tridimensionale di molecole contenenti centinaia o addirittura migliaia di atomi: nel 1962 Perutz per l'emoglobina e Kendrew per la mioglobina, nel 1964 Hodgkin per la vitamina B12. Nella cristallografia a raggi X i computer erano dunque usati semplicemente come veloci strumenti di calcolo.
Con il secondo modello di ristrutturazione dei laboratori di lavoro l'uso del computer portò a ridisegnare radicalmente i processi scientifici coinvolti. Uno dei primi impieghi dei calcolatori elettronici a programma memorizzato consistette nello svolgimento dei calcoli necessari per la progettazione e l'effettuazione di test sulle armi nucleari; i microsecondi iniziali di una detonazione nucleare infatti erano, per la natura stessa del fenomeno, assai difficili da studiare direttamente in laboratorio e la conoscenza completa di certi dettagli, come la propagazione dell'onda d'urto, risultava cruciale nella progettazione di armi affidabili. Negli ultimi anni Quaranta fisici come von Neumann e Stanislaw Ulam (1909-1984), lavorando alla predisposizione delle prime bombe termonucleari, iniziarono a usare il computer per la simulazione di processi naturali mediante quello che oggi è noto come 'metodo Monte Carlo'. La simulazione al computer ‒ non gli esperimenti né la teoria, bensì l'uso di elementi tratti da entrambi ‒ offriva un nuovo modo di fare scienza e, in una forma addirittura estrema di tale approccio, intere discipline furono rimodellate considerando il computer stesso come soggetto attivo dell'indagine. La psicologia cognitiva, per esempio, negli anni Cinquanta sfruttò sempre più le elaborazioni del computer come modello per i processi della mente, mentre l'intelligenza artificiale (così chiamata a partire dal 1956) operava la connessione inversa, suggerendo la possibilità di descrivere in via preliminare ogni aspetto dell'apprendimento o di qualunque altra forma di intelligenza in modo talmente preciso da poterli simulare al computer.