La seconda rivoluzione scientifica: scienze biologiche e medicina. Apparecchiature e tecniche di laboratorio
Apparecchiature e tecniche di laboratorio
Le apparecchiature scientifiche hanno trasformato la ricerca biomedica del XX sec.; già dopo la Seconda guerra mondiale molti laboratori erano dotati di attrezzature quali le ultracentrifughe, i contatori a scintillazione e gli spettrofotometri. I progressi nelle scienze fisiche così come il patrocinio istituzionale pubblico e privato permisero di applicare le moderne tecnologie ai problemi di biologia, contribuendo allo sviluppo di questa nuova generazione di strumenti. Le imprese private svolsero un ruolo importante nello sviluppo e nella standardizzazione delle relative tecnologie: radioisotopi, centrifugazione, elettroforesi e analisi immunologiche. Ciascuno di essi contribuì alla 'molecolarizzazione' della biologia consentendo agli scienziati di visualizzare e di studiare entità submicroscopiche, quali virus, organelli, enzimi, acidi nucleici e anticorpi. I ricercatori hanno utilizzato questi strumenti anche in combinazione ‒ per esempio i radioisotopi nelle analisi immunologiche e l'elettroforesi nel Southern blot marcato con radioisotopi ‒ e tale aspetto del loro impiego, oltre all'efficacia delle singole tecniche, ne ha incentivato la grande diffusione nei laboratori biomedici nella seconda metà del Novecento. A partire dagli anni Settanta, in seguito alle rivoluzioni tecnologiche dei computer e del DNA ricombinante, la strumentazione è stata miniaturizzata (per accogliere campioni di dimensioni dell'ordine del microlitro) e associata in misura crescente a sistemi informatici.
George de Hevesy (1885-1966) effettuò il primo esperimento biologico con radioisotopi nel 1922 utilizzando il torio B per analizzare l'assorbimento del piombo nei tessuti vegetali. In questo e in altri tipi di studi precedentemente si usavano elementi pesanti radioattivi (quali il bismuto, il torio e il polonio) per osservare processi biologici come il trasporto di fluidi e di ioni. La marcatura isotopica di molecole biologiche per seguire la dinamica del metabolismo richiedeva però elementi più leggeri, disponibili inizialmente come isotopi stabili (come 15N e 18O, nuclidi rispettivamente dell'azoto e dell'ossigeno) e, in seguito, come isotopi radioattivi, ancora più leggeri. Gli isotopi erano solitamente ottenuti grazie alla collaborazione dei fisici, i quali rifornivano anche i medici di radionuclidi per scopi terapeutici.
Nel 1932 Harold C. Urey aveva identificato il deuterio (un isotopo pesante dell'idrogeno) e successivamente aveva preparato la cosiddetta 'acqua pesante' (2H2O) con questo isotopo stabile. L'acqua pesante fu immediatamente utilizzata dai biologi negli esperimenti, ma soprattutto come mezzo in cui studiare i processi biologici, come lo sviluppo embrionale, la respirazione e la crescita. Un collega di Urey alla Columbia University, Rudolf Schoenheimer aveva invece usato per primo il deuterio come tracciante dei percorsi biochimici, in particolare nel metabolismo degli steroidi. Urey, successivamente, indirizzò le sue ricerche allo studio degli isotopi naturali quali 18O, 13C e 15N, contribuendo al successo dell'uso innovativo degli isotopi come traccianti. Sostituendo gli atomi nelle molecole biologiche con i rari ma stabili isotopi, gli studiosi ‒ come i collaboratori di Urey e Schoenheimer, David Rittenberg e Mildred Cohn ‒, poterono seguire il destino dei composti attraverso le trasformazioni metaboliche.
La costruzione dei ciclotroni aumentò in modo significativo la disponibilità di marcatori isotopici ‒ particolarmente di isotopi radioattivi ‒ per l'uso come traccianti nella ricerca biologica. Gli acceleratori erano stati costruiti per investigare le proprietà e le interazioni delle particelle subatomiche, ma altre possibilità sperimentali emersero negli anni Trenta. Nel 1932 John Cockcroft e Ernest Waldon del Cavendish Laboratory scoprirono la possibilità di dare il via alla disintegrazione del litio nel loro acceleratore. Due anni dopo, Frédéric e Irène Joliot-Curie dimostrarono che era possibile produrre artificialmente il fosforo radioattivo bombardando l'alluminio con particelle α. Questa scoperta, anche se non utilizzava un acceleratore, spinse i fisici nucleari a bombardare diversi elementi con le particelle all'interno degli acceleratori, così da produrre una vasta gamma di radioisotopi specifici. Molti di questi radioisotopi erano potenzialmente utili, come già lo erano gli isotopi stabili, quali traccianti nella ricerca biologica e agricola.
Presso la University of California, a Berkeley, intorno ai ciclotroni del laboratorio diretto da Ernest O. Lawrence (1901-1958) si sviluppò una rete di collaborazioni nell'ambito delle quali si impiegavano marcatori radioattivi per studiare la fisiologia animale e vegetale. Il 14C (carbonio 14) fu scoperto nel 1940 da Sam Ruben e Martin Kamen, e quest'ultimo lavorò insieme a biochimici vegetali utilizzando per la prima volta tale isotopo nella ricerca biologica. Niels Bohr (1885-1962) era il direttore di un altro centro interdisciplinare di ricerche sugli isotopi di cui faceva parte anche de Hevesy, presso la University of Copenaghen. La Rockefeller Foundation finanziava entrambi questi laboratori, oltre a molti altri, nell'ambito dell'impegno programmatico voluto da Warren Weaver, finalizzato a promuovere l'utilizzazione degli strumenti e dei metodi della fisica, della chimica e della matematica in biologia. L'utilizzazione della marcatura isotopica rimase tuttavia limitato, a causa della scarsa quantità e dell'alto costo dei radioisotopi prodotti dai ciclotroni.
Lo sviluppo dei reattori nucleari (denominati inizialmente 'pile a grafite') negli Stati Uniti, nell'ambito del Manhattan Project, rese disponibile un sistema alternativo per la produzione di radioisotopi. Nel processo di conversione dell'uranio in plutonio, necessario alla produzione di bombe, il reattore militare americano di Oak Ridge generava radioisotopi quale risultato della fissione. Inoltre, materiali 'bersaglio' estranei potevano essere collocati nel reattore per produrre radioisotopi specifici mediante il bombardamento di neutroni. Prima della fine della Seconda guerra mondiale il generale Leslie Groves, direttore del Manhattan Project, approvò un piano che prevedeva l'uso del reattore di Oak Ridge per la produzione di radioisotopi per uso civile. La US Atomic Energy Commission, subentrata all'organismo militare nella guida del progetto, sviluppò il piano e nell'agosto del 1946 iniziò a fornire radioisotopi a scienziati e medici negli Stati Uniti. Il programma venne poi ampliato fino a comprendere (pur mantenendo alcune restrizioni), nell'autunno del 1947, l'esportazione di radioisotopi all'estero. L'accresciuta disponibilità di radioisotopi ne consentì un largo uso nella ricerca biomedica, particolarmente in biochimica e in fisiologia; da alcune ricerche di Engelbert Broda (1910-1983) risulta che nel 1945 soltanto l'1% degli articoli del "Journal of biological chemistry" trattava di isotopi radioattivi; nel 1956 la percentuale era salita al 39%.
Nella maggior parte dei casi gli scienziati, per effettuare studi con sostanze traccianti, avevano bisogno più di composti radiomarcati che di radionuclidi. A partire dalla fine degli anni Quaranta la US Atomic Energy Commission collaborò con numerose società private (per es., la TracerLab e la Nuclear Chicago) per produrre composti commerciabili marcati con isotopi. Dai primi anni Sessanta il mercato americano fu dominato dalla New England Nuclear, che riforniva i ricercatori di prodotti chimici radioattivi, disponendo di un catalogo contenente più di 400 composti diversi; la britannica Amersham commercializzava un'analoga gamma di prodotti. Al mercato dei materiali radioattivi per uso scientifico, in espansione, si associava quello delle sofisticate apparecchiature per la rilevazione di radiazioni. Lo sviluppo dei rilevatori a scintillazione in fase liquida, come il Packard Tri-Carb automatico (introdotto nel 1957), favorì l'impiego dei radioisotopi, specialmente di quelli a bassa energia come il trizio e il 14C, che divennero i marcatori isotopici d'elezione tra i composti disponibili a livello commerciale. I contatori automatici resero di routine analisi con dozzine e persino centinaia di campioni in condizioni differenti (per es., tempo di reazione e concentrazione del substrato). Il consumo di reagenti radioattivi in campo scientifico, fortemente favorito dagli enti nazionali per l'energia atomica, aumentò dunque in seguito alla sinergia tra metodi scientifici e prodotti di laboratorio (specialmente sostanze chimiche radiomarcate e sofisticati contatori), le cui potenzialità di sviluppo commerciale erano peraltro da attribuire al rapido incremento dei finanziamenti pubblici per la ricerca biomedica.
La disponibilità di composti radiomarcati accelerò notevolmente il rilevamento delle vie metaboliche negli organismi; Joseph Fruton ha dimostrato che l'introduzione del 14C (così come quella delle tecniche cromatografiche) condusse "a uno straordinario incremento delle conoscenze biochimiche dopo la Seconda guerra mondiale" (Fruton 1972, p. 460). L'uso pionieristico da parte di Melvin Calvin (1911-1997) del carbone radioattivo per chiarire il processo della fotosintesi è un celebre esempio dell'utilità dei radioisotopi nell'ambito degli studi sul metabolismo. I primi sviluppi della biologia molecolare si basarono anch'essi sui radioisotopi; esemplare in tal senso è l'esperimento condotto nel 1952 da Alfred Hershey e Martha Chase con zolfo e fosforo radioattivi per dimostrare che il materiale ereditario del batteriofago è il suo DNA. Negli anni Settanta l'interesse per la visualizzazione del DNA mediante nuove tecniche di blotting e di sequenziamento determinò una crescita del consumo di 32P (e, in seguito, di 35S) spesso associato a quello di pellicole autoradiografiche. Il rapido progresso del sequenziamento degli acidi nucleici negli anni Ottanta e Novanta, accelerato dal Progetto genoma umano, ha rafforzato ulteriormente questa tendenza. Gli scienziati sono stati indotti a cercare altre tecnologie di visualizzazione delle molecole, come la marcatura a fluorescenza, soltanto in seguito alle preoccupazioni, sorte alla fine del XX sec., per i rischi professionali derivanti dal contatto con materiali radioattivi, nonché dai problemi connessi con lo smaltimento delle scorie radioattive.
Le centrifughe sono macchine rotanti che utilizzano la forza centrifuga per separare molecole o particelle in una soluzione. Nel 1883 l'ingegnere svedese Carl Gustav Patrik de Laval (1845-1913) sviluppò un valido progetto di centrifuga, impiegata in seguito nell'industria casearia per ottenere la separazione della panna. Le centrifughe furono adattate alla ricerca scientifica agli inizi del XX sec., in seguito al grande interesse suscitato all'epoca dalle particelle microscopiche e dai colloidi. Theodor Svedberg (1884-1971), chimico svedese specializzato in colloidi, progettò centrifughe ad alta velocità, dotate di un sistema ottico integrato per osservare i materiali nel corso del processo di sedimentazione. Nel 1924 Svedberg e Herman Rinde diedero alla loro prima versione di questa centrifuga ottica la denominazione di 'ultracentrifuga', per analogia con altri metodi avanzati usati per determinare le dimensioni dei granuli, quali l'ultramicroscopia e l'ultrafiltrazione. Negli anni Trenta le caratteristiche dell'ultracentrifuga di Svedberg erano il sistema ottico integrato, una turbina a olio e un rotore ovale con alloggiamenti per le provette che raggiungeva velocità di 60.000 giri al minuto. A partire dal 1926 Svedberg aveva cominciato a interessarsi alla possibilità di impiego dell'ultracentrifuga nella caratterizzazione delle proteine (per studiarne le dimensioni e la forma) e negli anni Trenta la Rockefeller Foundation (nell'ambito del Natural Sciences Program di Weaver) finanziò la ricerca e il continuo sviluppo dello strumento da parte di Svedberg, per la loro utilità nel trasferimento dei metodi di precisione dalla fisica e dalla chimica alla biologia.
Nello stesso periodo si stava diffondendo l'uso di centrifughe a bassa e media velocità, realizzate da fabbricanti di strumenti, utili per la preparazione dei campioni di materiali biologici. Svedberg volle distinguere la propria macchina dalle centrifughe di laboratorio più comuni non soltanto con il prefisso 'ultra' ma anche con la denominazione 'analitica', indicando in tal modo che l'apparecchio era destinato a osservazioni e misurazioni di precisione e non alla preparazione di materiali mediante sedimentazione. Tuttavia la distinzione da lui proposta fra macchine analitiche e macchine preparative divenne difficile da sostenere a causa di due ulteriori progressi tecnici. Da un lato, le comuni centrifughe da laboratorio raggiunsero velocità paragonabili a quelle delle ultracentrifughe; per esempio, nel 1935, la super centrifuge dello Sharples Laboratory poteva toccare i 50.000 giri al minuto; dall'altro lato, ancora più importante e determinante fu lo sviluppo di un meccanismo di trasmissione più semplice per le turbine pneumatiche delle centrifughe ad alta velocità. Il fisico Jesse W. Beams (1898-1977) e i suoi collaboratori costruirono una centrifuga con il rotore sospeso (su progetto di Émile Henriot ed E. Huguenard), che nel 1931 denominarono anch'essi 'ultracentrifuga'. Uno studente di dottorato di Beams, Edward G. Pickels, sviluppò ulteriormente il progetto dell'ultracentrifuga pneumatica alla metà degli anni Trenta, includendovi un sistema ottico come quello di Svedberg. Benché questo strumento non raggiungesse lo stesso livello di precisione della macchina a turbina a olio, esso era molto più semplice ed economico da costruire; inoltre, le macchine ad aria potevano essere utilizzate sia per analizzare le proteine sia per la preparazione di elementi di dimensioni maggiori, come i virus. Dopo la Seconda guerra mondiale Pickels fondò insieme a Maurice Hanafin la società Spinco per la vendita di ultracentrifughe pneumatiche commerciali, analitiche e preparative; entro il 1951 la società aveva venduto 70 ultracentrifughe analitiche Model E, che divennero 1000 nel giro di quindici anni (nel frattempo la Spinco era stata acquistata dalla Beckman Instruments). Nel settore delle ultracentrifughe analitiche la MSE Mk II e la Centriscan erano le principali competitrici della Model E; molte aziende (compresa la Spinco) vendevano le meno complesse (e notevolmente più economiche) ultracentrifughe preparative.
La prima ultracentrifuga della Spinco fu progettata perché potesse essere facile da usare come una lavatrice; le centrifughe preparative (spesso della marca Sorvall), destinate a un uso continuo e molto intenso nei laboratori biomedici della seconda metà del Novecento, continuarono ad avere l'aspetto di elettrodomestici. Tuttavia, il crescente impiego delle tecniche dell'ingegneria genetica alla fine degli anni Settanta e negli anni Ottanta contribuì alla diffusione massiccia delle microcentrifughe Eppendorf, molto più piccole, che consentivano ai ricercatori di lavorare con soluzioni di acidi nucleici ed enzimatiche di volume contenuto (nell'ordine del microlitro), tipiche delle ricerche sul DNA ricombinante. La centrifugazione rimane una tecnica essenziale per la purificazione di entità biologicamente importanti, dalle cellule alle particelle subcellulari, dagli acidi nucleici alle proteine. Una stima recente ha rilevato che la centrifugazione costituisce parte integrante del lavoro di più del 65% dei ricercatori che operano nei grandi US National Institutes of Health (Graham 2001).
Analogamente all'ultracentrifuga, la strumentazione analitica per l'elettroforesi fu sviluppata nel laboratorio di Svedberg presso l'Università di Uppsala con il sostegno finanziario della Rockefeller Foundation. Il principio sotteso al funzionamento dello strumento ‒ che utilizza un campo elettrico per separare le molecole di una soluzione sulla base della loro carica ‒ era solidamente stabilito. Nel 1809 fu il fisico Ferdinand Friedrich Reuss (1778-1852) a descrivere il primo esperimento di elettroforesi: applicando una corrente elettrica a un recipiente colmo di sabbia, egli riuscì a far migrare le particelle di argilla da un lato all'altro della provetta. William B. Hardy, nel 1900, e Karl Landsteiner, nel 1908, utilizzarono questo procedimento per la separazione delle proteine. Negli anni Venti Svedberg invitò Arne Tiselius (1902-1971), laureatosi con lui, a perfezionare le tecniche elettroforetiche per la chimica delle proteine. Tiselius utilizzò per la camera elettroforetica (collegata su entrambi i lati a elettrodi mediante altre camere) un tubo a forma di U; il suo progetto prevedeva anche un sistema di raffreddamento, perché le correnti di convezione non interferissero con la migrazione elettroforetica, e un sistema ottico Schlieren per visualizzare il fronte mobile mediante rifrazione. A lui si deve un'ulteriore innovazione che prevedeva l'uso di una corrente opposta per impedire alle sostanze che migrano più rapidamente di fuoriuscire dalla camera elettroforetica. A causa della presenza del sistema ottico Schlieren, l'apparato di Tiselius misurava oltre 6 m, per un costo di 6000 dollari ca. per la costruzione, ai quali se ne aggiungevano altri 5000 l'anno per la manutenzione. Tiselius dimostrò l'utilità della propria tecnica, che oggi sarebbe classificata come 'elettroforesi a fronte mobile', separando dal siero di sangue equino tre componenti principali, che egli chiamò globuline α, β e γ.
Nel 1939 negli Stati Uniti esistevano quattordici macchinari per l'elettroforesi, finanziati perlopiù dalla Rockefeller Foundation tramite il programma di Weaver. Il primo modello commerciale del macchinario di Tiselius fu introdotto nel 1945 dalla Klett Manufacturing Company, mentre nel 1948 la Perkin-Elmer propose il primo modello da bancone. Le nuove tecnologie per visualizzare le proteine ‒ come la colorazione con ammidi o la marcatura isotopica dei campioni ‒ resero superfluo il sistema ottico Schlieren e, di conseguenza, negli anni Cinquanta gli strumenti per l'elettroforesi ebbero prezzi e dimensioni più contenuti. Inoltre, l'elettroforesi zonale ‒ che provoca la migrazione delle molecole in bande separate, ed è normalmente eseguita su un supporto solido ‒ cominciò a sostituire la tecnica a fronte mobile di Tiselius. Dalla fine degli anni Quaranta l'elettroforesi zonale su carta consentì la separazione di macromolecole in bande distinte. Nel 1959, per la prima volta, fu utilizzata come matrice la poliacrilammide a basso assorbimento, seguita dall'agarosio nel 1961; questi sistemi di elettroforesi con supporto polimerico e gel divennero strumenti comuni nei laboratori di biochimica e di biologia molecolare e furono utilizzati sia per la preparazione sia per l'analisi delle proteine e degli acidi nucleici.
A partire dagli anni Settanta la maggior parte degli studi condotti con l'elettroforesi utilizza agenti denaturanti in soluzioni tampone. In questo contesto ha trovato largo impiego l'elettroforesi delle proteine su gel di poliacrilammide in presenza di sodio dodecilsolfato (SDS-PAGE, sodium dodecyl sulfate polyacrylamide gel electrophoresis): le proteine sono dissociate nelle loro subunità polipeptidiche costitutive che migrano in base alla loro grandezza, consentendo al ricercatore di assegnare loro un peso molecolare approssimativo. L'elettroforesi su gel di poliacrilammide bidimensionale offre una risoluzione ancora maggiore : le proteine sono separate secondo il loro punto isoelettrico mediante focalizzazione isoelettrica da sinistra a destra e poi separate ulteriormente in relazione al loro peso molecolare con elettroforesi dall'alto verso il basso in presenza di SDS. L'immunoelettroforesi utilizza la separazione elettroforetica in associazione ad anticorpi specifici per consentire l'identificazione di particolari proteine con alta specificità. Le manipolazioni degli acidi nucleici, come i metodi di sequenziamento, si basano anch'essi in misura altrettanto ampia sull'elettroforesi, in genere per la separazione di frammenti di DNA. Secondo la stima di Olof Vesterberg in più della metà degli articoli scientifici pubblicati nel settore biochimico è menzionato l'uso di metodi elettroforetici (Vesterberg 1993).
Nei test immunologici si impiegano molecole di riconoscimento biologico ‒ anticorpi ‒ per identificare e quantificare la presenza di una particolare molecola (o analite). Le tecniche di analisi immunologica derivano dai metodi di analisi del legame del ligando degli anni Cinquanta; i primi studi combinavano anche altre due tecniche cui si è fatto cenno in precedenza: i radioisotopi e l'elettroforesi. Rosalyn Yalow e Solomon A. Berson, nel 1959, elaborarono un test immunologico che individuava l'insulina (in presenza di insulina aggiunta marcata radioattivamente, tecnica oggi chiamata 'test radioimmunologico'), mentre, nel 1960, Roger Ekins ne effettuò uno per la tiroxina che prevedeva la separazione elettroforetica. Le analisi radioimmunologiche consentono di identificare quantità ridottissime di materiale, con una sensibilità pari o superiore a quella della cromatografia o della spettrofotometria; di conseguenza, a partire dagli anni Settanta, sono divenute di uso comune nella ricerca biomedica e nella diagnostica.
Una tecnica di analisi immunologica normalmente impiegata è l'ELISA (enzyme-linked immunosorbent assay), nella quale viene utilizzato un anticorpo associato a un enzima per identificare un antigene marcato con un anticorpo. Quando i test immunologici sono usati per identificare proteine che sono state separate e trasferite su una membrana, la tecnica è denominata Western blot ‒ per analogia con Southern e Northern blot. L'immunoprecipitazione impiega la centrifugazione per separare dalle soluzioni complessi di anticorpi e antigeni che vengono individuati e analizzati successivamente (per es., mediante SDS-PAGE). Un'ampia gamma di kit diagnostici basati sull'analisi immunologica è attualmente disponibile per l'uso non soltanto nella ricerca biomedica e nei contesti clinici ma anche in settori quali la sicurezza ambientale, in ambito legale e, sempre di più, per test relativi all'uso illecito di droghe.