La seconda rivoluzione scientifica: scienze biologiche e medicina. Lo sviluppo delle tecniche e dei metodi diagnostici
Lo sviluppo delle tecniche e dei metodi diagnostici
La storia delle tecnologie diagnostiche è abitualmente considerata nella prospettiva della capacità dimostrata dai medici nel porre la scienza e i suoi strumenti al servizio dell'identificazione delle malattie. Da questo punto di vista gli ultimi venticinque anni dell'Ottocento furono ricchi di notevoli sviluppi: emersero, infatti, nuovi metodi batteriologici e immunologici di diagnosi delle malattie infettive, si registrarono importanti progressi nel campo dell'elaborazione di metodi di analisi chimica e microscopica del sangue e dell'urina, e il potere dei medici di scrutare l'interno del corpo umano subì una profonda trasformazione con la scoperta dei raggi X, forse la più spettacolare del periodo. I passi in avanti compiuti nel XIX sec. sono alla base delle sofisticate tecniche diagnostiche messe a punto nel secolo seguente, che hanno vincolato strettamente la pratica medica a una sempre più ampia varietà sia di test chimici, citologici, ematologici, immunologici e genetici sia di tecniche di formazione delle immagini. L'aumento del numero dei test diagnostici disponibili registrato a partire dalla seconda metà del XX sec. è stato sbalorditivo: se nel 1950 se ne contavano negli Stati Uniti circa 160, nel 1987 era possibile fare ricorso a quasi 1400 esami diagnostici diversi basati sulla tecnologia, dalle analisi chimiche del sangue alla tomografia assiale computerizzata (TAC).
Le innovazioni scientifiche e tecniche, tuttavia, non avrebbero operato un trasformazione nella pratica medica se non si fosse verificata una serie di importanti cambiamenti di carattere istituzionale e organizzativo. L'evoluzione dei laboratori clinici, che divennero sedi del lavoro diagnostico di routine (e non esclusivamente dell'attività di ricerca), determinò la modifica delle classificazioni e delle definizioni di molte patologie, influì sul modo in cui i medici interagivano con i pazienti e sull'organizzazione della pratica medica, favorì la definizione delle specializzazioni cliniche e delle relazioni tra i diversi gruppi di professionisti e portò a una profonda trasformazione dell'uso delle innovazioni diagnostiche e del loro trasferimento alla pratica clinica.
A differenza di molte novità tecnologiche strettamente legate all'impegno di ricerca di singoli oppure di piccoli gruppi di scienziati e di medici, il laboratorio diagnostico clinico fu il risultato di un processo di formazione graduale. Nel corso del XIX sec. i medici iniziarono a dotarsi di diversi strumenti, in un primo momento piuttosto semplici ‒ come lo stetoscopio, che facilitava la percezione dei suoni prodotti in una data regione del corpo, e altri destinati all'osservazione interna (tra cui l'oftalmoscopio) ‒ che agevolavano la formulazione delle diagnosi e, dopo il 1850, anche di microscopi. Con la diffusione di queste semplici tecniche si rafforzò anche l'autorevolezza delle loro informazioni, apparentemente obiettive, in rapporto a quella delle notizie fornite dai pazienti riguardo alle loro precedenti patologie e, alla fine, anche rispetto a quella dell'osservazione diretta effettuata dai clinici. In un primo momento, l'uso degli strumenti diagnostici da parte dei medici era probabilmente dettato più dalla curiosità e dal desiderio di conferire uno status di scientificità alla loro attività che da esigenze diagnostiche. Inoltre, la loro adozione su vasta scala fu spesso un processo lento e controverso, basato sulla trasmissione diretta di nuove competenze, sui cambiamenti nel rapporto tra medico e paziente e sulle nuove definizioni di malattia e salute. Nel frattempo gli ospedali, soprattutto quelli collegati alle università, si erano dotati di strutture per lo studio dell'anatomia patologica e per le indagini patologiche post mortem. Incentrati inizialmente soprattutto su cambiamenti vistosi, visibili a occhio nudo, gli esami post mortem delle lesioni eseguiti dai patologi ospedalieri finirono per dipendere sempre di più dall'analisi microscopica dei tessuti. All'incirca a partire dalla metà del XIX sec. i laboratori di fisiologia, batteriologia e chimica delle università, in origine destinati a essere utilizzati da singoli scienziati, furono gradualmente aperti agli allievi dei corsi superiori e, in seguito, prima in Germania e poi in altri paesi, le esercitazioni di laboratorio divennero obbligatorie per tutti gli studenti di medicina. I laboratori clinici furono creati ancora più tardi, verso la fine del secolo, quando la medicina clinica iniziò ad aspirare allo status di scienza autonoma, e, come nel caso dei laboratori di ricerca scientifica di base, in un primo momento furono destinati prevalentemente alla ricerca e alle esercitazioni degli studenti dei corsi superiori. Il primo laboratorio clinico sembra sia stato quello istituito nel 1885 presso l'ospedale universitario di Monaco per volontà del fisiologo e clinico Hugo von Ziemssen. Diviso in diverse sezioni dedicate alla fisiologia, alla patologia e alla chimica, esso serviva per le attività di ricerca degli studenti e dei medici più che per il lavoro diagnostico di routine. Erano utilizzati soprattutto per la ricerca e per l'insegnamento anche i primi laboratori clinici statunitensi ‒ tra i quali il William Pepper Laboratory of Clinical Medicine della University of Pennsylvania, realizzato nel 1895, e quelli creati nel 1896 da William Osler presso l'ospedale della Johns Hopkins School of Medicine ‒ e soltanto gradualmente arrivarono a svolgere un ruolo importante nei controlli ordinari delle condizioni dei pazienti.
La storia della patologia clinica costituisce un eccellente esempio di come fosse necessario cambiare l'organizzazione stessa del lavoro clinico ‒ vale a dire la definizione dei ruoli delle diverse figure professionali e dei loro rapporti ‒ prima che le osservazioni e le tecniche, in origine usate per scopi di ricerca, potessero essere adottate a fini diagnostici e trasformate in procedure di routine. All'inizio dell'Ottocento, quando gli ospedali divennero il fulcro della pratica, della ricerca e dell'insegnamento in campo medico, l'anatomia patologica era considerata una delle basi del nuovo approccio scientifico alla malattia: le correlazioni patologico-cliniche ‒ ossia l'instaurazione di una serie di legami tra i segni e i sintomi della patologia nei pazienti ancora in vita e le lesioni individuate attraverso le autopsie ‒ costituivano il fine ultimo della ricerca. A partire dalla metà del secolo, i patologi, che a quel tempo spesso lavoravano negli ospedali e nelle scuole di medicina, invece di limitarsi a esaminare le modificazioni visibili a occhio nudo iniziarono a poco a poco a dedicarsi allo studio microscopico delle alterazioni istologiche e cellulari. I perfezionamenti tecnici apportati al microscopio, alle tecniche di fissaggio e di colorazione e ai microtomi (che consentivano di ottenere sezioni molto sottili dei tessuti) permettevano di distinguere in modo più preciso le alterazioni patologiche e, del resto, le visioni riduzionistiche del progresso della medicina scientifica ‒ per esempio, il programma di patologia cellulare di Rudolf Virchow (1821-1902) ‒ giustificavano lo studio delle malattie a livello cellulare. Questo cambiamento di scala, insieme alla maggiore sicurezza acquisita dalle procedure chirurgiche e all'aumento del loro numero, diede ai patologi la possibilità di concentrarsi su materiali (tumori, sangue, ecc.) provenienti da pazienti in vita piuttosto che da organismi sottoposti ad autopsia. La capacità di differenziare i tumori a livello microscopico e la semplificazione delle procedure impiegate per studiarli ‒ come la tecnica di congelamento rapido per la preparazione di sezioni sottili elaborata nel 1870 dal patologo tedesco Julius Cohnheim ‒ non diede tuttavia automaticamente luogo all'introduzione nella diagnostica di routine delle tecniche citologiche e istologiche usate dai patologi. Nel corso degli ultimi decenni del XIX sec. i chirurghi spesso inviavano agli istologi campioni di tessuti prelevati dai pazienti solamente dopo la formulazione della diagnosi clinica e l'esecuzione dell'intervento chirurgico: il ruolo dei patologi era quello di soddisfare la curiosità del medico, di fornire un commento sul caso in esame o di confermare la valutazione diagnostica e non quello di aiutarlo a formulare diagnosi corrette in base alle quali scegliere il trattamento più appropriato. Le biopsie iniziarono a essere effettuate durante o prima dell'intervento soltanto nel corso degli anni Dieci del Novecento, così che le informazioni da esse ricavate acquisirono un ruolo decisivo nella formulazione della diagnosi e nella scelta della terapia. L'importanza e il raggio d'azione degli esami citologici registrarono un ulteriore incremento dopo la Seconda guerra mondiale, quando alcuni di essi ‒ fra gli altri l'esame delle cellule nel cosiddetto Pap test per la diagnosi del cancro della cervice uterina, messo a punto negli anni Venti da George Papanicolau ‒ entrarono a far parte delle procedure di routine di controllo sanitario.
La storia degli esami citologici del sangue rivela un processo di evoluzione analogo. A partire dalla metà del XIX sec. gli studi microscopici dei componenti del sangue divennero a poco a poco meno dispendiosi in termini di tempo e più facili da effettuare, una condizione che sembrava accrescerne l'utilità clinica. I metodi di conteggio globulare del sangue proposti da Karl Vierordt nel 1852, per esempio, furono ulteriormente sviluppati e semplificati verso la fine degli anni Settanta da William R. Gowers; tra le sue innovazioni figuravano non soltanto griglie più funzionali per il conteggio diretto dei globuli rossi ma anche metodi colorimetrici che permettevano una stima indiretta del numero delle cellule. Un altro metodo, ancora più semplice, era basato sull'uso dell'ematocrito, che consentiva di ottenere una stima volumetrica della percentuale di globuli rossi presenti nel sangue per mezzo di una semplice centrifugazione. Nel corso dei due decenni successivi, inoltre, le tecniche di colorazione di Paul Ehrlich (1854-1915) resero possibile il conteggio (differenziale) dei globuli bianchi. Nonostante queste analisi ematiche ‒ impiegate dai ricercatori e da un numero limitato di clinici curiosi o ambiziosi ‒ fossero sempre più perfezionate, la maggior parte dei medici generici le prescriveva soltanto molto sporadicamente, ritenendole non strettamente necessarie, troppo complicate e dispendiose in termini di tempo. Pertanto esse iniziarono a essere impiegate anche da internisti e studenti e, in seguito, da patologi e tecnici operanti nei laboratori solamente ben oltre l'inizio del XX sec., entrando a far parte delle procedure abitualmente adottate per la diagnosi di alcune patologie ‒ per esempio, diversi tipi di anemie, di leucemie e di infiammazioni (le cui definizioni erano a quel punto legate ai differenti test destinati a individuare le patologie citologiche o chimiche del sangue) ‒ nel momento in cui i laboratori diagnostici divennero parti integranti dell'attività ospedaliera. Nel corso di questo processo i patologi, prima di allora relegati al ruolo di 'custodi dei pazienti deceduti' e di conservatori di musei di patologia, divennero consulenti, coadiuvati da un certo numero di assistenti tecnici, che con i loro giudizi agevolavano (e spesso guidavano) l'operato dei clinici.
Neanche la straordinaria scoperta, celebrata in tutto il mondo, dei raggi X e del loro potere di penetrare nei tessuti fornendo immagini delle regioni interne del corpo, effettuata da Wilhelm Conrad Röntgen (1845-1923) nel 1896, trovò subito una precisa collocazione nella pratica clinica. Benché l'utilità delle immagini fornite dai raggi X nella diagnosi delle fratture o nella localizzazione della posizione di oggetti estranei penetrati nel corpo umano (per es., le pallottole delle armi da fuoco) fosse ampiamente riconosciuta e per quanto il relativo apparato fosse, almeno all'inizio, poco costoso e relativamente facile da assemblare e utilizzare, dovettero trascorrere ben due decenni prima che l'utilizzazione di questa tecnica entrasse a far parte delle procedure diagnostiche di uso comune. Mentre i ricercatori studiavano con entusiasmo le immagini ottenute attraverso i raggi X e il grande pubblico li guardava come affascinanti curiosità in grado di rendere i corpi trasparenti, l'introduzione di questa tecnica nella diagnostica richiese una serie di aggiustamenti nell'organizzazione della pratica medica: il riconoscimento da parte dei medici curanti del fatto che l'acume clinico poteva essere affinato attraverso l'uso di una macchina fatta funzionare da altri, lo sviluppo di nuovi sistemi amministrativi di archiviazione e di contabilità e l'emergere di un nuovo gruppo di professionisti, il cui rapporto con gli altri specialisti era ancora da definire. Come nel caso delle nuove tecniche diagnostiche utilizzate nella patologia clinica, l'uso di questo strumento non fu ostacolato da difficoltà di ordine tecnico o da fenomeni di resistenza attiva contro i processi di innovazione o contro la medicina scientifica; benché si presentassero come un mezzo rivoluzionario, i raggi X rafforzavano infatti l'interpretazione, profondamente radicata nella medicina ottocentesca, della malattia come lesione fisiologico/anatomica localizzabile. L'impiego di tale strumento si diffuse solo quando gli ospedali e i medici riuscirono a stabilire chi dovesse produrre, custodire e interpretare questo nuovo tipo di fotografie (oltre che sostenerne i costi), il modo in cui le relative informazioni andassero comunicate ai medici curanti e come si dovessero coordinare le attività dei tecnici e dei medici. Inoltre, il privilegio e il diritto non soltanto di produrre ma anche di interpretare queste immagini furono oggetto di veementi dispute, fino a quando i medici non sottrassero il controllo del relativo apparato ai tecnici e ai fotografi, trasformando la radiologia in una vera e propria attività medica. A loro volta i radiologi, la cui attività era strettamente legata alla disponibilità e all'efficienza di queste macchine, costituivano un mercato pronto ad accogliere un flusso continuo di innovazioni, basate sui perfezionamenti progressivi della velocità, della sicurezza, della risoluzione dell'apparato tradizionale dei raggi X e sullo sviluppo di forme di produzione delle immagini radicalmente nuove. Tra queste spiccano la tomografia computerizzata (TC), introdotta per la prima volta negli anni Settanta, che forniva immagini ricostruite al computer di determinate sezioni del corpo, o la risonanza magnetica e la tomografia a emissione di positroni (PET), sviluppate negli anni Ottanta, che, come la tomografia computerizzata, forniscono ricostruzioni elaborate al computer basate su tecnologie diverse dai raggi X.
Lo sviluppo professionale della radiologia come specializzazione medica era senza precedenti, dal momento che la sua stessa esistenza si fondava sul controllo esclusivo di una sofisticata tecnologia diagnostica, ma anche in altre branche cliniche la specializzazione e la professionalizzazione erano legate alle innovazioni tecnologiche. È stato dimostrato che l'affermazione, verso la metà del XIX sec., dell'oftalmologia come disciplina autonoma fu legata all'introduzione dell'oftalmoscopio. Una più complessa relazione è stata individuata tra cardiologia ed elettrocardiografo e tra neurologia ed elettroencefalografo: il primo di questi strumenti, conosciuto all'epoca con il nome di 'galvanometro a filo', fu sviluppato all'inizio del XX sec. dal fisiologo olandese Willem Einthoven mentre la costruzione dell'elettroencefalografo, basato sugli stessi principî, fu annunciata nel 1929 da Hans Berger. In entrambi i casi un ben definito strumento di ricerca e di diagnosi, destinato a registrare le attività fisiologiche di un organismo attraverso la misurazione di correnti elettriche, divenne con il tempo parte integrante della pratica diagnostica professionale di un gruppo di clinici, svolgendo peraltro un ruolo importante, anche se non determinante, nel processo di specializzazione e nelle nuove interpretazioni e classificazioni delle patologie. L'identificazione degli specialisti con le loro strumentazioni era però anche una fonte di incertezza: da un lato, questi strumenti e la loro adozione nella pratica diagnostica conferivano ai medici un'aura di ricercatezza e di perizia scientifica ma, dall'altro, i clinici specializzati seguitavano a sottolineare che il loro acume diagnostico era legato all'esperienza e all'abilità personale e non all'uso di una macchina che forniva tracciati oggettivi dell'attività, del cuore o del cervello.
L'introduzione delle nuove tecnologie diagnostiche fu spesso accompagnata da contrasti e dispute riguardanti le aree di competenza professionale. Questi conflitti erano particolarmente aspri nei casi in cui le competenze dei clinici dovevano essere definite in rapporto alla sfera d'azione di esperti che non vantavano una formazione medica, come gli specialisti di chimica e di batteriologia: da un lato, i chimici e i batteriologi, grazie alle loro conoscenze scientifiche, erano in grado di sviluppare, perfezionare e utilizzare diverse procedure e test diagnostici; dall'altro, la formulazione della diagnosi era da lungo tempo considerata una prerogativa dei medici e l'intromissione in questo campo di 'profani', per quanto di formazione scientifica, era vista come un'illegittima usurpazione delle loro funzioni e della loro autorità. Quando lo status professionale di queste figure era decisamente inferiore a quello dei medici (nel caso dei tecnici, degli assistenti di laboratorio e degli infermieri) diventava possibile giungere con più facilità a un'intesa.
L'affermazione della batteriologia clinica fu legata non soltanto all'accettazione astratta della teoria secondo la quale le malattie infettive si diffondevano attraverso i germi ma anche all'introduzione di nuove tecniche di coltura, isolamento e differenziazione dei batteri, basate su metodi microscopici, chimici e immunologici. A partire dagli anni Settanta del XIX sec. il lavoro di identificazione dell'eziologia delle patologie infettive iniziò a fondarsi sull'elaborazione di tecniche per identificare e differenziare i batteri patogeni, che potevano in seguito essere adottate nei laboratori clinici e in quelli destinati al controllo della salute pubblica come strumenti di diagnosi delle malattie infettive. I test diagnostici batteriologici si svilupparono a partire da tecniche precedenti, quali i mezzi di coltura solidi destinati all'osservazione del bacillo dell'antrace sviluppati da Robert Koch (1843-1910) e le procedure di colorazione da lui adottate per rendere visibile il bacillo della tubercolosi; i primi mezzi differenziali e i test chimici (come quello che rilevava la presenza dell'indolo) per identificare determinati batteri e così via. A partire dalla metà degli anni Novanta dell'Ottocento, a questi metodi batteriologici si aggiunsero i test sierologici (immunologici), come quello messo a punto da Georges-Fernand-Isidore Widal per la diagnosi della febbre tifoidea (1896), la reazione di fissazione del complemento di Bordet (1898) o quella di Wasserman per la sifilide (1906). Molti dei primi batteriologi avevano una formazione medica, ma i test batteriologici e immunologici potevano essere effettuati anche dal personale paramedico e, nell'attività di routine, il compito di eseguirli era spesso delegato a studenti, ad assistenti e a tecnici di laboratorio. Data la situazione, il manifestarsi di rivalità e contrasti professionali era probabilmente inevitabile. Se i clinici, decisi a conservare il controllo sulle diagnosi, tendevano a vedere nell'effettuazione delle prove batteriologiche e sierologiche un semplice servizio che doveva essere subordinato all'autorità e al controllo del medico curante, i batteriologi sostenevano che il loro status ‒ in termini sia di remunerazione sia di autorità ‒ doveva essere equiparato a quello di altri consulenti e specialisti. La discussione verteva sulle competenze: se la formulazione della diagnosi spettasse al tecnico di laboratorio che effettuava il test ‒ e che poteva non avere alcun contatto con il paziente ‒ oppure al medico, che poteva ignorare l'esecuzione e i limiti di un dato esame. Nel 1926 l'American Medical Association tentò di risolvere la questione stabilendo che, per essere riconosciuti come laboratori autorizzati, i laboratori clinici dovevano essere diretti da una persona che avesse una formazione medica e i tecnici che vi lavoravano dovevano fornire la diagnosi non direttamente al paziente ma al medico. Non si trattava però soltanto di stabilire i limiti del potere diagnostico dei batteriologi, dei chimici medici o dei patologi (che non avevano contatti con il paziente) bensì occorreva anche definire i limiti dell'autorità dei risultati di un test rispetto a quella del giudizio clinico del medico.
L'esigenza incolmabile di disporre di test diagnostici e di tecnologie sempre più sofisticate è stata messa in rapporto sia con la crescente autorità delle scienze mediche sia con gli interessi professionali di diversi gruppi di specialisti. L'enorme incremento del numero di procedure e di test diagnostici, il ritmo rapidissimo del processo di innovazione e di transfer tecnologico e la sempre più complessa articolazione del lavoro erano legati, insieme alla divisione in specializzazioni della medicina, anche alla necessità di ottenere maggiore efficienza e di imporre una standardizzazione amministrativa che ha caratterizzato la medicina del Novecento in Europa e negli Stati Uniti. In settori come la chimica clinica tale obiettivo di efficienza e la ricerca di un management scientifico portarono alla definizione di norme relative a diverse sostanze che possono essere presenti nel sangue o nell'urina, alla crescente standardizzazione di vari test chimici effettuati nei laboratori clinici e, infine, a una serie di tentativi di meccanizzare e automatizzare il maggior numero possibile di analisi. Le osservazioni condotte sul sangue e sull'urina per individuare i segni delle patologie erano una pratica molto antica, ma i test analitici finalizzati a determinare la presenza di sostanze come l'acido urico, le proteine e lo zucchero nell'urina furono correlati a condizioni patologiche specifiche negli anni Trenta e Quaranta del XIX sec. ‒ per esempio, dal clinico britannico Richard Bright (1789-1858) e dai chimici suoi assistenti del Guy Hospital di Londra ‒ e finirono per essere utilizzati su vasta scala verso la fine del secolo, in particolare dai medici che visitavano persone che intendevano stipulare un'assicurazione sulla vita. La chimica clinica si affermò tuttavia soltanto nel corso dei primi decenni del Novecento, grazie al lavoro svolto da alcuni (bio)chimici operanti negli Stati Uniti, tra i quali si ricordano Donald van Slyke, Otto Folin e Stanley Benedict. La professionalizzazione della biochimica in campo clinico e il conseguente sviluppo di metodi volumetrici e colorimetrici quantitativi, destinati a determinare la presenza di diverse sostanze chimiche nel sangue e nell'urina, furono promossi da una serie di riforme del sistema della formazione medica americana. La 'bibbia' dei chimici clinici, Quantitative clinical chemistry di van Slyke e John P. Peters, pubblicato per la prima volta nel 1931-1932, descriveva a grandi linee numerosi di questi metodi, poi gradualmente introdotti nell'attività diagnostica di routine dei laboratori ospedalieri. L'enorme aumento della domanda rese più pressante l'esigenza di standardizzazione e automazione e fece sì che la partecipazione dell'industria allo sviluppo dei nuovi strumenti divenisse più sistematica. L'introduzione, negli anni Cinquanta, del primo analizzatore automatico e la sequenza ininterrotta di apparecchiature destinate all'analisi chimica del sangue sviluppate da Leonard Skaggs presso il Cleveland Veterans Administration Hospital, resero i test diagnostici chimici più economici e meno impegnativi in termini di lavoro, tanto che il loro uso si diffuse in tutte le aree della pratica medica.
Nel corso del XX sec. le valutazioni diagnostiche dei clinici finirono per essere vincolate in misura crescente a un'ampia gamma di tecniche e di strumenti, a metodi quantitativi fortemente standardizzati e precisi, alla nuova organizzazione delle attività di routine e agli specialisti che svolgevano la loro opera con l'aiuto di tecniche sofisticate in una grande varietà di laboratori clinici. A loro volta, tali cambiamenti erano accompagnati dall'emergere di definizioni sempre più riduzionistiche della malattia, formulate in termini di disfunzioni cellulari o molecolari e, più recentemente, genetiche e misurate per mezzo di metodi quantitativi precisi in rapporto a norme standardizzate. Con il cambiamento delle classificazioni e delle definizioni delle patologie e con la frammentazione dell'autorità diagnostica tra i diversi specialisti e le loro macchine ha iniziato a diffondersi tra i medici, i pazienti e i critici della biomedicina la preoccupazione che l'imperativo tecnologico e la ricerca di una sempre maggiore obiettività scientifica possano sminuire e disarticolare il giudizio clinico, riducendo la sensibilità dei clinici nei confronti dei singoli pazienti e delle loro specifiche esperienze.