La seconda rivoluzione scientifica: scienze biologiche e medicina. Epidemiologia
Epidemiologia
Il termine epidemiologia rimanda all'antico significato di epidemia, ossia malattia che colpisce una popolazione. La storia dell'epidemiologia, soprattutto nel XIX sec., è la storia del complesso rapporto tra malattie e popolazioni; va inoltre sottolineato che essa non tratta solo le malattie trasmissibili da individuo a individuo, anche se comunemente il termine epidemia è collegato all'idea di contagio. L'epidemiologia moderna, che prende avvio negli anni Trenta dell'Ottocento e ha per convenzione come data inaugurale la fondazione della London Epidemiological Society nel 1850, è un esempio di 'disciplina interdisciplinare'. Nella sua storia si intrecciano infatti conoscenze, metodi, urgenze e interessi provenienti dalle scienze naturali e umane e dalla sfera sociopolitica.
L'epidemiologia attuale collega dati di campi diversi con uno scopo preciso: l'individuazione dei fattori di rischio delle malattie finalizzata al miglioramento della salute delle popolazioni per mezzo della prevenzione.
L'applicazione del metodo statistico in medicina costituisce, insieme alle grandi discussioni su miasmi e contagi e su medicina sociale e batteriologia, la premessa metodologica allo sviluppo dell'epidemiologia. A sua volta, l'applicazione della statistica in medicina deriva da due scuole o correnti principali, una di lingua francese e di tendenza clinica e l'altra di origine inglese e con finalità prevalentemente igienistica.
I primi risultati di statistica medica sono stati forniti da matematici. Nel 1760 Daniel Bernoulli presentò all'Académie Royale des Sciences una comunicazione riguardo all'aumento dell'attesa di vita in seguito alla vaccinazione antivaiolosa (la pratica della vaccinazione può quindi a sua volta essere annoverata nel gruppo dei fattori che hanno determinato lo sviluppo dell'epidemiologia moderna). A partire dagli anni Trenta del XIX sec. cominciarono a nascere uffici statistici in Austria (1828), in Francia (1834), in Inghilterra (1837); nello stesso periodo, il matematico belga Lambert-Adolphe-Jacques Quételet pubblicò il trattato Sur l'homme et le développement de ses facultés, essai d'une physique sociale (1835), da cui prese avvio il filone francofono della statistica medica. Quételet inaugurava una nuova prospettiva sullo studio dell'uomo, ossia, come enuncia nell'introduzione dell'opera, lo studio e il calcolo dei fattori naturali (costanti) e casuali dell'ambiente che esercitano un'influenza sul suo sviluppo.
Per capire quali fattori influenzino lo sviluppo umano causando cambiamenti è necessario elaborare una nozione di 'uomo medio', a partire dalla quale possano essere evidenziate le variazioni. L'uomo medio è per lo Stato, sostiene Quételet, ciò che per un corpo fisico è il baricentro: un punto ideale da considerare come rappresentativo di tutti gli individui. Il discorso sull'importanza dell'uomo medio in clinica è condotto dal matematico belga a due livelli; per affermare che un individuo è malato il medico deve infatti confrontare il suo stato attuale con uno stato ideale o medio, soprattutto per stabilire in che misura le deviazioni rispetto al tipo medio siano pericolose per la sua sopravvivenza. Inoltre, ogni individuo ha un suo particolare 'stato medio' (si tratta del concetto di 'costituzione individuale') che potrebbe, se noto al paziente e al medico, aiutare in modo rilevante la diagnosi e la prognosi; poiché tuttavia questo stato è perlopiù sconosciuto, il clinico non può che basarsi sul confronto tra individui e individuo medio. Quételet definì la sua opera come una cornice concettuale da riempire con i parametri che la medicina avrebbe via via scoperto nel corso dello studio dei fattori perturbanti la salute.
Nell'anno di pubblicazione dell'opera di Quételet il medico Pierre-Charles-Alexandre Louis (1787-1872) dava alle stampe il risultato della sua ricerca sull'efficacia del sanguisugio, una delle terapie più diffuse del tempo, in cui constatava come l'estrazione di sangue non incidesse in maniera significativa sul decorso di alcune malattie infiammatorie. A questa conclusione, che metteva in discussione la terapia di elezione e implicitamente il modello umorale sotteso all'interpretazione della malattia, Louis arrivò suddividendo in sottogruppi un campione di 174 pazienti (107 casi di polmonite, 44 di erisipela e 23 di angina) e sottoponendo ogni gruppo al sanguisugio con frequenze diverse e a partire da momenti differenti. Il medico francese dichiarò la necessità che la clinica impiegasse il metodo numerico, cioè imparasse a usare il confronto aritmetico tra gruppi di casi elaborando tabelle che rendessero perspicuo il loro confronto.
Secondo le sue affermazioni, la medicina doveva evolvere sostituendo termini come 'spesso', 'talvolta' o 'raramente' con numeri. Sulla necessità dello studio di grandi numeri di casi ‒ possibilmente più numerosi del campione descritto nell'opera principale di Louis ‒ si espresse Siméon-Denis Poisson (1781-1840) nell'introduzione alle Recherches sur la probabilité des jugements (1837); studiare grandi numeri di eventi è l'unica strada per formulare spiegazioni per eventi che, presi singolarmente, sono attribuiti alla fatalità o sono considerati eccessivamente complessi e incontrollabili. Il contrario di questo procedimento è la scommessa, che consiste nella formulazione di ipotesi sulla base di pochi dati frammentari.
Sull'opera di Poisson si fondano i Principes généraux de statistique médicale (1840) di Jules Gavarret (1809-1890), secondo il quale la raccomandazione di Louis di sostituire 'spesso' ed espressioni simili con numeri non era che un espediente linguistico. Il vero cambiamento epistemologico avrebbe potuto farsi strada nella medicina soltanto con l'introduzione del calcolo delle probabilità, operazione ben diversa dal semplice conteggio di casi; la medicina doveva inoltre, per diventare scienza sperimentale, accettare un punto di vista alla Quételet e considerare le entità individuali (persone o sintomi) come confrontabili al di là delle loro caratteristiche singolari. Lunghe serie di osservazioni permettono di minimizzare gli effetti del caso e gli errori in particolare in campo clinico, in cui è fondamentale sapere che cosa ci si può aspettare da una certa terapia per una determinata malattia. Soprattutto, lo studio di imponenti numeri di casi è imprescindibile in campo terapeutico nel momento in cui si debbano confrontare due terapie per scegliere la più efficace: da una serie breve di osservazioni può emergere il risultato fuorviante che due o più terapie hanno lo stesso effetto ('salvano' o 'perdono' lo stesso numero di pazienti).
L'epidemiologia in Inghilterra
La corrente inglese dell'epidemiologia si ricollega a Louis per contatto personale: William Farr (1807-1883) e William Budd (1811-1880), che insieme a John Snow (1813-1858) sono due delle figure più rilevanti della scuola epidemiologica-igienistica, frequentarono a Parigi le sue lezioni. Louis fu maestro di una generazione di studenti europei e statunitensi e la sua insistenza sul metodo numerico si diffuse attraverso i suoi allievi in molti paesi.
L'uso di tabelle comprendenti dati demografici e sanitari si affermò in quegli anni anche con l'istituzione del General Register Office londinese, e con l'opera all'interno di esso (dal 1839) di Farr. Questi, che aveva studiato medicina e statistica ed era stato allievo di Thomas R. Malthus oltre che di Louis, elaborò anche una tassonomia delle malattie, formulò la correlazione tra malattie e povertà urbana e chiarì il concetto di legge di Natura applicato alla medicina ‒ una medicina i cui rappresentanti più attenti alla questione sociale cominciavano a essere interpellati dall'emergere di malattie legate all'urbanizzazione, come il colera e la tubercolosi.
Farr compilò tabelle di mortalità dalle quali emergeva come il fattore sociale influisse sulla mortalità; egli inoltre si occupò dello sviluppo di una nomenclatura omogenea delle malattie; infine, elaborò una classificazione delle professioni, da far interagire con i dati sulla malattia e sulla mortalità.
Il suo contributo più rilevante è il concetto di legge delle epidemie. Partendo dalla constatazione che le epidemie sorgono, si sviluppano e recedono secondo schemi ricorrenti, Farr le paragonò all'aspetto ciclico delle malattie individuali, come le crisi nei gottosi (l'idea di contagio come fattore della diffusione delle epidemie non era ancora consolidata). L'andamento regolare atteso poteva tuttavia essere modificato da interventi quale la vaccinazione, così come una buona salute e un'equilibrata dieta di base rappresentavano, secondo Farr, il miglior deterrente contro le malattie dovute alla povertà. Con l'ingresso di Farr, la Statistical Society of London, caratterizzata da interessi prevalentemente aritmetico-politici, ricevette un impulso verso la statistica medica e la demografia, ossia verso campi in cui l'intervento riequilibrante era allora più che mai necessario.
Anche la visione della medicina sostenuta da Farr esemplifica un atteggiamento pratico: essa deve essere studiata dal punto di vista storico non solo o non tanto come scienza, vale a dire come susseguirsi di concetti e teorie, bensì piuttosto secondo l'effetto che tale scienza esercita sullo stato di salute delle popolazioni.
La medicina dell'epoca, in particolare la scuola igienistica inglese, si trovava a dover affrontare malattie come il colera, e proprio sul colera (di cui era in corso un'epidemia in quell'anno) furono pubblicate nel 1849 due opere elaborate in ambiente vicino a Farr, dovute ai già citati Budd e Snow (che le rielaborerà in una seconda edizione nel 1855). L'osservazione di 'grandi numeri' di casi di febbre tifoide prima e di colera in seguito aveva portato Budd a formulare l'ipotesi secondo cui l'acqua aveva un ruolo centrale nella trasmissione delle malattie da un individuo all'altro e Snow a condurre il celebre studio da cui emerse il ruolo particolare dell'acqua inquinata del Tamigi, con la quale una compagnia idrica riforniva una pompa usata dagli abitanti di un certo quartiere. Snow confrontò i casi di morte di questo quartiere con quelli di quartieri serviti da altre compagnie e concluse che, a parità di ulteriori parametri, la differenza poteva essere rappresentata solo dall'acqua, che la compagnia idrica in questione attingeva in un punto particolarmente inquinato dalle acque nere; una volta disattivata la pompa non si presentarono nel quartiere altri casi di colera.
L'igiene urbana e i problemi collettivi di prevenzione sono anche alle radici di una discussione sulle cause delle malattie che ha segnato la moderna epidemiologia, ossia la questione se le malattie più diffuse abbiano origine locale, cioè siano determinate da caratteristiche ambientali, dette all'epoca anche costituzioni (nel senso di insieme di condizioni), o derivino dal contatto interpersonale con il passaggio di qualcosa di invisibile da un organismo all'altro. La visione ambientale dell'origine delle malattie, di derivazione ippocratica, prevalse fino all'ultimo quarto del XIX sec. sotto l'etichetta di localistica o di miasmatica, intendendo il miasma come una sorta di inquinamento dell'aria o del suolo. Tuttavia, il significato originale di questo termine rimanda a un'impurità rituale che può trasmigrare sugli individui che vengano a contatto con cadaveri o criminali o che si macchino di crimini: in altre parole, un vero e proprio contagio. Si vede quindi come i due termini siano interconnessi e come, in fondo, i due approcci, microbiologico ed ecologico, alla malattia (componenti fondamentali dell'epidemiologia), siano complementari sin dalle origini della storia del pensiero medico. L'ipotesi che potessero esistere materiali capaci di trasmettere malattie da persona a persona o da oggetti a persone era stata formulata da Girolamo Fracastoro (1478-1553) nell'opera De contagione (1546), ed esistono precedenti isolati anche nell'Antichità; il trattato, però, non incise in modo sensibile sulla medicina del tempo.
Un'opera fondamentale nella discussione miasmi-contagio, Von den Miasmen und Kontagien (Dei miasmi e dei contagi) fu pubblicata nel 1840 dal patologo Jacob Henle (1809-1885). Questi sosteneva che il termine miasma fosse un'etichetta usata per ignoranza delle vere cause e cercò di dimostrare che le malattie infettive ed epidemiche sono scatenate da esseri viventi microscopici; l'osservazione che alcune malattie, come la malaria, hanno un andamento ciclico, che fa pensare al ciclo vitale di un organismo invisibile, e che una quantità minima di 'materiale contagioso' è sufficiente per scatenare la malattia nei sani, proverebbe la capacità del materiale di riprodursi autonomamente nel nuovo ospite. Se lo sguardo concentrato sul microscopico ebbe il suo principale sostenitore in Henle, lo sguardo allargato all'ambiente è legato alla figura del farmacologo e chimico Max von Pettenkofer (1818-1901), secondo il quale la diffusione delle malattie era dovuta a esalazioni provenienti dal suolo umido o inquinato da escrementi. La convinzione che l'ambiente in sé sia (potenzialmente) patogeno è, come si è visto, antica. Tuttavia Pettenkofer può considerarsi un innovatore, avendo promosso la traduzione di questi principî localistici nella pratica dell'igiene pubblica. Il fondamento teorico fu poi considerato superato dalla batteriologia, che basandosi sulle posizioni di Henle concentrò la ricerca delle cause patogene a livello degli organismi microscopici. Le misure pratiche propugnate da Pettenkofer si rivelarono tuttavia efficaci. Pettenkofer non negava un ruolo casuale ai microorganismi, che nell'ultimo quarto del secolo biologi e medici andavano scoprendo nei materiali organici dei malati grazie a mezzi ottici e di contrasto sempre più sensibili; non li riconosceva tuttavia come causa sufficiente, sottolineando che solo l'interazione tra microorganismo (da lui chiamato 'contagio'), suolo e individui poteva spiegare l'insorgenza delle malattie. L'atteggiamento 'miasmatico', che cerca i fattori causali nell'ambiente, è ineliminabile dalla medicina e rappresenta uno dei capisaldi dell'epidemiologia. Va inoltre tenuto presente che nel XIX sec. esisteva la patologia storico-geografica, sistematizzata nel manuale Handbuch der historisch-geographischen Pathologie (Manuale di patologia storico-geografica, 1859-1864) di August Hirsch, che trattava le malattie da un punto di vista descrittivo ‒ non eziologico ‒ nella loro distribuzione spazio-temporale, aprendo una ulteriore prospettiva sull'ambiente. Anche questa disciplina fa parte, in senso lato, della strumentazione che confluirà nell'epidemiologia contemporanea.
Il periodo di affermazione della batteriologia, tradizionalmente collegato alla figura e all'opera di Robert Koch (1843-1910), è considerato un momento di arretramento dell'epidemiologia classica, quella nata negli uffici statistici e di igiene, dal localismo-miasmatismo, fatta propria dai movimenti di riforma sanitaria e finalizzata ad agire sull'ambiente soprattutto urbano. A seguito dell'individuazione di microorganismi specifici che davano l'impressione di riunire in sé le caratteristiche di causa necessaria e sufficiente, si ritenne che con la loro eliminazione o inattivazione si sarebbero debellate molte malattie. La prospettiva batteriologica, per affermarsi completamente, richiedeva tuttavia un forte riorientamento concettuale generale, dal momento che le spiegazioni umorali e ambientali insieme ai metodi preventivi di tipo igienico erano in auge da più di due millenni. Inoltre, anche il fatto che nel materiale organico tratto da malati fosse possibile ritrovare nuove entità microscopiche, non costituiva di per sé la prova che queste fossero la 'causa' della malattia: potevano essere viste, al contrario, come un 'prodotto' della 'corruzione degli umori'. Koch, tuttavia, figura emblematica di microbiologo, forte anche della sua individuazione degli agenti della tubercolosi e del colera rispettivamente nel 1882 e nel 1883, stigmatizzò l'igiene e il localismo come atteggiamenti difensivi di chi si nasconde per non venire a contatto con il nemico, mentre la batteriologia rappresentava l'atteggiamento opposto, quello della ricerca dello scontro diretto e, ovviamente, della vittoria.
La persistenza dell'agente causale nel passaggio da un organismo all'altro era stata accertata nel caso dell'antrace e dell'idrofobia da Louis Pasteur (1822-1895). Negli anni Settanta Koch aveva mostrato che una certa quantità di agente patogeno estratta da un paziente sopravviveva nel terreno di coltura al di fuori dell'organismo ospite, conservando una individualità e una sufficienza tali da provocare la stessa malattia in un ulteriore organismo.
Nel periodo di espansione della batteriologia si verificò un cambiamento nella percezione della malattia che andava nella direzione di una vera e propria 'personificazione': la malattia era l'agente microscopico e viceversa. Esaminando i manuali dell'epoca si trova infatti spesso il disegno di un vetrino da microscopio, che mostra per esempio i vibrioni, accompagnato semplicemente dalla didascalia 'colera'. Un nemico individuato tanto chiaramente costituiva una grande semplificazione e soddisfaceva anche alcuni residui del pensiero magico, secondo il quale la malattia era un'invasione dell'organismo da parte di esseri maligni. Nell'ultimo quarto del XIX sec. nei laboratori di tutto il mondo industrializzato furono compiute continue scoperte; le malattie più diffuse, come la tubercolosi, il colera e la malaria, furono attribuite univocamente ai microorganismi, fatto che indicava la strada per la terapia. La batteriologia, però, conteneva in sé una difficoltà: il concetto di agente microscopico come causa unica, necessaria e sufficiente non era indiscutibile. Per debellare le malattie si doveva eliminare la causa; ma la causa, per esempio nella tubercolosi, non produceva sempre la malattia; molte persone venivano infatti a contatto con il micobatterio, tuttavia soltanto in quelle già indebolite esso diventava in senso stretto causa di malattia. Se per causa si intende ciò che una volta debellato determina l'eliminazione della malattia, denutrizione e indebolimento sono dal punto di vista epidemiologico cause di tubercolosi alla stregua del microorganismo, poiché ne attivano la capacità di scatenare la malattia. Naturalmente l'approccio batteriologico, nei casi in cui porta allo sviluppo e all'utilizzazione di un farmaco specifico, elimina la causa una volta che la malattia è in atto. La batteriologia che cerca la causa in laboratorio è una componente imprescindibile della medicina, tuttavia da sola non è sufficiente alla prevenzione della malattia su scala sociale, che presuppone la ricerca delle cause fuori del laboratorio, nelle dimensioni spazio-temporale e sociale degli individui. Come si è detto, il colera rappresentava nella seconda metà dell'Ottocento la malattia urbana per antonomasia, paragonabile al cancro negli anni del secondo dopoguerra, ed era comprensibile che attirasse la maggior parte delle attenzioni degli epidemiologi, come nel caso inglese. Verso la fine del secolo, tuttavia, il colera cedette il rango di prima malattia degli epidemiologi alla tubercolosi, che mostrava una palese relazione tra condizioni di partenza dell'organismo ospite e probabilità di malattia in atto. Nei primi decenni dell'Italia unita la tubercolosi si diffuse in modo esponenziale, anche in relazione all'aumento del lavoro industriale minorile e femminile, che debilitava organismi già indeboliti dalla scarsa alimentazione e individui ancora in crescita.
La medicina della seconda metà del XIX sec. conteneva molte componenti dell'atteggiamento statistico, ecologico e sociale che sono confluite nell'odierna epidemiologia, anche se spesso si presenta come una medicina concentrata sul livello microscopico di cellule e microorganismi. L'emblema della multipolarità della medicina ottocentesca è rappresentato da Rudolf Virchow (1821-1902) che riunisce in sé la figura del patologo, alla ricerca dei 'luoghi' microscopici interni all'organismo e delle prime cause di malattia (le cellule), e quelle dell'epidemiologo e del medico sociale, impegnato nell'individuazione delle condizioni esterne della malattia. Fu proprio Virchow, un innovatore della medicina del microscopico, ad affermare che essa è una 'scienza sociale'.
Dal punto di vista dell'epidemiologia Virchow non era favorevole alla batteriologia e si collocava su posizioni vicine a quella di Pettenkofer, ritenendo le cause esterne, non soltanto ambientali ma anche e soprattutto sociali, il campo di azione della prevenzione medica politica. Le epidemie, sostenne metaforicamente Virchow, sono campanelli di allarme che segnalano ai governanti un disturbo nello sviluppo della popolazione.
Il successo della batteriologia portò la medicina, che pure conteneva le premesse per adottare una prospettiva ambientale, a sopravvalutare talvolta le possibilità della nuova disciplina e a formulare ipotesi di causalità batteriologica in casi in cui la causa era di altro tipo. Il caso italiano della pellagra ne è un esempio. Nel 1892 Cesare Lombroso pubblicò un Trattato profilattico e clinico sulla pellagra, malattia diffusa nella campagna italiana e sinistramente nota per la caratteristica di cominciare con lesioni dermatologiche e sfociare spesso nella demenza e nel suicidio. La pellagra è determinata dalla carenza di niacina, una vitamina del complesso B oggi nota tautologicamente anche come PP (pellagra preventing). Dalla metà del XVIII sec. questa condizione era stata oggetto di studio medico e su di essa si erano formate tre principali teorie che la attribuivano rispettivamente all'insolazione, alla carenza alimentare o a un'intossicazione da microorganismo. Tutte queste teorie si basavano a loro modo su dati osservati correttamente: a favore dell'insolazione deponeva il fatto che la malattia si presentasse nei contadini, soprattutto su volto e braccia, esposti al sole all'inizio dell'estate; l'origine carenziale era stata formulata sulla base dell'osservazione che i contadini si alimentavano in modo insufficiente e soprattutto monotono, cioè prevalentemente con mais, alimento privo della vitamina PP; infine, il mais che riservavano per la propria alimentazione era spesso avariato, osservazione che accreditava l'ipotesi che in quel cereale si nascondesse un agente patogeno invisibile.
Proprio alla teoria tossica aderì, alla fine del XIX sec., Lombroso che lavorò anche nella commissione incaricata di trovare soluzioni preventive proponendo un metodo di essiccatura del mais che avrebbe dovuto eliminare il parassita patogeno. La predominanza del pensiero batteriologico aveva, in questo caso, messo in ombra la pur forte associazione tra pellagra e carenza alimentare, già proposta in epoca precedente. Tuttavia convivevano opinioni contrastanti: se da una parte la posizione ufficiale del regno italiano unitario di recente fondazione era quella della tossicità del mais, ossia era in senso lato batteriologica, la soluzione pratica che da più di un secolo veniva attuata nelle campagne e che continuò a esistere era di tipo ambientale, ovvero il ricovero dei malati in ospizi nei quali l'alimentazione più equilibrata non raramente riusciva a guarire i pazienti.
Ciò che per l'epidemiologia contemporanea è ovvio, ossia che le malattie hanno origine multifattoriale, deriva in gran parte dalla molteplicità di approcci di contenuto o di metodo elaborati o sviluppati nel corso del XIX sec., ciascuno dei quali concorre a precisare che cosa l'epidemiologo debba cercare e come debba organizzare la ricerca e i risultati. La discussione intorno alla pellagra mostra però che, nonostante la presenza nella letteratura medica e nella pratica sanitaria diffusa di una molteplicità di approcci, in questo periodo l'approccio batteriologico ha assunto una posizione di predominio per i suoi innegabili successi nella 'caccia' ai microorganismi e ha sostenuto il pensiero epidemiologico talvolta a scapito di altre possibilità. Anche gli studi di demografia storica condotti sulla mortalità nell'area europea nell'ultima parte del secolo scorso (classici quelli di Thomas McKeown) hanno evidenziato che l'aumento della vita media non è tanto o non solo attribuibile agli interventi tecnici della medicina, tipicamente derivati dalla batteriologia, bensì a un certo miglioramento generale delle condizioni igieniche e alimentari, fattori che non possono più essere considerati di secondo piano nello studio della diffusione delle malattie nelle società.
Uno degli elementi più importanti che caratterizzano la medicina nel corso dell'Ottocento è l'introduzione di un metodo quantitativo per la misurazione dei fenomeni che interessano un'intera popolazione, in particolare le epidemie. Farr fu probabilmente il primo a introdurre una teoria matematica delle epidemie, utilizzando un'equazione polinomiale di terzo grado per descrivere e addirittura predire l'andamento della peste bovina nel 1865. I modelli utilizzati da Farr e, successivamente, da William H. Hamer e John Brownlee ‒ quest'ultimo nello studio della trasmissione del morbillo a Londra ‒ erano deterministici (Lancaster 1994), vale a dire prevedevano l'esistenza di una legge matematica che chiarisse i fenomeni sanitari come le leggi di Kepler spiegano i movimenti degli astri.
Agli inizi del Novecento la statistica matematica era quindi applicata ai concetti emergenti di infettività batterica e di trasmissione vettoriale. Nel 1906 Brownlee adattava le curve di frequenza pearsoniane a grandi serie di epidemie per le quali, nello stesso periodo, venivano proposti due diversi approcci quantitativi, che tenevano conto della teoria microbica e cercavano di rispondere a due problemi specifici: la ricorrenza delle epidemie di morbillo e i rapporti tra densità delle zanzare vettrici e incidenza della malaria.
Hamer ipotizzò che il corso di un'epidemia dipendesse dal tasso di contatto tra individui suscettibili. La nozione, che è diventata uno dei capisaldi dell'epidemiologia matematica con il nome di 'principio dell'azione di massa', assume il tasso netto di diffusione dell'infezione come proporzionale al prodotto della densità di persone suscettibili per la densità di individui infetti. A partire da tale principio, nel 1927 William O. Kermack e Anderson G. McKendrick concepivano un'altra pietra miliare dell'epidemiologia matematica, la 'teoria della soglia', secondo la quale l'introduzione di pochi individui infetti in una comunità di suscettibili non darà origine a un'epidemia a meno che la densità o il numero di suscettibili non si mantenga al di sopra di un determinato valore critico. Negli anni Sessanta del Novecento diversi studi hanno mostrato quindi che esiste una soglia di densità assoluta della popolazione perché una malattia infettiva possa mantenersi in un'isola o in una comunità cittadina. Per il morbillo, per esempio, è necessaria una popolazione di 4-500.000 persone o più. Dal modello di Kermack e McKendrick, denominato SIR (susceptible, infected, resistant/removed), sono derivati numerosi modelli matematici per aggiunta di ulteriori variabili (immunità, periodo di latenza, ecc.).
Nel 1910 il medico tropicale inglese Ronald Ross proponeva un modello probabilistico per determinare la relazione tra il numero di zanzare e l'incidenza della malaria in situazioni epidemiche ed endemiche. Nel 1952 George Macdonald ricavava dal modello di Ross, sempre nel contesto della modellizzazione della trasmissione della malaria, il concetto di tasso di riproduzione dell'infezione, R0, che rappresenta il numero di infezioni secondarie causate da un singolo caso di malattia. R0 è stato quindi assunto da Roy Anderson e Robert May nell'ambito di modelli stocastici più complessi per caratterizzare le dinamiche quantitative di trasmissione delle malattie infettive, in quanto definisce quantitativamente una delle condizioni per cui una malattia infettiva si propaga all'interno di una popolazione: R0 deve essere superiore a 1, ovvero ogni ospite infettato deve trovarsi in un ambiente che faciliti uno o più contatti infettanti con ospiti suscettibili. La propagazione della malattia e l'intensità di un'epidemia in una popolazione dipendono da diversi fattori spaziali e temporali che sono stati inquadrati negli anni Venti del Novecento da Lowell Reed e Wade H. Frost nel cosiddetto 'modello epidemico Reed-Frost'. Nel modello Reed-Frost la propagazione della malattia varia in relazione alla probabilità di contatti infettivi e di ospiti suscettibili. Tale probabilità è influenzata dalla densità della popolazione, dal tempo e dalla durata del contatto, dalla suscettibilità e dall'infettività dell'ospite, dalla trasmissibilità, dall'infettività e dalla virulenza dell'agente.
La metodologia degli studi epidemiologici del Novecento risente sia dell'evoluzione dei metodi matematici sviluppati nello studio delle grandi epidemie, sia della transizione dalle malattie infettive alle malattie degenerative. Tra i trend più evidenti nel corso dell'ultimo secolo ‒ messi in luce dagli studi epidemiologici ‒ vanno ricordati la considerevole riduzione della mortalità per malattie infettive; l'aumento (e poi la recente diminuzione) della mortalità per infarto e malattie cardio- e cerebro-vascolari; l'aumento della mortalità per tumori del polmone e, più recentemente, la diminuzione della mortalità per tumori dello stomaco e della cervice uterina. Alla sostituzione delle malattie infettive come principale causa di morte, a opera delle malattie croniche degenerative, si è dato il nome di 'transizione epidemiologica'.
L'epidemiologia ha consentito di identificare numerosi fattori di rischio per le malattie croniche degenerative, divenendo così la scienza di base per la prevenzione e la sanità pubblica. Tra le cause più importanti di malattie comuni che l'epidemiologia ha contribuito a identificare ricordiamo il fumo di tabacco, responsabile oggi di circa il 30% di tutte le morti per tumori nei paesi occidentali; i cancerogeni professionali come l'amianto, alcune ammine aromatiche, alcuni metalli pesanti (cromo, arsenico, nickel), le radiazioni ionizzanti e altre esposizioni professionali o ambientali; infine abitudini alimentari come una dieta carente di frutta, verdura e fibre grezze e ricca di sale, carne rossa e grassi saturi. È opinione comune tra gli scienziati che una sostanziale riduzione delle esposizioni menzionate porterebbe a una riduzione tra il 20 e il 30% delle morti per le principali malattie degenerative. Questo risultato è stato reso possibile dai considerevoli sviluppi metodologici dell'epidemiologia, in particolare il chiarimento delle basi concettuali del disegno dello studio (coorte, caso-controllo), a opera di autori quali David Sackett e Olli Miettinen, e dallo sviluppo delle tecniche di analisi statistica.
Studi sperimentali e non-sperimentali: la ricerca clinica sperimentale
La ricerca mirante a scoprire le cause delle malattie è di tipo quasi esclusivamente osservativo, non si avvale cioè di esperimenti sull'uomo che determinerebbero l'insorgere di problemi morali. La sperimentazione è invece possibile per studiare l'efficacia dei farmaci o di misure preventive. Tutti i medici oggi sanno che lo standard sperimentale per dimostrare l'efficacia di un farmaco è costituito dalla sperimentazione clinica controllata (o RCT, randomized controlled trial), ma non tutti sanno perché e come questo disegno sia stato prescelto. Sir Richard Doll nel 1998 ricordava che quando aveva conseguito la laurea in medicina nel 1937 i nuovi trattamenti venivano introdotti perché il professor A aveva trovato, in un piccolo gruppo di pazienti, risultati superiori a quelli del professor B. Le terapie, saggiate perlopiù su piccoli numeri di soggetti, erano così numerose che Doll fu in grado di compilare una lista di farmaci per l'ulcera che cominciavano con ciascuna lettera dell'alfabeto.
Di fatto, l'idea che per dimostrare l'efficacia di un trattamento si debba stabilire una comparazione tra due gruppi uno dei quali riceve il trattamento che si intende valutare e l'altro un diverso trattamento o niente, e che per evitare bias dovuti alla selezione o alle aspettative di chi effettua l'osservazione si debba introdurre una qualche modalità di allocazione casuale dei soggetti nei due gruppi, perché siano simili, ha una lunga tradizione nella storia della medicina. Nel corso dell'Ottocento e nei primi decenni del Novecento furono condotti numerosi esperimenti che allocavano casualmente, con differenti modalità, i soggetti sottoposti a diversi trattamenti per confrontarne l'efficacia, ovvero anche esperimenti in cieco con placebo. Meritano di essere ricordati lo studio sul siero antidifterico condotto nel 1898 da Johannes Fibiger, che somministrava il siero antidifterico a giorni alterni ai pazienti ammessi all'ospedale, e la sperimentazione controllata condotta da Adolph Bingel, tra il 1911 e il 1914, su 937 pazienti al fine di valutare gli effetti dell'antitossina difterica; la sperimentazione prevedeva l'allocazione alternata e l'utilizzazione di un siero di controllo indistinguibile da quello contenente l'antitossina.
Solo alla fine degli anni Quaranta fu comunque introdotta l'idea di un confronto sistematico fra pazienti del tutto simili, di cui un gruppo veniva trattato con il farmaco da sperimentare e l'altro gruppo con un placebo. Le prime sperimentazioni prevedevano l'allocazione alternata del farmaco e del placebo ai pazienti, man mano che questi si presentavano. Tuttavia, come venne obiettato dal biostatistico Austin Bradford Hill, il maggiore ispiratore dell'RCT, questa procedura implicava l'introduzione di un bias, in quanto il medico poteva avere un'iniziale impressione della superiorità di un farmaco sull'altro e pertanto lasciarsi influenzare nel reclutamento dei pazienti successivi. Pare che i primi a usare il lancio di una moneta per allocare i trattamenti ai pazienti siano stati Burns Amberson e i suoi colleghi nello studio dell'efficacia del tiosolfato d'oro nella terapia della tubercolosi. Essi costituirono due gruppi di 12 pazienti ciascuno; i pazienti erano appaiati uno a uno per le variabili che potevano influenzare l'esito del trattamento (o fattori 'confondenti'). Il lancio della moneta serviva solo a stabilire a quale dei due gruppi somministrare il farmaco sperimentale. Come obiettò però Hill: (a) appaiare per tutti i possibili confondenti riduce in maniera enorme il numero di pazienti eleggibili; (b) molte variabili che influenzano l'esito sono sconosciute; (c) l'appaiamento non consente di misurare l'errore standard, cioè la variabilità interindividuale nella risposta. Ispirandosi ai famosi esperimenti 'randomizzati' effettuati da Fisher in agricoltura nel 1926, Hill propose pertanto la randomizzazione, ossia l'estrazione a sorte non del gruppo, ma dei singoli pazienti da trattare con l'uno o con l'altro farmaco.
Il primo RCT in cui venne usata la randomizzazione fu quello della vaccinazione contro la pertosse, anche se il primo a venire pubblicato (nel 1948) fu quello condotto sotto la direzione di Philip D'Arcy Hart sul trattamento della tubercolosi con streptomicina. Il buon senso suggerì, in questo studio, di escludere l'uso di un placebo, poiché questo avrebbe comportato l'iniezione intramuscolare, quattro volte al giorno per quattro mesi, di una sostanza inerte. D'altronde, nel caso di una malattia così grave come la tubercolosi l'effetto psicologico del trattamento (che rappresenta la principale giustificazione all'uso di un placebo) è da ritenersi marginale. Non mancarono da parte dei clinici le reazioni negative rispetto all'RCT. Comprensibilmente, chi era abituato ad assumersi la responsabilità di singoli pazienti era un po' riluttante a somministrare un nuovo farmaco sulla base di una 'lotteria'. Thomas Lewis, per esempio, responsabile del Department of Clinical Research dello University College Hospital di Londra, riteneva che l'allocazione randomizzata fosse solo un espediente temporaneo, in attesa di trovare le basi razionali per riconoscere i pazienti che potevano giovarsi di una terapia. Hill lo sfidò a trovare tali basi chiedendo quali fossero i criteri su cui fondarsi per riuscire a distinguere i pazienti che avrebbero risposto alla terapia e affermando che, a quel punto, li avrebbe 'incorporati' nella sperimentazione.
L'RCT si è dunque imposto come standard della sperimentazione medica per motivi pragmatici, come dimostra la storia dei suoi primi successi. Se l'efficacia pragmatica del disegno randomizzato va riconosciuta, fino al punto che l'RCT è divenuta la pietra angolare della 'medicina basata sulle prove', bisogna però riconoscerne anche i limiti. In particolare, il modello della randomizzazione si presta a studiare interventi semplici come terapie farmacologiche o chirurgiche, non interventi complessi, altamente variabili e per i quali l'interazione tra terapeuta e paziente ha un ruolo centrale. Inoltre l'approccio sperimentale (sperimentazione randomizzata) è proponibile solo per interventi preventivi e curativi, e sotto precise condizioni di eticità; non è possibile invece applicarlo allo studio dei fattori di rischio. È per questo motivo che Hill ha proposto ulteriori criteri per il riconoscimento dei nessi causali entro studi osservazionali, cioè non sperimentali. L'idea di fondo è di supplire alla mancanza di randomizzazione cercando di evitare quanto possibile bias di selezione, assicurandosi il controllo delle variabili estranee alla relazione causale e applicando alcuni dei classici criteri di causalità già elaborati da Francis Bacon e John Stuart Mill: la riproducibilità delle osservazioni in contesti differenti, la coerenza interna delle osservazioni e la presenza di una proporzionalità tra la causa e l'effetto. A questo si aggiungeva la preoccupazione tipicamente statistica relativa alle dimensioni delle popolazioni studiate; l'inferenza scientifica è infatti giustificata se basata su un numero sufficientemente ampio di osservazioni, cioè se l'intervallo di confidenza delle misure è abbastanza ristretto.
Le prospettive: gli effetti della globalizzazione
Abbiamo accennato alla 'transizione epidemiologica' verificatasi a cavallo tra l'Ottocento e il Novecento nei paesi occidentali, e poi alla più recente diminuzione della mortalità per alcune delle principali malattie degenerative. Altre trasformazioni sono in atto, legate ai profondi mutamenti produttivi ed economici cui stiamo assistendo, e le cui implicazioni per la salute sono ancora incerte: (a) i mutamenti climatici portano alla diffusione di agenti infettivi e dei loro vettori, fenomeno cui concorrono anche i trasporti internazionali; (b) le mutate caratteristiche del mercato del lavoro comportano spostamenti ‒ anche su lunghe distanze ‒ di ingenti masse di persone, con conseguenze psicofisiche non ancora interamente comprese; (c) le scelte dell'industria alimentare privilegiano spesso il profitto rispetto a raccomandazioni di tipo preventivo, si pensi agli ingenti investimenti nella produzione di cibi salati, nonostante le forti evidenze della relazione causale sale-ipertensione; (d) molte delle malattie emergenti nei paesi occidentali (l'anoressia, il morbo di Alzheimer, le artropatie, le malattie autoimmuni) hanno cause ignote o definite in termini ancora troppo generici ‒ come il ruolo della psiche nei disturbi alimentari gravi.
L'epidemiologia del Novecento ha adattato i suoi metodi alla necessità di studiare nessi causali probabilistici per malattie clinicamente ben definite e dotate di un chiaro substrato anatomico (il cancro, le malattie cardiovascolari). Molte nuove malattie emergenti cui abbiamo accennato mancano di tale substrato, talora rientrando chiaramente tra le malattie su base psichica, talaltra sfuggendo invece ai tentativi di inquadramento dei meccanismi patogenetici. La sfida per l'epidemiologia consiste oggi nel pensare nuovi modelli interpretativi anche per questo scenario mutato.