Le analisi di laboratorio
Il termine 'analisi cliniche' è entrato nel linguaggio comune per identificare una branca della medicina che in questi ultimi decenni ha avuto un impetuoso sviluppo, fino ad assurgere a dignità di disciplina autonoma. La 'medicina di laboratorio' si può definire come la scienza delle analisi che studiano la natura e l'entità delle alterazioni che si verificano a livello cellulare nel corso della malattia, avvalendosi di mezzi chimici e fisici su campioni di liquidi e di tessuti prelevati dal paziente, per ricavarne dati utilizzabili sia a fine diagnostico e preventivo, sia per il monitoraggio della terapia medica. In generale, si può affermare che le analisi cliniche ampliano le possibilità diagnostiche e terapeutiche del medico con apporti obiettivi e, in gran parte dei casi, anche quantitativi. Nella pratica clinica, le analisi trovano posto in forma e misura diverse a seconda delle modalità operative e delle situazioni contingenti. Nella forma diagnostica più immediata, quella intuitiva, nella quale il medico riscontra un quadro di malattia a lui ben noto, a un'attenta anamnesi vengono fatti seguire test di laboratorio selettivamente mirati a confermare la diagnosi. Nel caso di un approccio diagnostico di tipo sistematico, necessario per un malato che presenti disturbi complessi o lamenti sintomi vaghi e non chiaramente localizzabili, si richiedono esami di laboratorio in gran numero e non mirati, diretti comunque ad analizzare tutti gli aspetti importanti che riguardano il paziente. Altre volte, il procedimento diagnostico si attua attraverso vie prefissate, definite da protocolli logici che portano a raccogliere tutte le informazioni necessarie alla conferma della diagnosi. In questo caso, le analisi cliniche sono richieste in modo sequenziale, a seconda della fase di osservazione clinica. Dall'enorme sviluppo di conoscenze fisiopatologiche e biochimico-tecnologiche è nato un vero e proprio sistema operativo del laboratorio di analisi cliniche, finalizzato ad accrescere gli strumenti del medico. Si tratta di una logica che, pur diversificandosi da quella del clinico vero e proprio, si prefigge l'integrazione dei dati soggettivi con quelli obiettivi, e presuppone differenti gradi d'intervento a seconda dei vari livelli di diagnosi e di cura: esami d'urgenza, di base, di approfondimento, di monitoraggio. Alcune malattie presentano una variazione fisiopatologica spiegabile su base prettamente biochimico-genetica, cioè difetti enzimatici o alterazioni strutturali di componenti proteiche, come accade per es. in varie malattie metaboliche; ma il caso più frequente è quello in cui si richiede di fornire al medico reperti statisticamente significativi, che permettano di valutare in termini predittivi la possibilità che si tratti di una determinata condizione morbosa, partendo dalla conoscenza dei valori di riferimento (o 'intervallo di normalità') di un certo elemento nell'ambito della popolazione di appartenenza del soggetto malato. In linea generale, gli esami di laboratorio che ricercano la presenza di un dato costituente biochimico, il cosiddetto analita, in un campione biologico, o ne determinano la quantità, sono basati su procedimenti di tipo qualitativo, semiquantitativo o quantitativo. Questi sono relativi alla misura di concentrazione o di attività di costituenti biochimici, oppure al riscontro morfologico di cellule (sangue, urine, liquor) o di altri elementi figurati (germi, parassiti, cristalli, cilindri ecc.).
Lo sviluppo delle analisi cliniche si associa a quello del pensiero medico e ne segue l'iter filosofico-culturale nel corso dei secoli. Il pensiero medico nasce nell'antica Grecia, ove, attraverso l'analisi costante della natura dell'uomo e delle sue espressioni, la medicina inizia ad affrancarsi da implicazioni magiche e dal dogmatismo sacerdotale per iniziare il suo lungo cammino verso la medicina scientifica. Indicazioni su ciò che si può 'vedere' e 'sentire' e su tutto ciò che si può 'riconoscere' e di cui possiamo 'servirci', comprese le 'emissioni' del malato, compaiono tra il 5° e il 4° secolo a.C. negli aforismi di Ippocrate. La sistematizzazione della natura, operata nel 4° secolo a.C. da Aristotele, rappresenta la base dell'opera di Galeno, vissuto tra il 2° e 3° secolo d.C., nell'ambito della cui metodologia si riconosce già il concetto di misurazione, proprio delle analisi cliniche. L'insegnamento di Galeno costituì a sua volta il fondamento della medicina fino a tutto il Medioevo. Significativi progressi furono compiuti nel Cinquecento a opera di Andrea Vesalio, Paracelso (Philipp Theophlast Bombast von Hohenheim) e Girolamo Fracastoro. È tuttavia solo nel 17° secolo che, con il superamento dell'alchimia, dovuto alla 'rivoluzione chimica' di R. Boyle e con l'opera di Galileo Galilei, il cui sistema di ingrandimento ottico viene applicato anche alla biologia con i microscopi di A. van Leeuwenhoeck, si pongono le basi della medicina moderna. La rivoluzione chimica e la scoperta della microscopia non rappresentano ancora la medicina di laboratorio, ma costituiscono le armi della rivoluzione scientifica che renderà possibile l'applicazione del metodo sperimentale, mediante il quale, nel 18° secolo, con G.B. Morgagni, si arriva alla definitiva strutturazione della medicina come scienza. Infatti, nel giro di pochi anni, la chimica subisce modificazioni fondamentali per opera di A.L. Lavoisier, che ne fa appunto una scienza basata sulle misurazioni. In meno di un secolo si ha così un travolgente succedersi di scoperte e di nuove tecnologie, che portano alla messa a punto dei primi test chimici a uso diagnostico, cioè alle prime vere analisi cliniche. Tra le tante, è sufficiente ricordare la prova di Fehling per la ricerca dello zucchero nelle urine (1848), il test di Pettenkofer per i pigmenti biliari (1844), e quelli di Heller per l'albuminuria e l'ematuria (1852). Finalmente dalla cosiddetta 'matula', il vaso trasparente che serviva per la raccolta e l'analisi dell'urina, simbolo del laboratorio del Medioevo, si giunge alla provetta, simbolo della medicina di laboratorio, che si avvale oggi degli apporti della microelettronica e della biologia molecolare, grazie alle quali il laboratorio di analisi cliniche è giunto agli attuali, sofisticati livelli di automazione e di complessità.
L'attuale organizzazione dei presidi sanitari e gli scopi per i quali gli esami di laboratorio vengono richiesti dal medico comportano diverse modalità di prescrizione ed esecuzione. Per quanto riguarda la forma sotto cui viene richiesta la maggior parte degli esami di laboratorio, si possono distinguere diverse tipologie:
a) analisi singole, il cui scopo è quello di fornire risposta a una domanda specifica (per es. il test di gravidanza);
b) raggruppamenti storici, cioè gruppi di analisi individuati sulla base delle conoscenze di fisiopatologia e convalidati dall'esperienza e dall'efficacia diagnostica dimostrata nel tempo. Fanno parte di questi raggruppamenti, per es., l'esame emocromocitometrico, l'esame chimico-fisico e citologico delle urine, l'esame chimico e citologico del liquor e dello sperma, l'esame delle proteine plasmatiche, sia come determinazione diretta sia come separazione elettroforetica, l'esame degli elettroliti. In questa categoria sono compresi anche raggruppamenti di analisi, definiti 'profili', che vengono utilizzati quale ausilio a un approccio diagnostico generale e si basano sulla scelta di parametri di grande rilevanza per i processi omeostatici e per i più importanti meccanismi fisiopatologici. Tra questi, vanno menzionati: i profili biometabolici (studio del metabolismo dei glucidi, dei lipidi ecc.); i profili d'organo, cioè gruppi di analisi che forniscono indicazioni generali sulla funzionalità di un organo (cuore, fegato, rene ecc.); i profili di apparato (scheletrico, emopoietico ecc.);
c) prove di funzionalità dinamiche e metaboliche, che mirano a valutare l'alterazione o la perdita, da parte dell'organismo, della capacità di reagire a determinati stimoli esterni, e sono quindi in grado sia di accertare la causa di una malattia sia di evidenziarne gli stadi iniziali. Tali prove valutano la risposta a uno stimolo accuratamente standardizzato, rapportandola a quella di una popolazione di riferimento. Tra le prove di funzionalità dinamica di uso più comune, la più nota è certamente il test di tolleranza al carico orale di glucosio (OGTT, Oral glucose tolerance test), che ha assunto importanza fondamentale nella diagnosi del diabete;
d) esami di screening, che mirano a riconoscere in intere popolazioni o in singoli gruppi o categorie la presenza o meno di determinati caratteri, per consentire la diagnosi precoce di determinate malattie e condizioni morbose. Si basano sull'ipotesi che la diagnosi presintomatica di affezioni reali o potenziali sia possibile e vantaggiosa. Da questo punto di vista, nelle nazioni più evolute è stata stabilita per legge l'esecuzione di screening neonatali per patologie di notevole incidenza e per le quali risulti ampiamente stabilita la validità nella prevenzione dei danni che possono derivare dal mancato controllo di alterazioni congenite del metabolismo (in Italia si effettuano quelli per l'ipotiroidismo, per la fenilchetonuria e, più recentemente, anche per la fibrosi cistica). Altri esempi di screening tipici sono quelli su persone che, per motivi professionali legati all'ambiente di lavoro, sono abitualmente in contatto con agenti tossici;
e) esami d'emergenza, cioè quelle analisi cliniche, eseguite quasi esclusivamente in ambiente ospedaliero, che consentono in tempi brevi di formulare una diagnosi o di confermare un trattamento terapeutico in atto. Teoricamente, ogni analisi è urgente e l'attuale livello di automazione e di velocità della strumentazione presente nei laboratori può rendere possibile la rapida esecuzione di un notevole numero di esami, ciò che permetterà sempre più spesso, nel prossimo futuro, di praticare il trattamento dei pazienti in regime di day hospital. Nell'ambito di queste considerazioni, gli operatori hanno introdotto il concetto di esame d'emergenza, legandolo alla necessità di un rapido intervento terapeutico quando ci si trovi in condizioni di pericolo di vita per il malato.
Tutte le attività che abbiamo elencato vengono svolte nel laboratorio di analisi cliniche, cioè in un luogo che deve possedere le caratteristiche di un ambiente di alta tecnologia e che quindi presenta problemi di strutturazione e di organizzazione di notevole complessità. Un modello a settori, che comprenda la biochimica clinica, la microbiologia, l'ematologia, l'immunologia, la virologia, la microscopia ecc., è attualmente l'assetto organizzativo con il quale sono strutturati laboratori di medie e grandi dimensioni, laddove sono richieste prestazioni di particolare impegno tecnologico e scientifico.
Per qualsiasi categoria di esami di laboratorio sono importanti la definizione della natura del materiale biologico sul quale eseguire il riscontro analitico (sangue in toto, plasma, siero, urine, liquor, essudati, trasudati, liquido amniotico, sperma, calcoli, feci ecc.), le modalità di prelievo e le precauzioni da adottare per evitare il deterioramento del campione prelevato (eventuale uso di anticoagulanti e preservanti, procedure per la conservazione ecc.). In ogni tipo di presidio, ospedaliero o territoriale, viene organizzata nel laboratorio una struttura di accettazione del campione biologico su cui eseguire gli esami e in moltissimi casi il sistema di accettazione è informatizzato. Per le differenti tipologie di campione biologico sono anche indicati i tipi di provette, in genere identificate da tappi di colore diverso, sulle quali il personale medico o infermieristico deve applicare con correttezza il codice a barre che identifica univocamente il paziente cui il prelievo si riferisce. Questa procedura consente di analizzare il campione e di fornire i risultati nel più breve tempo possibile, diminuendo al massimo le possibilità di errore per scambio di campione. Inoltre, da molto tempo nei laboratori italiani, in concomitanza con i sistemi di produzione adottati da alcune industrie, è stato introdotto il concetto di 'controllo di qualità', che rappresenta un primo passo verso l'applicazione della 'qualità totale', che si propone di garantire quanto più possibile il controllo degli errori che possono incorrere nelle varie fasi delle analisi cliniche.
L'errore di laboratorio, anche se difficilmente evitabile in assoluto, in quanto si opera su materiali biologici per loro natura soggetti a numerosi fattori di variabilità, è oggi molto limitato, grazie soprattutto al perfezionamento della strumentazione e all'automatizzazione delle apparecchiature. L'errore, che può può essere dovuto a imprecisione (risultati variabili in analisi ripetute sullo stesso campione) e a inaccuratezza della misurazione (differenza tra il valore analitico trovato e quello vero), può intervenire in ciascuna delle tre fasi che caratterizzano l'esecuzione di un'analisi: preanalitica, analitica e postanalitica, o di refertazione. L'errore preanalitico non riguarda solo la tecnica di prelievo e le sue modalità, ma investe anche fasi che precedono o seguono il prelievo stesso. Va tenuto presente che l'errore nella fase preanalitica, nella quale sono coinvolti il medico prelevatore o l'infermiere professionale cui sono affidati il prelievo e la raccolta dei campioni da inviare al laboratorio, non è ancor oggi controllabile con mezzi scientificamente rigorosi. Per evitare, o almeno limitare, tale tipo di errore occorre quindi avere sempre ben presenti i fattori che possono originarlo. Un'importante fonte di errore preanalitico risiede nella variabilità biologica dei campioni prelevati. Molti dei costituenti ematochimici e urinari, per es., sono soggetti a variazioni della loro concentrazione durante l'arco della giornata, o da un giorno all'altro, o nelle diverse stagioni o periodi dell'anno. Particolarmente soggetti a queste variazioni sono certi ormoni, ma anche analiti più comuni, come il ferro e i trigliceridi del siero, che possono mostrare oscillazioni marcate nello stesso giorno o in giorni diversi, indipendentemente da fattori alimentari. Non è quindi indifferente praticare il prelievo del campione in momenti diversi della giornata e, se ciò è inevitabile, è comunque opportuno tenerne il debito conto. Un'altra causa di errore preanalitico, che negli ultimi tempi ha assunto sempre maggiore importanza, è l'interferenza dei farmaci in numerose analisi di laboratorio: il moltiplicarsi dei composti, in forme chimiche di sintesi dotate delle attività più svariate, è causa di false reazioni in numerosi tra i più comuni metodi di analisi impiegati nella routine di laboratorio. Gli errori della fase analitica e postanalitica, invece, sono oggi estremamente limitati grazie all'adozione di sistemi di automazione e informatizzazione, che vengono sempre più spesso garantiti dal 'controllo di qualità'. Il prelievo dei campioni biologici
Poiché l'ingestione di cibo può influenzare in maniera sensibile la concentrazione di alcune delle sostanze presenti nel sangue, in particolar modo il glucosio, i trigliceridi e il fosforo inorganico, e l'aumento dei trigliceridi è inoltre causa di un intorbidimento del siero tale da interferire con alcune determinazioni ematochimiche, in generale il prelievo di campioni di sangue viene effettuato al mattino dopo una notte di digiuno, cioè a una distanza di 10-12 ore dall'ultimo pasto, quando l'assorbimento alimentare è completato. Per la determinazione dei componenti lipidici (soprattutto i trigliceridi), il cui assorbimento può essere più lento, è consigliabile un periodo di digiuno un po' più lungo, di 14-16 ore. Va tuttavia tenuto presente che un periodo più prolungato di digiuno può essere a sua volta causa di errori: per es., dopo 48 ore di digiuno la concentrazione della bilirubina raddoppia, e quelle dei trigliceridi e degli acidi grassi liberi aumentano sensibilmente. Anche molti ormoni sono influenzati dal digiuno prolungato. È inoltre necessario porre attenzione alla dieta precedentemente seguita dal paziente, per quanto riguarda gli aspetti quantitativi e qualitativi. Così, per es., una dieta ricca in grassi causa un'elevazione dei livelli di fosfatasi alcalina, mentre una dieta ricca in proteine provoca aumento dell'urea e delle transaminasi e diminuzione del glucosio e del colesterolo; la quantità e il tipo di carboidrati sono particolarmente importanti per ciò che si riferisce al test di tolleranza ai glucidi (o curva glicemica, rappresentativa della quantità di glucidi presenti in funzione del tempo), in quanto l'assunzione nei giorni precedenti l'esame di una dieta ricca in questi nutrienti appiattisce la curva, mentre un effetto opposto si ha nel caso di una dieta che ne sia carente.
L'ingestione di alcol ha rilevanti effetti su numerosi enzimi, in particolare gamma-glutamil transpeptidasi, transaminasi e lattato deidrogenasi. Questi effetti persistono a lungo, per diversi giorni, e possono pertanto sfuggire all'anamnesi. Anche l'esercizio muscolare può avere importanti conseguenze sui risultati di molte analisi, soprattutto di quelle relative a talune attività enzimatiche del siero, come, per es., creatina chinasi, transaminasi ecc. A proposito della creatina chinasi, va ricordato che essa aumenta nel siero anche se il paziente riceve iniezioni intramuscolari. Una frequente causa di errore per il paziente ricoverato in ospedale è l'esecuzione del prelievo nel corso di infusioni venose, poiché le sostanze presenti nella soluzione iniettata (elettroliti, glucosio ecc.) alterano ovviamente la concentrazione plasmatica di questi componenti. Infine, altro importante fattore concernente la preparazione è rappresentato dalla posizione del paziente durante il prelievo, in quanto numerose sostanze modificano la loro concentrazione in rapporto a tale posizione, reclinata o eretta, e ciò sia per motivi fisiologici sia per semplice variazione del volume plasmatico.
Nell'adulto viene di norma prelevato sangue venoso. Si utilizza generalmente una vena del braccio, inturgidita mediante l'uso di un laccio emostatico, ponendo grande attenzione alla stasi venosa prodotta da questo, che deve essere il più possibile limitata nel tempo, perché quando è prolungata provoca importanti modificazioni della composizione ematochimica. Il prelievo per la determinazione del pH e dei gas del sangue richiede particolare cautela, non soltanto per le rapide variazioni cui questi parametri possono andare incontro nel tempo, ma anche per il fatto che per la standardizzazione e il controllo dell'analisi vengono utilizzate in laboratorio soluzioni assai diverse dal sangue per composizione, stabilità e conservabilità. È quindi più facile, rispetto a quanto avviene per altri analiti, commettere errori per cause preanalitiche. Il più adatto per questo tipo di analisi sarebbe il sangue arterioso, ma a motivo della delicatezza del prelievo di questo, si usa comunque il sangue venoso che viene 'arterializzato': a questo scopo è sufficiente scaldare la mano e l'avambraccio in acqua a 45 °C per 15 minuti, eseguendo quindi il prelievo senza applicare il laccio emostatico.
Un'alternativa è rappresentata dal prelievo di sangue capillare arterializzato: a questo fine, un dito o il lobo dell'orecchio o il calcagno vengono riscaldati a 45 °C per 5 minuti, praticando poi un'incisione di almeno 5 mm di profondità. Per evitare alterazioni dei parametri da misurare, il sangue deve fuoriuscire liberamente e rapidamente, senza che venga esercitata alcuna pressione. In ogni caso, è raccomandabile eseguire il prelievo a paziente supino e tenuto al caldo, a riposo completo da almeno 15 minuti. L'analisi deve essere effettuata immediatamente, al fine di prevenire variazioni artificiali delle concentrazioni dei gas da misurare.
Un problema assai più complesso è invece il prelievo di sangue nei bambini piccoli. Il prelievo attraverso la vena o l'arteria ombelicali va evitato, per quanto possibile, a causa delle frequenti complicazioni. Nel neonato e nel bambino fino a due anni di età, si utilizza il sangue capillare prelevato dalla cute del calcagno. La puntura della cute del dito è sconsigliata a causa del rischio di provocare gravi danni all'osso della falange. Tale sede può essere usata per la puntura cutanea nel bambino di età superiore ai due anni, quando, essendo iniziata la deambulazione, è preferibile risparmiare la pianta del piede.
Il prelievo dalla cute del calcagno deve avvenire seguendo scrupolosamente una tecnica ben precisa, per evitare al piccolo paziente il rischio di danni non infrequenti e spesso gravi (osteocondriti, microascessi, formazioni ossee ecc.), che in seguito potrebbero compromettere l'apprendimento della deambulazione. Innanzitutto, occorre tener presente che nel neonato e nel bambino fino a due anni, tra la superficie cutanea e quella del sottostante osso calcaneare vi è uno spessore di circa 2-3 mm; va quindi evitata la curvatura del calcagno, tanto più se tesa dalla flessione del piede. Si raccomanda invece di utilizzare l'area più laterale o più mediale della superficie plantare del calcagno, nella loro porzione più esterna, di praticare la puntura a una profondità non superiore a 2 mm e, infine, di non eseguire la puntura in sedi già utilizzate in precedenza. Prima di eseguire la puntura per il prelievo, occorre riscaldare e disinfettare la cute. Il riscaldamento è necessario per aumentare il flusso ematico e facilitare il prelievo.
Dopo la puntura è opportuno scartare con garza sterile la prima goccia di sangue, solitamente mista a liquido tessutale, raccogliendo quindi il sangue goccia a goccia senza esercitare pressione.
La fase successiva al prelievo è quella della distribuzione delle aliquote del campione nelle provette. A tale proposito, è consigliabile togliere l'ago dalla siringa, dal momento che l'espulsione attraverso l'ago può creare una pressione e una turbolenza sufficienti a provocare danno e lisi delle cellule del sangue, con conseguenti errori nelle misure, non soltanto dei parametri ematologici (conteggio delle cellule, ematocrito ecc.), ma anche dei componenti sierici. La determinazione di questi ultimi può risultare alterata sia per il passaggio dell'emoglobina nel plasma, sia per la fuoriuscita di costituenti cellulari che modificano la concentrazione degli stessi nel siero: molti enzimi presenti nel siero, per es., sono contenuti in concentrazione considerevolmente più elevata negli eritrociti, nei leucociti e nelle piastrine. Al sangue prelevato vengono aggiunti anticoagulanti e additivi atti alla sua conservazione.
Al fine di evitare errori, deve essere tenuto presente, per es., che gli anticoagulanti sono quasi tutti in forma di sali e i corrispondenti elettroliti (sodio, potassio, ammonio) possono provocare alterazioni nella determinazione di questi analiti; alcuni di essi, poi, interferiscono di per sé in diversi metodi di determinazione, specialmente delle attività enzimatiche o dei fattori di coagulazione; alcuni additivi, che hanno la funzione di proteggere o preservare certi analiti dalla decomposizione o degradazione (è il caso, per es., degli inibitori della glicolisi, quali l'acido monoiodoacetico o il fluoruro, la cui aggiunta è richiesta nei campioni destinati al dosaggio del glucosio, allo scopo di evitarne il consumo a opera del metabolismo eritrocitario nel periodo che intercorre tra il prelievo e la centrifugazione, cioè il procedimento che separa il plasma dalla parte corpuscolata), sono veleni enzimatici. Non solo la qualità dell'anticoagulante, ma anche il suo volume, quando non sia trascurabile, può essere fonte di errore in alcune analisi, influenzando la diluizione del campione; è questo il caso delle analisi di coagulazione o della velocità di eritrosedimentazione, ove una diluizione non esatta del campione può essere causa di risultati marcatamente alterati.
Per quanto riguarda il trasporto dei campioni al laboratorio e il loro stoccaggio, è opportuno evitarne l'agitazione o lo scuotimento, sicura causa di gravi alterazioni, specialmente dei componenti corpuscolati. Se è necessario conservare campioni di sangue dopo il prelievo, va tenuto presente che numerose alterazioni dei componenti possono verificarsi in questa fase: per es., il potassio, che è contenuto nelle cellule in concentrazione enormemente superiore a quella esistente nel plasma, fuoriesce da queste, causando falsa iperpotassiemia (la conservazione in frigorifero aggrava questo fenomeno); viceversa, il glucosio plasmatico diminuisce se il campione è conservato senza additivi che bloccano la glicolisi (in questo caso, la conservazione in frigorifero rallenta la degradazione del glucosio). Il siero può essere mantenuto in congelatore, con soddisfacente conservazione per lungo tempo di pressoché tutti i componenti, se la temperatura è inferiore a -20 °C; il sangue intero, invece, non può essere conservato in congelatore, perché va rapidamente incontro a rottura delle cellule, che rende il campione del tutto inservibile per il laboratorio. La luce solare ha effetti negativi su alcuni analiti (per es. la bilirubina), causandone la decomposizione.
Per l'esame chimico-fisico e microscopico dell'urina è in genere sufficiente un campione di 100-200 ml, che viene generalmente raccolto al mattino, tenendo comunque presente che la concentrazione di alcuni componenti, per es. il glucosio, può essere influenzata dalla distanza dai pasti. È importante che il campione sia inviato in laboratorio entro due ore, in quanto molti componenti dell'urina, sia corpuscolati sia chimici, vanno rapidamente incontro ad alterazioni o a decomposizione. Durante la raccolta del campione è necessario evitare con cura la contaminazione con materiale fecale, vaginale ecc. Per un'analisi più accurata, atta a fornire il valore medio dei componenti normali e patologici emessi nel corso di una giornata, si esegue la raccolta delle urine delle 24 ore, che appare però più problematica.
Principale causa di errore è la non corretta raccolta del volume completo emesso nelle 24 ore. Perché questa sia esatta, è necessario far vuotare la vescica, scartando l'urina emessa, controllare l'ora, e quindi raccogliere tutta l'urina emessa fino alla stessa ora del giorno seguente. Durante la raccolta, l'urina va conservata in frigorifero in un recipiente chiuso contenente il preservante adatto per la sostanza che si intende analizzare. Possono essere prelevati anche campioni da liquidi di versamento (per es., liquido pleurico, liquido peritonale, liquido pericardico). Il prelievo, che viene generalmente eseguito in ambito ospedaliero mediante puntura, va fatto preferibilmente a digiuno, in quanto tra le analisi che può risultare interessante eseguire in questi liquidi vi è la determinazione del glucosio. Di norma non si aggiungono anticoagulanti, poiché l'eventuale formazione di aggregati fibrinosi costituisce un dato rilevante dal punto di vista analitico. Per quanto riguarda la raccolta delle feci è importante che avvenga in recipiente sterile e che il materiale, facilmente degradabile, sia conservato in frigorifero. Per alcune indagini microbiologiche, per es. la ricerca delle salmonelle, si esegue la raccolta del campione fecale introducendo un tampone nell'orifizio anale.
Si tratta di una serie di strumenti, presenti da alcuni anni nei laboratori, che permettono di migliorare l'accuratezza e la precisione dei dati chimico-clinici, nonché la velocità di esecuzione delle prestazioni analitiche e la sicurezza degli operatori. Questo tipo di piccola strumentazione comprende micropipette, dispensatori, diluitori. Le micropipette sono utilizzate per il prelievo e l'erogazione di volumi modesti (da 5-10 μl a pochi ml); sono provviste di un sistema a pulsante o a stantuffo e possono essere a volume fisso oppure a volume variabile. I dispensatori di liquidi sono apparecchiature capaci di erogare volumi prestabiliti compresi tra 1 e 20-30 ml, in modo manuale o automatico, se è una pompa elettrica che provvede all'aspirazione e alla successiva erogazione del liquido. Sono quasi sempre a volume variabile e sono costituiti da un complesso meccanismo di erogazione e da una serie di tubi di teflon. I diluitori automatici provvedono al prelievo di un certo volume e alla sua diluizione con un solvente durante la erogazione, con rapporto di diluizione che può essere fisso o variabile. I diluitori sono per lo più inseriti in un gruppo di apparecchiature, con le quali formano un complesso strumentale più o meno automatizzato.
L'assorbanza è la misura della capacità di un certo mezzo fisico di attenuare l'intensità di un'onda elettromagnetica di caratteristiche fissate che lo attraversi; in altre parole l'assorbanza esprime la frazione dell'energia dell'onda incidente sul mezzo che non viene né riflessa né trasmessa dal mezzo stesso. Viene utilizzata nel dosaggio qualitativo e quantitativo di molti analiti, in quanto, a temperatura costante, la quantità di luce di una determinata lunghezza d'onda assorbita da una sostanza in soluzione è proporzionale alla sua concentrazione molare. Visto il larghissimo impiego di questa tecnica di analisi, gli strumenti che misurano l'assorbanza devono essere in grado di sopportare un carico di lavoro valutabile in circa il 60-70% di tutta l'attività che viene svolta in un laboratorio generale di base.
Colorimetri, fotometri e spettrofotometri.
Sulla base dei rispettivi principi di funzionamento, gli strumenti per misure di assorbanza si classificano in colorimetri, fotometri e spettrofotometri a prisma e a reticolo. I colorimetri sono strumenti usati nell'analisi chimica colorimetrica per determinare, per confronto con una soluzione di concentrazione nota, il tenore ovvero la quantità di una sostanza colorante presente in una data soluzione.
Si tratta di strumenti particolarmente semplici, che ben si prestano per indagini colorimetriche di routine. La sorgente luminosa è costituita da una lampada a incandescenza alimentata da una batteria o da un trasformatore. Per disporre di uno strumento con luce quasi monocromatica, cioè una radiazione elettromagnetica avente una determinata frequenza e lunghezza d'onda, si usa un filtro interferenziale in grado di selezionare bande passanti di poche decine di nanometri. Ciò permette di far cadere sulla fotocellula un ristretto campo di lunghezze d'onda. Questi strumenti possono essere usati solo per letture nell'ambito dello spettro del visibile, e pertanto sono provvisti di filtri operanti tra 405 e 700 nm. I fotometri sono strumenti atti a misurare l'intensità di una sorgente per confronto con quella di una sorgente campione (fotometri diretti), oppure mediante un dispositivo fotoelettrico (fotometri indiretti). Hanno le stesse caratteristiche dei colorimetri, con una maggiore risoluzione per le bande relative a 340-360 e 405 nm. Per rendere possibile una migliore riproducibilità dei dati analitici, i recipienti in cui viene posto il campione in esame (cuvette) possono essere posti in un termostato.
Gli spettrofotometri sono strumenti atti a rilevare le caratteristiche spettrali di un'emissione di sorgente oppure lo spettro di assorbimento di una sostanza (in tal caso quest'ultima è interposta fra lo strumento e una sorgente luminosa di cui sia noto lo spettro di emissione).
Per selezionare la luce monocromatica si usa un monocromatore a prisma o a reticolo, che permette l'utilizzazione di una luce con una banda passante molto stretta, anche di frazioni di nanometro (negli strumenti più precisi, che tuttavia sono impiegati in genere solo nei laboratori di ricerca). Per rilevare le radiazioni elettromagnetiche, gli spettrofotometri utilizzano i fotomoltiplicatori, cioè strumenti capaci di amplificare la risposta. Negli spettrofotometri di recente produzione la lettura galvanometrica o analogica è stata sostituita con quella digitale, che consente, tramite l'introduzione di fattori di conversione, la lettura diretta dei valori di concentrazione della sostanza in esame. Nei laboratori di grandi dimensioni è presente un tipo di strumentazione analitica che, pur basandosi sugli stessi principi di funzionamento dei fotometri o degli spettrofotometri, consente l'analisi meccanizzata e rapida di numerosi campioni in automazione completa o parziale. Il primo tipo di analisi consente di conoscere la concentrazione di una determinata sostanza partendo dal siero o da un altro liquido biologico in esame. Qualora vengano omesse una o più tappe nella successione analitica, si parlerà di automazione parziale o semiautomazione.
Turbidimetria e nefelometria.
La turbidimetria e la nefelometria si possono considerare varianti della fotometria. Queste tecniche, e i relativi apparecchi, servono a misurare l'intensità della torbidità prodotta da particelle in sospensione, che è proporzionale alla concentrazione del componente in esame. La misurazione per turbidimetria viene eseguita con comuni fotometri e si basa semplicemente sulla diminuzione della trasmissione di luce per effetto della torbidità. La misurazione nefelometrica è invece basata sulla diffusione dei raggi luminosi che colpiscono le particelle in sospensione e che da queste vengono deviati. Fluorimetria e spettrofluorimetria La fluorimetria e la spettrofluorimetria sono tecniche che cominciano a essere selettivamente utilizzate in varie apparecchiature di biochimica clinica, specialmente per i dosaggi ormonali. Si dicono fluorescenti tutte quelle sostanze che, per la loro particolare struttura molecolare, sono in grado di assorbire radiazioni elettromagnetiche a una certa lunghezza d'onda (luce eccitante) e di riemetterle dopo tempi brevissimi a lunghezza d'onda maggiore (luce fluorescente). I fluorimetri e gli spettrofluorimetri sono gli strumenti utilizzati per la misurazione dell'emissione fluorescente e per l'analisi qualitativa delle sue caratteristiche spettrali; sono costruiti in maniera tale che il fotorivelatore sia colpito soltanto dalla luce emessa. La sensibilità dei metodi fluorimetrici è 1000-10.000 volte superiore a quella dei metodi fotometrici, ed è proprio per questo motivo che essi vengono continuamente sviluppati e impiegati per il dosaggio di analiti presenti in basse concentrazioni nei fluidi biologici.
Spettroscopia di assorbimento e fotometria di emissione.
La spettroscopia di assorbimento si basa sul principio che le radiazioni in uscita da uno spettroscopio nel quale un materiale sia stato fatto attraversare da una radiazione policromatica (per es. da luce bianca) hanno spettro uguale a quello della radiazione incidente privato, però, delle frequenze assorbite dal materiale (per es., nel caso citato della luce bianca, lo spettro di questa, dal rosso al violetto, appare solcato da righe, o bande, nere che caratterizzano l'assorbimento del materiale). Questa tecnica è impiegata per dosare, per es., cationi di grande importanza clinica (magnesio, calcio ecc.), certi elementi oligominerali (ferro, zinco, cromo ecc.) e taluni metalli di interesse tossicologico (piombo e mercurio). I metalli alcalini, come sodio, litio e potassio, sono generalmente individuati utilizzando la fotometria di emissione. Questa tecnica si basa sul principio che un atomo che passa da uno stato di energia a uno più elevato, per es. acquisendo energia per mezzo del calore fornito da una fiamma, quando torna al livello energetico iniziale emette radiazioni la cui lunghezza d'onda è caratteristica per ogni elemento. Si tratta di una tecnica molto utile, anche se soggetta a parecchie limitazioni.
Da alcuni anni si sono diffusi metodi notevolmente sensibili e precisi che sfruttano i principi delle reazioni immunitarie per il dosaggio di numerose sostanze di natura proteica, come gli ormoni. Il campione in esame, contenente la proteina da dosare che funge da antigene, viene fatto reagire con un anticorpo specifico; da questo incontro si formeranno delle molecole, chiamate immunocomplessi, composte dall'antigene legato all'anticorpo. La concentrazione degli immunocomplessi, in opportune condizioni di rapporto tra antigene e anticorpo, è proporzionale alla concentrazione della proteina che si ricerca. Per dosare gli immunocomplessi si può ricorrere a varie tecniche. Nei metodi radioimmunologici l'anticorpo è legato a un isotopo radioattivo, solitamente lo iodio (125I), che può essere misurato con opportune apparecchiature. Più recentemente, per evitare di ricorrere alla radioattività, sono stati adottati i metodi immunoenzimatici, che sostituiscono il marcatore radioattivo con enzimi. La tecnica consiste nel misurare l'attività dell'enzima legato all'anticorpo o all'antigene. Nelle tecniche di immunofluorescenza, invece, il marcatore utilizzato è una molecola fluorescente legata alla molecola dell'anticorpo: l'immunocomplesso fluorescente viene rivelato mediante spettrofluorimetro, microscopio o altri strumenti specifici. Un'altra tecnica di dosaggio degli immunocomplessi consiste nella misurazione mediante turbidimetria o nefelometria. Infatti la reazione antigene-anticorpo dà luogo a un immunoprecipitato specifico, che presenta le caratteristiche fisiche idonee per essere valutato mediante queste due tecniche. Questo metodo presenta importanti vantaggi rispetto agli altri, in particolare la maggiore semplicità del procedimento analitico.
La misurazione del pH, cioè della concentrazione degli ioni idrogeno (H⁺) di una soluzione, e dei liquidi biologici, viene effettuata per mezzo di uno strumento denominato pHmetro. Questo apparecchio è costituito da uno speciale elettrodo, detto 'elettrodo di vetro', che contiene una soluzione a concentrazione nota di ioni idrogeno e termina con un bulbo rivestito di un vetro speciale; quando l'elettrodo è immerso nella soluzione di cui si vuole misurare la concentrazione in ioni idrogeno, si genera un potenziale elettrico, che viene misurato per confronto con un elettrodo di riferimento.
Gli apparecchi più moderni, specialmente quelli per la misurazione del pH del sangue, sono dotati di dispositivi altamente perfezionati, come celle ed elettrodi termostatati e sistemi automatici di aspirazione del campione e di taratura e stabilizzazione dello strumento.
Anche per la misura della concentrazione dell'anidride carbonica (CO₂) ematica esistono oggi apparecchiature dotate di speciali elettrodi, che consentono di effettuare il dosaggio con precisione e sensibilità, e con procedimenti relativamente semplici. Tali elettrodi contengono una soluzione a pH noto e sono rivestiti di una speciale membrana permeabile all'anidride carbonica. Questa, diffondendo dal campione in esame nell'elettrodo attraverso la membrana, si combina con gli ioni idrogeno e forma acido carbonico (H₂CO₃), modificando il pH della soluzione contenuta nell'elettrodo: la modificazione viene misurata dall'apparecchio secondo i principi descritti per il pHmetro e la concentrazione dell'anidride carbonica viene registrata per mezzo di un sistema di calibrazione.
Altri sistemi, per es. quello di Astrup, sono invece basati sulla misurazione del pH nel campione prima e dopo equilibrazione con miscele di gas contenenti differenti concentrazioni di anidride carbonica. Mediante appositi diagrammi è successivamente possibile risalire alla concentrazione di pH nel campione in esame. La misura della pressione parziale di ossigeno (pO₂) con metodo amperometrico utilizza invece un elettrodo speciale (tipo Clark) per la misura e un elettrodo di riferimento. Entrambi gli elettrodi sono immersi nel sangue, dal quale restano separati per mezzo di una sottile membrana di polipropilene, attraverso cui l'ossigeno diffonde, per essere poi ridotto sull'elettrodo. Il flusso di elettroni necessario per la riduzione viene misurato come intensità di corrente ed è direttamente proporzionale alla pO₂. Sulla base degli stessi principi potenziometrici o su misure amperometriche vengono oggi costruiti numerosi biosensori, che per la loro praticità e per il fatto di consentire una rapida esecuzione dell'analisi anche su sangue intero trovano sempre più larga applicazione. Recentemente sono stati introdotti apparecchi che misurano la concentrazione degli elettroliti per mezzo di elettrodi selettivi, specifici per i diversi ioni. Il principio di funzionamento di questi apparecchi è analogo a quello che è alla base della misurazione del pH e dell'anidride carbonica.
In considerazione della notevole importanza che in ogni patologia riveste la conoscenza dei parametri ematologici, la loro valutazione in laboratorio è sempre più diffusa. Pertanto, a causa dell'andamento crescente della richiesta di tale tipo di indagini, da tempo i vecchi sistemi delle conte in camera sono stati sostituiti da apparecchiature che vengono definite contaglobuli automatici, i cui modelli più attuali utilizzano il laser. Nel contaglobuli, il sangue intero viene fatto passare attraverso un capillare, in modo tale che la sua differente resistenza elettrica modifica il potenziale ai capi di un generatore collegato allo strumento. Tale variazione viene letta dallo strumento (galvanometro) e determina un impulso elettrico di ampiezza proporzionale a essa. Dagli impulsi elettrici causati dal passaggio attraverso il capillare contenente il liquido che funge da resistenza è possibile risalire al numero di globuli rossi presenti nel sangue. Il sistema a raggio laser, invece, identifica le varie particelle per mezzo di un meccanismo fotometrico analogo a quello che interviene nella turbidimetria. Tramite altri tipi di misurazione e con metodologie di lisi selettiva, gli attuali analizzatori ematologici sono in grado di fornire, oltre al numero dei globuli rossi, anche la formula leucocitaria completa e numerosi altri parametri di notevole rilevanza clinica, anche sotto forma di grafici, attraverso i quali viene evidenziata la distribuzione dei singoli elementi figurati del sangue in funzione di vari parametri, come, per es., la dimensione.
Le tecniche e le apparecchiature per elettroforesi consentono di separare e riconoscere sostanze proteiche presenti nei liquidi biologici. L'elettroforesi si basa sulla capacità di migrazione posseduta da particelle cariche situate in un campo elettrico. La sostanza da analizzare è posta su un supporto inerte, alle cui estremità vengono applicati due elettrodi di segno opposto, tra i quali viene a stabilirsi una differenza di potenziale elettrico. La sostanza, se è composta da una miscela di parti dotate di differente carica elettrica, come nel caso delle proteine plasmatiche, tende a dividersi nelle varie componenti, in base alla loro differente velocità di migrazione verso uno dei due poli elettrici. Il supporto viene quindi colorato con sostanze adatte al tipo di analita in esame e, per l'evidenziazione delle varie bande, viene reso trasparente (processo di diafanizzazione) mediante l'uso di solventi particolari, che eliminano tutto il colorante dalle zone in cui non sono presenti le frazioni dell'analita, le quali viceversa risultano colorate in modo proporzionale alla concentrazione.
Gli elementi costitutivi di un semplice sistema elettroforetico sono quindi rappresentati da un alimentatore, da una cella di migrazione e da un lettore densitometrico. L'alimentatore produce il campo elettrico necessario per ottenere la separazione dei composti da analizzare. I valori di tensione debbono essere esattamente definiti, per evitare velocità di migrazione troppo basse oppure l'eccessivo riscaldamento del sistema supporto-tampone sul quale avviene la separazione del campione in esame. La temperatura del supporto, infatti, deve rimanere costante per tutto il tempo di migrazione. Per quel che concerne la cella di migrazione, la sua forma e la posizione degli elettrodi dipendono principalmente dal numero delle strisce poste a migrare. I tipi di supporti utilizzabili nella routine chimica-clinica sono l'acetato di cellulosa, il gel di poliacrilamide e il gel di agarosio. L'acetato di cellulosa è quello più largamente impiegato, per la buona riproducibilità dei tracciati, per la facilità con cui può essere diafanizzato e anche per l'eccellente conservazione nel tempo. Il gel di poliacrilamide, che presenta l'inconveniente di dover essere preparato di volta in volta, è usato sotto forma di cilindro (disc elettroforesi) o di piastra (slab elettroforesi). Il gel di agarosio ha una risoluzione superiore a quella ottenuta con l'acetato di cellulosa, e viene preferito per le lipoproteine e per indagini di immunoelettroforesi. L'ultimo componente del sistema è rappresentato dal lettore densitometrico, che ha lo scopo di quantificare le frazioni presenti sui supporti colorati e diafanizzati.
Attualmente le letture sono riportate in percentuale rispetto all'area totale del profilo elettroforetico, oppure in percentuale di grammi, qualora sul piccolo elaboratore dello strumento si imposti il valore totale delle proteine. La strumentazione disponibile in commercio per questo tipo di indagine è quanto mai standardizzata e allineata alle attuali esigenze dei laboratori di chimica clinica. Tutte le apparecchiature sono in grado di eseguire automaticamente le operazioni, che vanno dalla scansione della striscia alla registrazione del profilo, sino all'evidenziazione contemporanea del grafico e delle percentuali.
L'introduzione dei sistemi computerizzati, ormai inseriti nella maggior parte della strumentazione di laboratorio, ha determinato un considerevole progresso nella medicina di laboratorio. Ai computer utilizzati in laboratorio viene affidato il compito di convertire i segnali analitici in dati definitivi, mediante opportuni calcoli e di controllare le varie fasi di operazione strumentale, segnalando eventuali anomalie di funzionamento. In alcuni casi, l'apparecchiatura è interfacciata con un computer che consente la memorizzazione dei dati anagrafici dei pazienti cui si riferiscono i campioni biologici analizzati, arrivando a compilare i referti al termine dell'esecuzione di tutte le analisi.
Computer di maggiore capacità permettono poi la gestione completa del laboratorio, dalla accettazione dei pazienti alla compilazione dei referti, ricevendo i dati delle analisi effettuate con apparecchiature diverse; è inoltre possibile mantenere in memoria i risultati dei pazienti e costituire così un archivio computerizzato dei dati di laboratorio. Un ulteriore progresso è derivato dallo sviluppo recente dei sistemi collegati in rete, che abbreviano enormemente i tempi di risposta delle analisi eseguite in laboratori distanti dal reparto ospedaliero dov'è ricoverato il paziente. Inoltre l'introduzione dei sistemi di codice a barre per il riconoscimento delle provette rende possibile in qualsiasi momento l'identificazione univoca del paziente; i codici vengono letti automaticamente dalla maggior parte della strumentazione e permettono di evitare nella fase preanalitica gli errori legati allo scambio di provette.
Le analisi o serie analitiche eseguite nei laboratori possono essere raggruppate secondo differenti criteri, per es. in base alla tecnica mediante la quale si ottengono i risultati, al tipo di materiale biologico in cui è ricercato l'analita ecc. Dal punto di vista dell'utilità clinica, si possono distinguere per es. le analisi ematologiche, quelle chimico-cliniche, i dosaggi ormonali e quelli enzimatici, i test sieroimmunologici e la ricerca dei marcatori tumorali. Qualsiasi esso sia, per essere utilizzato clinicamente, il risultato di laboratorio deve essere confrontato con i cosiddetti 'valori normali', meglio conosciuti attualmente come 'valori di riferimento', che sono i valori del dato chimico-clinico misurati nella popolazione di riferimento, cioè in una popolazione esente da patologie suscettibili di influenzare quel parametro e dotata di caratteristiche genetiche e ambientali molto omogenee. Lo studio della teoria dei valori di riferimento consente di correlare al valore numerico di ogni analisi clinica un 'valore predittivo' che permette di calcolare la probabilità della presenza di una specifica malattia. A tali concetti è associato quello di 'specificità clinica o diagnostica' di un test, mediante il quale si può conoscere, in termini percentuali, l'incidenza di risposte negative che si ottengono eseguendo l'analisi su pazienti non portatori della malattia. Per es., se l'analisi eseguita su 100 persone sane fornisce 100 risultati negativi, la specificità è del 100%; se invece i risultati negativi sono solo 90 e abbiamo 10 falsi positivi, la specificità sarà del 90%. Analogamente, se l'analisi è praticata in 100 pazienti affetti da una certa malattia e i risultati positivi sono solo 90, la sua sensibilità sarà del 90%, e si avranno quindi 10 falsi negativi. Un test è tanto più valido quanto maggiori sono la sua sensibilità e specificità. La medicina di laboratorio è alla continua ricerca di analisi che siano dotate del massimo grado di tali caratteristiche. In alcuni casi, come per es. per i lipidi plasmatici (soprattutto la colesterolemia), è utile il confronto tra il dato rilevato e i valori cosiddetti 'desiderabili', in quanto tale comparazione consente di ottenere utili indicazioni riguardo al rischio individuale di andare incontro a determinate malattie entro un certo periodo di tempo.
Consiste nel dosaggio dell'emoglobina (Hb), nel conteggio di globuli rossi (eritrociti o emazie), globuli bianchi (leucociti) e piastrine, nell'osservazione dello striscio per la ricerca di modificazioni morfologiche dei globuli rossi e per la determinazione della formula leucocitaria, e nella valutazione dell'ematocrito. Per quanto riguarda il dosaggio dell'emoglobina, il metodo in uso in passato, ma ancora oggi largamente impiegato, soprattutto perché utilizzabile anche in reparto al letto del paziente, è quello che si avvale dell'emoglobinometro di Sahli: con una apposita micropipetta, il sangue viene prelevato e introdotto in una provettina graduata collocata tra due scale comparatrici e contenente acido cloridrico; la miscela è quindi diluita con acqua fino a che il colore diviene visivamente uguale a quello delle provette di confronto; a questo punto è possibile leggere direttamente sulla scala, in corrispondenza del livello raggiunto dal liquido, il valore dell'emoglobina espresso in grammi e in percentuale del valore normale. In laboratorio, tale metodo è stato sostituito da quello più preciso e universalmente adottato della cianmetaemoglobina: l'emoglobina di una quantità fissa di sangue è convertita, per aggiunta di 5 ml di una soluzione di ferrocianuro di potassio, in un composto assai stabile, la cianmetaemoglobina, e misurata mediante fotometro in base a una curva di taratura ottenuta da campioni di sangue a concentrazione emoglobinica nota. Il conteggio di globuli rossi, globuli bianchi e piastrine può essere effettuato manualmente al microscopio, oppure con metodi automatizzati per mezzo di contatori di particelle. Nel primo caso, il sangue prelevato e diluito con apposite pipette viene distribuito in cellette di vetro di volume noto: servendosi del reticolo inciso sulla superficie della camera (camera di Burker o di Thoma), si contano le cellule presenti in una determinata area e, con opportuni calcoli, si risale al loro numero totale. Se invece si impiega un contatore elettronico automatico, lo strumento esprime direttamente il numero di cellule a mm3. L'ematocrito (Ht) è il volume dei globuli rossi espresso come percentuale del volume del sangue intero: tale valore viene letto direttamente, su una provetta o un capillare graduati, dopo centrifugazione, ad alta velocità e per 30 minuti, di un volume noto di sangue intero. Conoscendo il valore dell'emoglobina, il numero dei globuli rossi e l'ematocrito, è possibile stabilire il volume corpuscolare medio delle emazie (MCV = Ht/numero di globuli rossi), il loro contenuto medio di emoglobina (MCH = concentrazione di Hb/numero di globuli rossi), nonché la concentrazione corpuscolare dell'emoglobina (MCHC = concentrazione di Hb/Ht): tali indici sono indispensabili per valutare il tipo di anemia e la sua entità. Sullo striscio di sangue opportunamente colorato (il metodo più diffuso è quello di May-Grünwald-Giemsa) si possono osservare il colore e la forma delle emazie, caratteristiche queste che variano in modo peculiare nelle diverse forme di anemia; è altresì possibile determinare la formula leucocitaria, che consiste nel classificare in termini percentuali i diversi tipi di globuli bianchi, a seconda della morfologia del nucleo e del citoplasma e della colorazione dei granuli citoplasmatici. In certe patologie (leucemia, agranulocitosi ecc.), l'osservazione del sangue venoso o capillare non è sufficiente per formulare la diagnosi, ma è necessario esaminare un preparato di sangue midollare, aspirato generalmente dallo sterno e colorato con il metodo di May-Grünwald-Giemsa. Per un studio approfondito delle anemie possono essere necessari ulteriori accertamenti, come il conteggio dei reticolociti, la resistenza osmotica e la determinazione dell'emoglobina fetale. I reticolociti sono eritrociti molto giovani che si distinguono dalle cellule mature in quanto al loro interno è possibile mettere in evidenza, mediante colorazione con una sostanza speciale (blu brillante di cresile), granuli e filamenti che si colorano in blu. Il numero dei reticolociti circolanti è un indice preciso e di facile rilievo dell'attività di sintesi di nuovi elementi da parte del midollo osseo.
La determinazione della resistenza osmotica dei globuli rossi si basa sul fenomeno per cui quando questi vengono sospesi in una soluzione salina ipotonica assumono forma sferica e, una volta raggiunto un volume critico, si rompono. In base alla percentuale di emazie che si lisano in presenza di concentrazioni scalari di cloruro di sodio, è possibile costruire una curva e definire le variazioni di resistenza osmotica del sangue in esame in rapporto al comportamento delle emazie normali.
Tale resistenza è caratteristicamente diminuita in una particolare forma di anemia, la sferocitosi ereditaria. L'emoglobina fetale, che raggiunge la sua massima concentrazione alla nascita (50-70% dell'emoglobina totale), diminuisce progressivamente fino quasi a scomparire nel primo anno di vita. Nel sangue adulto normale, è presente solo in tracce (circa 0,5%), ma è caratteristicamente aumentata nelle sindromi talassemiche (2-6% nella talassemia minor, 40-60% nella maior). Il metodo di ricerca più comune è basato sul principio che, al contrario di quella adulta, l'emoglobina fetale resiste alla denaturazione alcalina. Lo studio delle alterazioni della molecola di emoglobina si effettua mediante l'elettroforesi, con il principio già descritto a proposito dell'elettroforesi delle proteine del siero.
Ferro e transferrina. Il dosaggio del ferro sierico è un'analisi assai importante in ematologia: esso permette infatti di orientare la diagnosi verso determinati tipi di anemia. Il dosaggio è effettuato per mezzo di una reazione colorimetrica che consiste nella precipitazione delle proteine, nella riduzione del ferro trivalente a ferro bivalente, e nella formazione di un composto colorato tra quest'ultimo e adatti cromogeni, come la batofenantrolina, la tripiridiltriazina o la ferrozina. I valori normali del ferro sierico sono di 37-145 μg/dl per la donna e 60-160 μg/dl per l'uomo. La transferrina è una proteina plasmatica la cui funzione è quella di trasportare il ferro. La determinazione della saturazione di questa proteina con il ferro può essere eseguita dosando il ferro dopo l'aggiunta al siero di una quantità in eccesso di questo ione e l'isolamento della transferrina. Il suo valore normale è pari a 230-430 mg/dl.
Velocità di eritrosedimentazione. La velocità di eritrosedimentazione (VES) rappresenta la velocità con cui gli eritrociti di un campione di sangue, reso incoagulabile e posto in una speciale pipetta graduata, sistemata in posizione perfettamente verticale su un apposito supporto, sedimentano al fondo della pipetta. La sua entità dipende, quindi, da fattori sia plasmatici sia globulari (numero, forma e dimensioni dei globuli rossi).
Dopo 1 e dopo 2 ore si legge sulla pipetta l'altezza della colonna di eritrociti sedimentati, e si esprime la velocità media di sedimentazione secondo un particolare indice (indice di Katz). Il valore normale della VES dopo un'ora è di circa 12 mm; aumenta tipicamente nei processi infiammatori.
Coagulazione ed emostasi . Per esplorare le varie fasi del processo di coagulazione del sangue, l'analista dispone di numerose tecniche, non tutte però di semplice esecuzione: ci si limiterà qui a descrivere le indagini effettuate più comunemente.
a) Tempo di coagulazione. Misura il tempo che decorre dal momento del prelievo alla formazione di un coagulo solido, in una certa quantità di sangue intero. Tale tempo varia a seconda che venga determinato su una goccia depositata su di un vetrino paraffinato o sul sangue aspirato in un capillare o in provetta posta in bagno termostatico a 37 °C. In quest'ultimo caso, secondo la metodica classica di Lee-White, che prevede l'osservazione ogni 30 secondi di 1 ml di sangue, il tempo di coagulazione del sangue normale è di 5-8 minuti. Una maggiorazione fornisce una generica informazione sull'esistenza di un deficit emocoagulativo, senza indicarne il fattore responsabile. Se il tempo di coagulazione viene determinato in provetta è possibile osservare anche la retrazione del coagulo, che è una funzione importante delle piastrine. Nel soggetto normale, dopo un'ora dall'avvenuta coagulazione il coagulo si riduce a circa la metà della massa originale.
b) Tempo di emorragia. Si determina raccogliendo ogni 30 secondi, su un foglietto di carta assorbente, il sangue che sgorga spontaneamente dalla cute del lobo dell'orecchio, punta con una lancetta sterile (metodo di Duke). Si considera normale un tempo di emorragia fino a 6 minuti. Pur con le limitazioni che le difficoltà di standardizzazione della metodica comportano, il tempo di emorragia può fornire utili informazioni sulla funzionalità delle piastrine e sull'integrità delle pareti vasali.
c) Prova del laccio. Misura la resistenza dei capillari a una pressione intermedia tra la pressione arteriosa massima e quella minima, applicata per un tempo standard. Di solito si determina in corrispondenza del braccio, osservando l'eventuale comparsa di petecchie sulla cute della piega del gomito. Nel soggetto normale, le petecchie sono del tutto assenti.
d) Tempo di protrombina (PT) o tempo di Quick. È una prova volta a misurare il contenuto percentuale di protrombina contenuta nel sangue, mediante la determinazione del tempo necessario affinché, dopo l'aggiunta di una miscela di calcio e tromboplastina tessutale in proporzioni ottimali, si verifichi la coagulazione. Impiegando dei buoni reattivi, il tempo di protrombina nel sangue normale è di 12-13 secondi. L'allungamento di questo tempo indica la presenza di un deficit della protrombina e di altri fattori della coagulazione, quale si realizza in corso di insufficienza epatica grave o, artificialmente, nel trattamento di malattie trombolitiche con farmaci dicumarolici (anticoagulanti), dei quali occorre controllare attentamente il dosaggio. In considerazione della notevole variabilità dei reattivi usati e per avere risultati comparabili tra i vari laboratori, questo parametro può essere espresso in INR (International normalized ratio), che è funzione del tipo di tromboplastina utilizzata, ed è espresso come rapporto tra il tempo di coagulazione del plasma del paziente in esame e quello di una miscela di plasma di varia origine. Un valore di INR uguale a 1 indica la norma, cioè il 100% di attività, mentre in caso di terapia si hanno valori superiori a 1.
e) Tempo di tromboplastina parziale (PTT). È una prova coagulativa che permette di valutare la funzionalità del sistema intrinseco della coagulazione, cioè l'insieme di fattori presenti nel sangue che determinano l'attivazione della tromboplastina ematica e quindi la trasformazione della protrombina in trombina. Il PTT corrisponde al tempo necessario perché si verifichi la coagulazione del plasma, indotta dall'aggiunta di calcio e fosfolipidi. In condizioni di normalità tale tempo è compreso tra 27 e 35 secondi. Il suo valore risulta alterato nell'emofilia, nella malattia di Willenbrand e in altre patologie dipendenti dai fattori che partecipano al sistema intrinseco della coagulazione. Questo parametro viene utilizzato in particolare nel controllo della terapia anticoagulante con eparina.
f) Dosaggio del fibrinogeno. Misura la quantità di fibrinogeno, cioè della glicoproteina responsabile ultima della coagulazione. è una prova complementare a quelle già descritte ed è importante nel controllo di laboratorio della terapia fibrinolitica con agenti trombolitici. Inoltre è utile nello studio della coagulazione intravascolare disseminata e nelle fibrinolisi, la cui attivazione viene misurata nel siero mediante il dosaggio dei prodotti di degradazione del fibrinogeno (FDP), molecole di basso peso che vengono generate dall'azione della plasmina. Il valore normale del fibrinogeno è compreso tra 150 e 400 mg/dl.
Biochimica clinica dei glucidi. Tutti i processi metabolici sono connessi in modo diretto o indiretto al glucosio; la concentrazione ematica di questo importante metabolita viene mantenuta entro limiti abbastanza ristretti mediante un meccanismo omeostatico nel quale intervengono fattori ormonali quali l'insulina, il glucagone, l'ormone della crescita (GH), i glicocorticoidi, l'adrenalina.
Grazie all'azione combinata di queste sostanze, la concentrazione ematica di glucosio viene mantenuta a livelli costanti, che nell'individuo adulto (a digiuno da almeno 4 ore) sono compresi tra 65 e 110 mg/dl. Variazioni rispetto a tali valori, cioè stati di iper- o ipoglicemia, possono presentarsi in situazioni fisiologiche (come l'iperglicemia postprandiale) e, soprattutto, in condizioni patologiche, la più importante e conclamata delle quali è la malattia diabetica.
Numerose prove di laboratorio sono state sviluppate per la diagnosi e il monitoraggio della malattia diabetica. Il dosaggio della glicemia è ovviamente il primo test indicativo. I moderni metodi per effettuare tale dosaggio sono basati su reazioni enzimatiche specifiche, tra le quali quella che impiega la glucosio ossidasi è la più diffusa ed è stata utilizzata anche per la produzione di piccole apparecchiature che possono essere usate al di fuori del laboratorio, sia al letto del malato sia a domicilio. Per quest'ultima utilizzazione casalinga sono state prodotte delle glucose-pens, che utilizzano biosensori e sono in grado di eseguire dosaggi sufficientemente precisi e accurati su una goccia di sangue capillare. Una glicemia a digiuno eguale o superiore a 140 mg/dl, se rilevata in più di una occasione, consente di porre diagnosi di diabete.
La presenza di glucosio nelle urine indica che nel periodo durante il quale è stata eseguita la raccolta il valore di glicemia ha superato sistematicamente o transitoriamente il livello della soglia renale (circa 180 mg/dl). Comunque, perché la glicosuria abbia un preciso valore diagnostico è bene eseguire la raccolta frazionata delle urine, oppure la raccolta dopo circa un'ora dal pasto. Una ricerca più sensibile e approfondita di eventuali alterazioni del metabolismo dei glucidi può essere attuata per mezzo del test di tolleranza al glucosio per via orale (o curva da carico).
Dopo la somministrazione per bocca di un carico standard di glucosio, il valore della glicemia dipende dalla velocità di assorbimento intestinale del glucosio stesso e da quella della sua scomparsa dal sangue. Per eseguire correttamente la curva da carico, è necessario che il paziente abbia assunto con la dieta almeno 150-250 g di carboidrati nei tre giorni precedenti il test, che viene eseguito al mattino dopo un minimo di 4-5 ore dalla fine dell'ultimo pasto. Secondo il protocollo suggerito dal National diabetes data group, ormai universalmente adottato, si somministra per bocca una dose standard di 75 g di glucosio (nel bambino la quantità di glucosio sarà pari a 1,75 g/kg di peso corporeo, fino a un massimo di 75 g). Si eseguono quindi prelievi di sangue al tempo zero (valore basale) e a 30, 60, 90 e 120 minuti dopo l'assunzione. La prova si considera indicativa di diabete se, pur in presenza di valori glicemici a digiuno inferiori a 140 mg/dl, quello a 120 minuti e uno o più di quelli intermedi eguagliano o superano i 200 mg/dl; si parla invece di 'ridotta tolleranza al glucosio' quando uno o più valori glicemici sono maggiori o uguali a 200 mg/dl, ma quello a 120 minuti è compreso tra 140 e 199 mg/dl; tutti gli altri casi atipici si considerano non diagnostici, né di normalità, né di diabete, né di diminuita tolleranza glicidica, per cui il test va ripetuto a distanza di tempo. L'andamento della curva dà quindi preziose indicazioni, aventi per lo più significato diagnostico; tali indicazioni sono in genere confermate dai risultati di altre indagini, quali, per es., curve insulinemiche, misurazione del C-peptide, determinazione degli anticorpi anti-insula o anti-insulina, dosaggio delle emoglobine glicate (per il controllo della terapia del diabete).
È opportuno ricordare come in gravidanza sia necessario un controllo accurato del metabolismo glucidico: donne con ridotta tolleranza al glucosio possono presentare una sintomatologia diabetica, anche con complicanze, per rientrare poi nella normalità dopo il parto (diabete gestazionale). Per eseguire il test di tolleranza al glucosio, alla donna in gravidanza vengono somministrati 100 g di glucosio, mentre i prelievi vengono eseguiti, oltre che a digiuno (valore basale), dopo 60, 120 e 180 minuti dal carico. È presente un diabete gestazionale quando, ai vari tempi di prelievo, vengono superati almeno due dei seguenti valori: 105 mg/dl a digiuno, 190 mg/dl a 60 minuti, 165 mg/dl a 120 minuti, 145 mg/dl a 180 minuti.
Dal punto di vista quantitativo, i maggiori costituenti della frazione lipidica del sangue sono il colesterolo libero o esterificato, i trigliceridi e i fosfolipidi, mentre altri lipidi, come per es. gli acidi grassi, sono praticamente insignificanti. Essi sono trasportati da specifiche proteine complesse, le lipoproteine, la cui parte proteica è definita apolipoproteina. Le lipoproteine possono essere suddivise in quattro grandi gruppi, di diverso significato metabolico: i chilomicroni e le lipoproteine a bassissima densità (VLDL, Very low density lipoproteins), a bassa densità (LDL, Low density lipoproteins) e a elevata densità (HDL, High density lipoproteins). I chilomicroni, che costituiscono la frazione di trasporto dei trigliceridi alimentari assorbiti a livello intestinale, galleggiano sulla superficie del plasma, se questo viene lasciato per alcune ore in frigorifero a 4 °C. Le VLDL contengono i trigliceridi sintetizzati nell'organismo, mentre le LDL, composte principalmente da colesterolo e fosfolipidi, rappresentano un prodotto del metabolismo delle VLDL. Le HDL, infine, sono costituite per circa il 50% dalla componente proteica, mentre colesterolo e fosfolipidi sono presenti in proporzioni equivalenti e i trigliceridi lo sono in quantità assai scarsa. Le lipoproteine possono essere separate per elettroforesi su acetato di cellulosa e vengono poi identificate per mezzo di colorazioni specifiche per la componente lipidica.
A causa delle ampie variazioni intra- e interindividuali, è difficile stabilire gli ambiti di riferimento normali per le concentrazioni dei singoli lipidi plasmatici. Tali variazioni dipendono infatti, in uno stesso individuo, da rapidi cambiamenti nel regime alimentare, da condizioni fisiologiche, come la gravidanza, da situazioni di stress o dall'uso eccessivo di bevande alcoliche o di tabacco. Sembrano inoltre esistere variazioni stagionali delle concentrazioni dei lipidi plasmatici, tendendo esse ad aumentare durante il periodo invernale e a diminuire durante quello estivo.
Per una valutazione del quadro lipidico di un soggetto sono sufficienti tre esami di laboratorio, e precisamente la determinazione del colesterolo totale, del colesterolo-HDL e dei trigliceridi. In determinati casi, inoltre, può essere eseguito il dosaggio delle apolipoproteine A e B. In tal modo, è possibile ottenere informazioni che permettono sia di diagnosticare le dislipidemie vere e proprie, sia di individuare soggetti a rischio per quanto riguarda l'aterosclerosi. Per quanto riguarda il colesterolo totale, sarebbe desiderabile mantenere la sua concentrazione ematica al disotto di 200 mg/dl (170 mg/dl nei soggetti in età evolutiva, cioè fino a 18-20 anni). A questi livelli, le LDL, che veicolano la maggior parte del colesterolo, sono captate da recettori specifici epatici, e il colesterolo stesso viene in tal modo metabolizzato. Numerosi studi epidemiologici hanno valutato l'andamento del rischio, inteso come probabilità di insorgenza di forme morbose entro un determinato periodo di tempo, in situazioni di ipercolesterolemia. Anche a prescindere dalla componente genetica, si è comunque visto che, assegnando il valore arbitrario di 1 al rischio associato al valore di colesterolemia considerato 'desiderabile', in presenza di valori di circa 240 mg/dl il rischio raddoppia, mentre è addirittura quadruplo per valori superiori a 270 mg/dl. I trigliceridi hanno un valore medio di riferimento di 40-170 mg/dl, e anche il loro aumento è indice di una situazione di rischio. Attualmente, è sempre più largamente impiegata la determinazione delle apolipoproteine AI e B, specialmente dopo l'evoluzione tecnologica dei sistemi di dosaggio immunoturbidimetrici o immunonefelometrici.
L'apolipoproteina AI e l'apolipoproteina B (comunemente definite, in forma abbreviata, apoAI e apoB) sono, rispettivamente, le principali apolipoproteine delle HDL e delle LDL. La valutazione del rischio può essere eseguita anche in base al valore del rapporto colesterolo totale/colesterolo-HDL o a quello del rapporto LDL/HDL (oppure apoB/apoAI).
Dosaggio delle proteine plasmatiche. Le indagini sulle proteine plasmatiche comprendono sia il dosaggio delle proteine totali plasmatiche sia quello delle singole frazioni proteiche. Le proteine totali vengono dosate pressoché esclusivamente con il metodo del biureto: in ambiente alcalino, esse formano con i sali di rame un composto di colore porpora, che ben si presta alla determinazione quantitativa fotometrica. Il metodo è preciso e la reazione è uniforme per tutte le frazioni proteiche. Altri metodi che possono essere utilizzati per il dosaggio delle proteine nelle urine o nel liquor, ove, essendo minore la concentrazione, è necessaria una maggiore sensibilità analitica, si basano su tecniche di precipitazione con lettura turbidimetrica, oppure sfruttano il legame che con le proteine formano particolari coloranti, quali per es. il blu di Coomassie. Normalmente, le proteine sono presenti nel siero in concentrazione pari a 6,6-8,7 g/dl.
L'analisi delle frazioni proteiche viene effettuata con vari metodi di separazione, di cui il più adatto per la routine di laboratorio è l'elettroforesi. Va precisato che l'elettroforesi sui comuni supporti impiegati permette la separazione in cinque frazioni: di queste, quella a maggiore concentrazione, l'albumina, corrisponde a una singola frazione proteica, mentre le altre quattro (alfal -, alfa₂ -, beta- e gamma-globuline) sono in realtà gruppi di frazioni proteiche con caratteristiche di migrazione tali da risultare raggruppate, nelle condizioni nelle quali viene eseguita l'analisi. In altre parole, le cinque frazioni elettroforetiche sono in realtà determinate da un numero maggiore di proteine, ciascuna con una funzione e un significato clinico ben definiti. Queste proteine sono la prealbumina, l'albumina, l'alfal -antitripsina, l'alfal -glicoproteina acida, l'alfa₂ -macroglobulina, l'aptoglobina, la transferrina, la ceruloplasmina, il fattore C3 del complemento, il fibrinogeno, e le immunoglobuline IgG, IgA e IgM. Per ciascuna di queste proteine, e per altre ancora, sono oggi disponibili metodi di dosaggio immunochimico specifici, basati sulla immunoprecipitazione con il rispettivo anticorpo.
In commercio esistono gli antisieri specifici verso le diverse proteine, come pure strumenti per la loro determinazione enzimatica. Alcune di queste componenti potrebbero anche essere evidenziate modificando le condizioni nelle quali viene eseguita l'elettroforesi (multifrazionata); questo procedimento richiederebbe, tuttavia, una complessa ispezione visiva del tracciato.
Composti azotati non proteici. Dal punto di vista clinico, i più importanti componenti di questo gruppo sono l'urea, la creatinina e l'acido urico. L'urea deriva dal catabolismo degli aminoacidi, che porta alla formazione di ammoniaca; questa, tramite un particolare ciclo metabolico, viene fissata e trasformata nel fegato in urea, che entra nella circolazione sistemica ed è eliminata attraverso i reni. Circa il 60% dell'urea filtrata dal rene passa nelle urine, mentre il restante 40% viene riassorbito passivamente. I valori normali dell'urea plasmatica sono compresi tra 20 e 45 mg/dl, mentre quelli dell'azoto eliminato con le urine sono condizionati dal regime dietetico del paziente. Con un'alimentazione normale, un individuo adulto elimina nelle 24 ore da 10 a 20 g di azoto sotto forma di urea, mentre con le feci ne sono eliminati solo 1-2 g. La creatinina è prodotta nel tessuto muscolare e rappresenta il risultato della trasformazione metabolica della creatina, composto azotato presente in gran quantità nei muscoli, che viene così eliminata.
La quantità di creatinina escreta giornalmente con le urine è costante per individui di corporatura simile, e i valori di riferimento della creatininemia sono compresi tra 0,6 e 1,4 mg/dl. La misura della sua escrezione è utilizzata nella diagnostica dell'insufficienza renale; tuttavia, in considerazione del fatto che nelle prime fasi di questa grave patologia i valori ematici sono poco alterati, si ricorre alla misura della clearance della creatinina. La clearance renale di una sostanza equivale al volume di plasma che nell'unità di tempo viene depurato di quella sostanza attraverso l'attività renale. È possibile con varie metodiche misurare la clearance di qualsiasi sostanza che venga filtrata a livello dei glomeruli renali. Generalmente nel laboratorio clinico si misurano la clearance della creatinina o quella dell'urea. Quando però occorre conoscere con assoluta precisione il valore del filtrato glomerulare, è necessario utilizzare sostanze, come per es. l'inulina, che non vengono né secrete né riassorbite dal tubulo renale.
L'acido urico, presente nel sangue in concentrazione di circa 2,5-7,0 mg/dl, rappresenta il prodotto terminale del catabolismo delle basi puriniche, che sono i costituenti principali degli acidi nucleici (DNA e RNA). Si tratta di un composto poco solubile, che in caso di iperuricemia può precipitare nei tessuti, dando luogo a manifestazioni patologiche, come per es. la cristallizzazione che si verifica nelle articolazioni del paziente affetto da gotta. Metabolismo della bilirubina La bilirubina è il prodotto finale della degradazione dell'emoglobina. Dalla sede di produzione, le cellule del sistema reticoloendoteliale, essa è trasportata al fegato dal sangue circolante, legata all'albumina; nella cellula epatica viene coniugata con acido glicuronico e attraverso la bile viene escreta nel duodeno e quindi nelle feci.
Nell'intestino, la flora batterica converte la bilirubina, attraverso un gruppo di composti intermedi, in urobilinogeno, che in massima parte viene eliminato con le feci e in piccola parte (circa il 10%) riassorbito dal sangue e ricondotto al fegato; tracce di urobilinogeno sono normalmente presenti nelle urine. Un aumento della bilirubina preepatica, cioè non coniugata con l'acido glicuronico, è espressione di emolisi, cioè di esaltata distruzione dei globuli rossi; tuttavia, non essendo idrosolubile, tale sostanza non è mai presente nelle urine. Un aumento della bilirubina coniugata è invece indicativo di un'alterata funzione della cellula epatica oppure di un ostacolo meccanico al deflusso della bile nell'intestino. Il dosaggio della bilirubina nel siero viene eseguito mediante una reazione chimico-colorimetrica, la diazoreazione di Ehrlich: in presenza di acido solfanilico e nitrito di sodio, la bilirubina dà luogo a una colorazione rosso-violetta. La distinzione tra bilirubina coniugata e bilirubina non coniugata (o bilirubina libera) è possibile, in quanto la prima reagisce direttamente con il diazoreattivo, mentre la seconda deve essere previamente trattata con particolari reattivi (metanolo, caffeina e sodio benzoato).
Elettroliti. Sodio, potassio e cloro, presenti nel sangue sotto forma di ioni, o elettroliti, sono di importanza fondamentale nella patologia del ricambio idrico-salino. Il dosaggio del sodio e del potassio oggi può essere eseguito con grande precisione, e nello stesso tempo con procedimento semplice e rapido, per mezzo del fotometro a fiamma. I moderni fotometri a fiamma sono corredati di sistemi per la diluizione esatta e automatica del campione e il risultato si ottiene in pochi secondi. Il dosaggio del cloro viene invece effettuato per titolazione: al campione di siero è aggiunta una soluzione di nitrato mercurico in presenza di un indicatore (difenilcarbazone). La soluzione di nitrato mercurico è aggiunta a goccia a goccia da una buretta, e gli ioni mercurio formano con il cloro un sale. Quando tutto il cloro presente nel campione è stato titolato, gli ioni mercurio liberi fanno cambiare colore all'indicatore (da rosa a viola). I valori normali degli elettroliti sierici sono i seguenti: sodio, 137-150 mmol/l; potassio, 3,5-5,3 mmol/l; cloro, 99-111 mmol/l. Si ricorda, inoltre, l'importanza del dosaggio del cloruro di sodio nel sudore, che è caratteristicamente aumentato nei soggetti affetti da mucoviscidosi o malattia fibrocistica del pancreas. Anche il dosaggio del calcio viene effettuato per titolazione. Vengono utilizzati speciali indicatori che formano complessi con il calcio. L'aggiunta di acido etilendiaminoacetico (EDTA, Ethylenediaminotetracetic acid) stacca il calcio dal complesso e libera l'indicatore, che assume un colore diverso a seconda del tipo di indicatore impiegato. Il metodo è piuttosto delicato e non sempre soddisfacente, poiché non in tutti i casi è facile individuare il punto di viraggio nella titolazione. I valori normali del calcio sierico sono di 2,10-2,67 mmol/l nell'adulto, e un po' più elevati nel bambino. Per quanto riguarda il dosaggio del fosforo, nel siero vengono ricercati i fosfati inorganici. La determinazione è colorimetrica: il fosforo forma con il molibdato un composto fosfomolibdico, e questo viene ridotto da appositi reagenti, con formazione di un composto blu (blu di molibdeno).
Dosaggi enzimatici. La determinazione delle attività di numerosi enzimi sierici ha assunto considerevole importanza nella diagnostica di laboratorio. Essa permette infatti di rilevare con grande sensibilità, e spesso anche con notevole specificità, la presenza di lesioni a carico di determinati organi. Come è noto, gli enzimi sono costituenti essenziali di pressoché tutte le cellule dell'organismo. Quando un organo è colpito da una lesione infiammatoria, necrotica o degenerativa, gli enzimi fuoriescono dalle cellule danneggiate e si versano nel sangue. Il loro dosaggio nel siero rappresenta quindi un indice di lesione. Poiché normalmente gli enzimi sono assenti nel siero, oppure presenti in concentrazione assai bassa, è facile rilevare aumenti di entità anche modesta in condizioni patologiche. Inoltre alcuni enzimi sono caratteristici di determinati organi, oppure hanno proprietà fisico-chimiche diverse nei differenti organi; tali proprietà possono essere evidenziate per mezzo di opportune tecniche, che conferiscono a queste determinazioni anche il pregio della specificità. Tra gli enzimi più comunemente dosati nel siero in chimica clinica vi sono: le glutammico ossalacetico transaminasi (GOT, Glutamic oxaloacetic transaminase) e glutammico piruvico transaminasi (GPT, Glutamic pyruvic transaminase), la prima di interesse nella diagnosi dell'infarto miocardico, ed entrambe in quella delle malattie epatiche, in particolare dell'epatite virale; la creatina chinasi (CK, Creatine kinase), assai importante nella diagnosi precoce dell'infarto del miocardio e in quella delle malattie dei muscoli; la lattato deidrogenasi (LDH, Lactate dehydrogenase), che ha valore diagnostico minore, in quanto, essendo presente nella maggior parte dei tessuti, è dotata di scarsa specificità d'organo; l'amilasi, pressoché specifica delle lesioni pancreatiche; la fosfatasi alcalina, molto importante nella diagnosi delle epatopatie ostruttive e di certe malattie del tessuto osseo; la fosfatasi acida, di notevole significato per la diagnosi di neoplasie della prostata. Il dosaggio della maggior parte degli enzimi viene effettuato nel siero, ma per alcuni di essi, come per es. l'amilasi, anche nelle urine o nelle feci. Le metodiche utilizzate si basano non sulla determinazione diretta, ma sulla misura indiretta dell'attività enzimatica, ottenuta riproducendo la reazione biochimica catalizzata dall'enzima che si desidera analizzare, e dosandone il prodotto oppure la comparsa o la scomparsa dei suoi componenti. Per quanto riguarda il dosaggio dell'amilasi, per es., il siero in esame viene messo a incubare, per un determinato tempo e a una certa temperatura, con una quantità nota di amido, dopodiché si effettua il dosaggio del glucosio, che è il prodotto della scissione dell'amido operata dall'amilasi: la quantità di glucosio prodotta è direttamente proporzionale all'attività amilasica presente nel siero, che a sua volta è in rapporto con la concentrazione dell'enzima nel siero stesso. Per il dosaggio delle transaminasi, il metodo è un poco più complesso: durante la reazione, un prodotto intermedio necessario per lo svolgimento della stessa, il nicotinamide adenina dinucleotide ridotto (NADH, Nicotinamide adenine dinucleotide-hydrogenated), viene ossidato a nicotinamide adenina dinucleotide (NAD); mentre la forma ridotta NADH ha un assorbimento ottico specifico nell'ultravioletto a 340 o 366 nm, quella ossidata non assorbe a queste lunghezze d'onda, e pertanto la determinazione dell'attività delle transaminasi viene effettuata misurando l'entità della diminuzione dell'assorbimento ottico a 340 o 366 nm nella miscela di reazione, preparata aggiungendo il campione di siero in esame ai reagenti costituiti dai componenti della reazione catalizzata da questi enzimi. Su questo stesso principio è basato il dosaggio di numerosi altri enzimi sierici, come la creatina chinasi, la lattato deidrogenasi ecc.
Test sieroimmunologici Mediante i test sieroimmunologici è possibile rivelare la presenza di anticorpi specifici per vari agenti microbici, indice indiretto di infezione, o anticorpi la cui presenza è sintomatica di malattie di tipo reumatico o su base autoimmune. Gli esami più comunemente condotti sono: la ricerca degli anticorpi antistreptococcici, del fattore reumatoide e della proteina C reattiva. Per quanto riguarda gli anticorpi antistreptococcici, sono stati identificati vari anticorpi specifici per diversi antigeni streptococcici, la cui determinazione può offrire un valido aiuto diagnostico: antistreptolisina, antistreptochinasi, antiialuronidasi ecc. Il metodo più noto e più diffusamente impiegato è quello per la determinazione del titolo antistreptolisinico. Il siero in esame, opportunamente diluito con soluzione tamponata, è addizionato, in una serie di provette, con l'antigene (streptolisina), e incubato a 37 °C, prima e dopo l'aggiunta di una sospensione al 5% di eritrociti umani di gruppo 0 o di coniglio. Il valore della diluizione più elevata del siero in cui non si osserva più emolisi, in cui cioè la streptolisina aggiunta al siero è stata inattivata dagli anticorpi specifici in esso contenuti, esprime il titolo anticorpale che si vuole determinare. Il fattore reumatoide è una immunoglobulina di tipo IgM capace di agglutinare gli eritrociti umani o di pecora ricoperti con anticorpi specifici ottenuti dal coniglio, nonché particelle di lattice ricoperte con globuline umane. Tale fattore è presente in un'elevata percentuale di pazienti affetti da artrite reumatoide con sintomatologia tipica, e in proporzione meno elevata in soggetti con forme atipiche della malattia.
La dimostrazione del fattore reumatoide si può eseguire con la prova di agglutinazione degli eritrociti di pecora sensibilizzati, chiamato test di Waaler-Rose, che è di esecuzione più complessa, oppure con l'assai più semplice test di fissazione al lattice, il Ra test: il primo è meno sensibile e altamente specifico, mentre il secondo risulta positivo in circa l'80% dei pazienti con artrite reumatoide, ma anche in altre malattie e perfino in soggetti normali. La proteina C reattiva è un componente del siero, riconoscibile all'esame elettroforetico, che compare nel corso di numerose malattie (febbre reumatica, artrite reumatoide, infezioni delle prime vie respiratorie) e in gravidanza. Il metodo più semplice per la sua dimostrazione è l'agglutinazione su vetrino di particelle di lattice ricoperte con anticorpi specifici, per aggiunta del siero contenente la proteina.
Marcatori tumorali Il termine marcatore tumorale indica un componente specifico o un metabolita unico che sia presente e misurabile nei liquidi biologici, in particolare a livello ematico e che, derivando dalle cellule tumorali maligne, sia utilizzabile per una diagnosi precoce, cioè compaia in una fase in cui i segni clinici legati al tumore non si sono ancora manifestati. Il marcatore ideale deve essere assolutamente specifico e sensibile, vale a dire tipico della neoplasia e non suscettibile di aumento in altre patologie; inoltre, dovrebbe possibilmente indicare la natura e la localizzazione della neoplasia, cioè essere il più possibile tessuto-specifico. Nella pratica, però, molti dei marcatori tumorali utilizzati in laboratorio rispondono solo ad alcuni di questi requisiti, ma sono ugualmente utili sia per la conferma della diagnosi sia per il follow-up di eventuali recidive in pazienti trattati chirurgicamente o farmacologicamente. T
ra le numerose sostanze proposte per una utilizzazione quali marcatori tumorali (ormoni, proteine ed enzimi secreti dal tessuto tumorale ecc.) particolarmente importanti sono gli antigeni oncofetali e altri antigeni associati alle cellule neoplastiche umane. Gli antigeni oncofetali sono molecole proteiche prodotte nei tessuti fetali ed embrionali e presenti solo in piccola quantità nel sangue degli individui adulti, in quanto ne è repressa la sintesi. Per effetto della trasformazione neoplastica, la loro sintesi viene derepressa ed essi ricompaiono in circolo in concentrazioni elevate. Tra questi, i più largamente utilizzati sono la alfa-fetoproteina (AFP) e l'antigene carcinoembrionale (CEA, Carcinoembryonic antigen). La prima viene utilizzata principalmente nella diagnosi e nel monitoraggio del carcinoma epatico primitivo, ma trova impiego anche nella diagnosi prenatale dei difetti del tubo neurale. È stato infatti evidenziato che alcune malformazioni del tessuto nervoso fetale, quali la spina bifida, l'idrocefalo ecc., si associano ad aumento dei normali livelli di alfa-fetoproteina nel siero materno. L'antigene carcinoembrionale viene generalmente prodotto in quantità elevate nella fase avanzata e metastatica dei tumori del colon, della mammella, dell'ovaio, dei bronchi e del pancreas. Numerosi altri antigeni associati a tumori sono di impiego comune nella pratica di laboratorio. Tra questi vanno ricordati il CA-125, il GICA, il TPA, il PSA ecc.
Il fegato è un organo che svolge un ruolo essenziale in tutti i metabolismi e a esso arrivano, attraverso la vena porta, tutte le sostanze nutritizie che provengono dall'intestino, prima di essere immesse nella circolazione generale. Esso svolge inoltre importanti funzioni di deposito, disintossicazione ed escrezione. Lo studio della sua integrità funzionale merita quindi un posto a parte nell'ambito della medicina di laboratorio.
Prove biochimiche di funzionalità epatica. Sono state messe a punto numerose prove di laboratorio in grado di fornire informazioni su due tipi fondamentali di lesione epatica: quella della cellula epatica (o lesione epatocellulare) e quella derivante da ostacolo al deflusso della bile (lesione da colestasi). La prima è caratterizzata da fenomeni di lisi cellulare che interessano aree più o meno estese del parenchima epatico. Nelle lesioni lievi si evidenziano solo alcune variazioni dei test biochimici (enzimi della citolisi), mentre nelle lesioni più gravi compaiono modificazioni delle funzioni biosintetiche del fegato.
Nella colestasi, invece, si ha l'accumulo nel sangue delle sostanze che normalmente vengono eliminate con la bile. La fuoriuscita di enzimi dal fegato e il loro conseguente aumento nel circolo sanguigno indicano la presenza di un danno della cellula epatica che va dall'aumento della permeabilità della membrana cellulare alla lisi cellulare. A questo proposito, gli enzimi più comunemente dosati sono le transaminasi, ma buoni indici sono anche la lattato deidrogenasi, con il suo isoenzima LDH5, la sorbitolo deidrogenasi e la OCT (Ornitilcarbamil transferasi). Questi ultimi enzimi, essendo sufficientemente specifici, sono riservati alle indagini di approfondimento. Nella colestasi, un buon indice di valutazione è la determinazione della fosfatasi alcalina, la cui attività appare aumentata. Tale risultato è specifico per il danno epatico a condizione che si possa escludere una patologia a livello osseo, in quanto anche in questo caso si hanno alti valori di questo analita. In quest'ultimo caso è utile dosare la gammaglutamil transferasi o la 5-nucleotidasi, che aumentano solo in caso di patologia epatobiliare.
Le prove di cromosecrezione, basate sull'iniezione per via endovena di sostanze, quali la bromosulfonftaleina (BSF), captate dalle cellule epatiche e riversate nella bile, che erano assai usate in passato, pur avendo maggiore sensibilità e specificità nel rivelare deficit epatici anche lievi, sono state quasi del tutto abbandonate, a causa della possibile comparsa di complicazioni; così come sono divenute completamente obsolete le prove di labilità colloidale del siero, che comunque erano meno diagnostiche delle prime. Bisogna ricordare, infine, che nella cellula epatica avviene la sintesi di quasi tutte le proteine plasmatiche e che quindi le varie malattie epatiche acute, ma soprattutto croniche, sono sempre accompagnate dalla variazione della concentrazione ematica di queste componenti.
Marcatori dell'epatite virale Benché l'epatite possa essere provocata da vari agenti, quali farmaci, veleni, alcol, la sua origine è dovuta nella maggior parte dei casi alla infezione da parte di virus epatotropi (A, B, C, e delta) che presentano un'incidenza diversa nelle varie parti del mondo e sono contraddistinte inoltre da differenti modalità di trasmissione. L'epatite virale di tipo A, definita anche epatite infettiva, è determinata da un virus a RNA che è presente nelle feci degli individui infetti e che viene trasmesso per contaminazione del cibo. L'individuo infettato presenta nel siero anticorpi antivirus A (anti-HAV) che compaiono nel siero già nella fase di incubazione sotto forma di IgM, mentre quando è trascorsa la fase acuta gli anticorpi presenti sono di tipo IgG.
La diagnosi di malattia in atto si effettua con il dosaggio degli anticorpi IgM (anti-HAV IgM). L'epatite di tipo B, detta anche epatite da siero, è determinata da un virus a DNA formato da una capsula proteica (surface) che contiene il DNA (core) e un enzima che provvede alla replicazione del virus. A seconda della fase della malattia, è possibile evidenziare vari anticorpi e i relativi antigeni. L'HBsAg, detto anche antigene Australia, è l'antigene di superficie che compare in circolo assai precocemente (alcune settimane prima dei sintomi clinici) e vi permane per tutta la durata della malattia, per poi scomparire. L'HBsAb è l'anticorpo prodotto dall'organismo contro l'antigene Australia; la sua presenza rappresenta il segno della guarigione clinica e dell'immunità acquisita contro il virus. Compare in circolo generalmente da uno a quattro mesi dopo il manifestarsi della sintomatologia. Altri antigeni e anticorpi sono rilevabili durante l'infezione. HBcAg e HBeAg sono gli antigeni legati al core del virus. La presenza del secondo è indicativa della fase acuta della malattia, in quanto segue all'intensa replicazione virale. La sua permanenza in circolo, anche dopo la guarigione clinica, è segno di un forte pericolo di cronicizzazione della malattia.
Anche il dosaggio degli anticorpi HBcAb e HBeAb, prodotti in risposta ai relativi antigeni, è molto importante ai fini del monitoraggio del decorso della malattia. Infatti, se sono assenti HBsAg e il relativo anticorpo, la contemporanea presenza di questi anticorpi conferma lo stato di convalescenza. L'epatite di tipo C è un'infezione ubiquitaria, determinata da un virus a RNA (HCV), che si trasmette con le stesse modalità del virus dell'epatite B. L'infezione da HCV rappresenta circa il 20% di tutti i casi di epatite virale. L'elevato valore delle transaminasi, così come la positività per l'HBcAb, costituiscono un indice di possibile rischio di trasmissione dell'HCV. L'epatite di tipo delta è determinata dal virus delta (HDV). Per il proprio involucro questo virus utilizza l'anticorpo HBsAg prodotto dal virus dell'epatite B. Quindi l'infezione da virus B deve precedere necessariamente quella da virus delta. Attualmente, la diagnosi sierologica di infezione da HDV si basa principalmente sulla ricerca di anticorpi mediante l'utilizzazione di tecniche radioimmunologiche o immunoenzimatiche.
Il dosaggio degli ormoni può essere eseguito nel siero, oppure misurando la concentrazione dei prodotti di eliminazione degli ormoni stessi nelle urine. Si ricorre a questa seconda opzione quando la quantità dell'ormone nel siero è bassa al punto da richiedere l'impiego di tecniche complesse e sofisticate, mentre nelle urine l'ormone stesso o i suoi prodotti catabolici vengono concentrati e si prestano quindi a essere dosati con metodi di più facile esecuzione. Ciononostante, il dosaggio delle sostanze ormonali è il più delle volte delicato e difficile. È per questo motivo che, accanto a metodi immunochimici, vengono utilizzati in laboratorio anche metodi cosiddetti biologici, che si basano sullo studio degli effetti provocati nell'animale da esperimento dalla inoculazione degli ormoni contenuti nel campione da esaminare.
La diagnosi di gravidanza. Questa analisi endocrinologica costituisce il più comune e diffuso tra gli esami ormonali. La diagnosi di laboratorio dello stato gravidico si basa sulla evidenziazione nelle urine della gonadotropina corionica (HCG, Human chorionic gonadotropin), un ormone polipeptidico prodotto dal trofoblasto e dall'epitelio di Langhans del villo placentare. Questo ormone è già presente nell'urina al decimo giorno di gravidanza e aumenta rapidamente fino al terzo mese, per diminuire in seguito sensibilmente.
La determinazione dell'HCG può essere effettuata con metodi biologici o con metodi immunologici. Il primo sistema si basa sulla capacità dell'ormone di provocare nelle femmine la formazione del corpo luteo, cioè la trasformazione delle cellule del follicolo ovarico in cellule secernenti progesterone, e nei maschi la spermiogenesi (attività luteinizzante).
Tra i più comuni metodi di questo tipo deve essere ricordata la reazione di Friedman, che consiste nell'iniettare per via endovenosa in una femmina di coniglio l'urina in esame, quindi nell'esaminare, dopo 24-48 ore, le ovaie dell'animale: in caso di reazione positiva, si osservano comparsa di follicoli emorragici sulla superficie delle ovaie e aspetto tumido e congesto delle tube uterine.
Un altro metodo è quello di Galli-Mainini, che consiste nell'iniettare l'urina nel sacco linfatico o nel peritoneo della rana maschio: la reazione positiva si manifesta con la comparsa di numerosi spermatozoi nell'urina dell'animale inoculato. Recentemente i metodi biologici sono stati pressoché completamente soppiantati dalla introduzione dei metodi immunologici; ciò ha rappresentato un notevole progresso per la diagnosi di gravidanza, trattandosi di metodi estremamente semplici che consentono di dare il risultato con grande rapidità. Essi si basano sulle proprietà antigeniche della gonadotropina umana: l'ormone, una volta iniettato nel coniglio, provoca la produzione nel siero dell'animale di anticorpi specifici. Tale siero può quindi essere utilizzato per il dosaggio della gonadotropina con tecniche radioimmunologiche o con marcatori alternativi. Attualmente, il siero di coniglio è stato rimpiazzato da anticorpi prodotti mediante biosintesi, il che ha permesso di elevare il livello di specificità e di sensibilità della tecnica. L'accoppiamento della reazione immunitaria con una reazione colorimetrica ha consentito, infine, di creare i test di gravidanza reperibili in commercio, con i quali è possibile diagnosticare lo stato di gravidanza in tempi brevissimi.
La valutazione di laboratorio della funzione tiroidea. Il metodo lungamente usato in passato per il dosaggio degli ormoni tiroidei era basato sulla determinazione dello iodio presente nel precipitato proteico del siero (PBI, Protein-bound iodine, iodio proteino-legato o, più semplicemente, iodio proteico), sfruttandone l'azione riducente sul cerio, con dosaggio finale colorimetrico.
La determinazione dello iodio proteico è stata soppiantata da altri metodi più specifici, a motivo delle interferenze operate da composti iodati estranei all'ormone tiroideo, che vengono anch'essi dosati. Così, recentemente sono stati introdotti metodi che impiegano iodio radioattivo (125I) e consentono dosaggi assai più precisi, essendo basati sulla specificità della globulina vettrice, a cui sono legati nel plasma gli ormoni tiroidei, tiroxina (T3) e triiodotironina (T4). Il siero in esame viene incubato con un siero standard contenente la proteina vettrice combinata con 125I-tiroxina; la tiroxina presente nel siero in esame sposta la tiroxina marcata dalla proteina vettrice, per cui la quantità di particelle radioattive spostate è uguale alla quantità di tiroxina presente nel siero in esame. Per la misura dell'isotopo ci si serve di appositi contatori di particelle radioattive.
Altri dosaggi ormonali. Numerosi altri dosaggi ormonali sono oggi disponibili in analisi clinica, ma le relative tecniche di determinazione sono piuttosto complesse e richiedono apparecchiature assai costose, e per tale motivo sono limitate ai laboratori di più alta specializzazione. I più comuni tra essi sono la determinazione degli steroidi corticosurrenalici e quella degli steroidi sessuali femminili e maschili. Il dosaggio degli ormoni corticosurrenalici viene eseguito prevalentemente sulle urine, ma attualmente esistono metodi assai sensibili che consentono la determinazione anche del cortisolo plasmatico. Gli steroidi glicoattivi provvisti di un ossidrile in posizione 17 sono determinati come 17-idrossicorticosteroidi: tra i metodi impiegati, la reazione colorimetrica di Porter e Silber è quella dotata di maggiore specificità.
Gli ormoni androgeni corticosurrenalici sono invece determinati come 17-chetosteroidi per mezzo della reazione colorimetrica di Zimmerman. La determinazione degli ormoni della midollare surrenale è assai complessa. Le catecolamine sono dosate per fluorimetria, dopo separazione cromatografica su colonna di allumina. Più agevole è la determinazione del catabolita urinario delle catecolamine, l'acido vanilmandelico, che può essere dosato colorimetricamente. Gli ormoni sessuali maschili (testosterone e suoi cataboliti) vengono comunemente determinati nelle urine come 17-chetosteroidi. Va tenuto presente che, come accennato in precedenza, anche gli steroidi corticosurrenalici sono eliminati come 17-chetosteroidi. Esistono tuttavia metodi, peraltro assai complessi, che permettono di separare i 17-chetosteroidi di origine testicolare da quelli di origine surrenalica, come pure esistono tecniche radioimmunologiche che consentono di dosare direttamente e specificamente gli ormoni testicolari attivi e non le molecole derivate dalla loro degradazione.
La determinazione degli ormoni sessuali femminili è assai importante in gravidanza, nella diagnosi delle amenorree o di altri disturbi ginecologici. Per la loro particolare struttura, gli steroidi estrogeni (estrone, estradiolo ed estriolo) sono denominati fenolsteroidi. Per la loro determinazione si fa ricorso a tecniche colorimetriche o, più modernamente, fluorimetriche. Oltre a quello degli estrogeni totali, è possibile effettuare il dosaggio dei singoli ormoni, che può avere rilevante significato clinico in determinate condizioni patologiche: così, per es., la determinazione dell'estriolo ha particolare importanza nelle ultime settimane di gravidanza, quale indicatore della vitalità del feto e dello stato placenta.
Esame delle urine.
L'esame fisico-chimico delle urine consiste nella valutazione dell'aspetto, del colore, della densità (peso specifico) e del pH, nonché nella ricerca delle proteine, del glucosio, dei corpi chetonici, della bilirubina, dell'urobilinogeno, e dell'emoglobina eventualmente presenti e, infine, nell'osservazione al microscopio del sedimento ottenuto per centrifugazione dell'urina stessa. Per quanto riguarda l'aspetto, l'urina normale è limpida, ma può intorbidirsi se lasciata a riposo, per la precipitazione di cristalli di acido urico o di urati amorfi (urina acida) di colore rosso arancio, o di fosfati amorfi (urina alcalina) di colore biancastro. Può essere torbida per cause patologiche, quali presenza di leucociti, eritrociti, batteri, spermatozoi, muco. Il colore dell'urina normale è giallo, più o meno intenso a seconda della concentrazione; in condizioni patologiche, può essere giallo molto pallido anche in urine ad alto peso specifico, come nel caso di presenza di glucosio (glicosuria), o rosso in presenza di sangue (ematuria) o per eliminazione di farmaci, o giallo-bruno (da ambra scuro a marsala) se vi sono dei pigmenti biliari.
Nell'adulto a dieta libera, i valori normali della densità variano tra 1016 e 1022 kg/m3. Tale parametro si determina con l'urinometro, che è un densimetro appositamente adattato a tale misura. Nei soggetti normali, il pH urinario è lievemente acido (tra 5,5 e 6,5), ma può variare in funzione della dieta, divenendo più acido, in caso di dieta prevalentemente a base di carne, o più alcalino, in caso di dieta vegetariana. Tali modificazioni riflettono la capacità del rene nel mantenere l'equilibrio acido-base dell'organismo, aumentando o diminuendo l'escrezione di acidi o di basi a seconda della necessità. Per la misura del pH sono normalmente utilizzate delle cartine impregnate di indicatori che attuano dei viraggi di colore a seconda del suo valore. Un parametro importante è l'acidità titolabile, cioè la misura, mediante titolazione, di tutti gli ioni idrogeno che sono stati emessi con le urine della giornata.
La presenza di proteine nell'urina (proteinuria) è sempre un dato patologico, per lo meno quando la loro quantità è tale da renderle evidenziabili con i metodi comunemente impiegati in laboratorio. Infatti, oggi è accertato che una quantità assai piccola di proteine, 100-200 mg/24 ore, sfugge al filtro renale anche nel soggetto normale, ma non è rilevabile con i metodi utilizzati nella routine di laboratorio.
La proteinuria aumenta quando la permeabilità glomerulare è aumentata o il riassorbimento tubulare è diminuito, come conseguenza di lesioni che colpiscono il nefrone. I metodi qualitativi per l'evidenziazione della proteinuria sono molteplici, ma sostanzialmente distinguibili in due gruppi: quelli basati sulla precipitazione delle proteine e quelli che si basano sulla variazione del colore di certe sostanze indicatrici. Nei primi, più largamente usati in passato, viene impiegato il calore che provoca la precipitazione delle proteine e l'intorbidamento del campione; la precipitazione può essere ottenuta anche mediante aggiunta di acidi (solfosalicilico, tricloroacetico ecc.) in opportuna concentrazione. Nei secondi, di introduzione più recente, la sostanza indicatrice viene incorporata in una cartina che sarà immersa nell'urina, così come si fa per determinare il pH o altri componenti urinari; questo metodo, che ha guadagnato popolarità per l'estrema semplicità di esecuzione, è esente da taluni errori di cui sono invece gravati i metodi di precipitazione (interferenza da parte di farmaci, come, per es., i composti iodati impiegati in radiologia, certi antidiabetici orali ecc.).
Tutti questi metodi si prestano egualmente bene all'analisi qualitativa o semiquantitativa della proteinuria, e sono sensibili a concentrazioni di circa 300 mg/l, che quindi si trovano già nell'ambito del patologico. Per una valutazione quantitativa delle proteine urinarie è necessario raccogliere il volume di urina delle 24 ore, aggiungendo al recipiente di raccolta un preservante (sodio, azide, timolo, mertiolato), per evitare lo sviluppo batterico che distruggerebbe le proteine. Il dosaggio comporta la precipitazione delle proteine, la raccolta del precipitato mediante centrifugazione, la determinazione colorimetrica mediante reazioni specifiche (metodo del biureto, metodo di Folin-Ciocalteau). Il metodo di Esbach, in uso in passato, non è raccomandabile perché molto impreciso. Anche la presenza del glucosio nell'urina (glicosuria) è sempre patologica. Essa è associata a iperglicemia di grado più o meno elevato, nel diabete, oppure a glicemia normale, nei rari casi di glicosuria non diabetica dovuti a un difetto congenito del riassorbimento tubulare del glucosio. Il dosaggio può essere eseguito con il metodo di Fehling-Benedict, assai diffuso in passato e fondato sul principio dell'azione riducente del glucosio sui sali di rame, oppure con quelli più moderni, impiegati anche per la glicemia, che si basano sulla determinazione enzimatica del glucosio.
Per la determinazione qualitativa o semiquantitativa sono oggi in uso cartine reattive, impregnate di un enzima specifico e di un sistema cromogeno, che, in presenza di glucosio, danno luogo a una colorazione specifica. L'evidenziazione dei corpi chetonici nell'urina è basata sulla comparsa di un composto colorato in violetto, dopo aggiunta di nitroprussiato sodico in presenza di ammoniaca. Nelle cartine attualmente in commercio e contenenti tali reattivi, l'intensità del colore può essere correlata, sia pure in maniera approssimativa, alla quantità di composti chetonici presente nel campione in esame. La comparsa della bilirubina nelle urine, come già accennato a proposito dei metodi di valutazione della funzione epatica, è espressione di compromissione funzionale dell'epatocita o di ostacolo meccanico al deflusso biliare. Poiché la bilirubina non è stabile nelle urine, soprattutto se queste sono esposte alla luce, è opportuno effettuarne la ricerca entro un'ora dalla emissione.
I metodi si basano essenzialmente su due principi, ossidazione e diazotazione. Il metodo per ossidazione più noto è quello di Fouchet, in cui il cloruro ferrico ossida la bilirubina a biliverdina, con comparsa di un colore verde. Il metodo della diazotazione, più sensibile, si basa invece sulla reazione tra bilirubina e diazoreattivo (acido solfanilico e sodio nitrito), che dà luogo a colorazione porpora. Anche per l'evidenziazione della bilirubina sono disponibili in commercio cartine reattive da immergere nell'urina e contenenti una sostanza che reagisce con la bilirubina per formare un composto di colore ocra. L'urobilinogeno è un prodotto di trasformazione della bilirubina, normalmente eliminato nell'urina in tracce. Con il metodo comunemente usato esso è evidenziabile solo se presente in quantità maggiore alla norma.
Tale metodo si basa sulla comparsa di un colore rosso-ciliegia, quando urina e reattivo di Ehrlich (paradimetilaminobenzaldeide) vengono miscelati in parti uguali (circa 5 ml). Anche questo test è disponibile in cartine. Poiché nell'urina gli eritrociti vanno incontro a distruzione, l'evidenziazione della presenza di emoglobina nell'urina (emoglobinuria), insieme con l'osservazione microscopica del sedimento urinario, costituisce una prova di grande valore per la diagnosi di emissione di sangue con le urine (ematuria). La determinazione si basa sul fenomeno per cui l'emoglobina catalizza l'ossidazione di sostanze cromogene (benzidina) da parte dell'ossigeno liberato dal perossido di idrogeno, con formazione di un composto di colore blu. Le cartine disponibili in commercio sono preparate con questi stessi reattivi. Bisogna tenere presente, tuttavia, che alcune sostanze, come per es. l'acido ascorbico ad alte dosi, possono interferire con la reazione e dare luogo a false positività.
L'esame del sedimento, infine, si esegue al microscopio, osservando una goccia del sedimento urinario ottenuto per centrifugazione a bassa velocità (1500 giri/min) del campione di urina emessa di recente. Questo requisito è molto importante, perché gli elementi del sedimento si decompongono, se lasciati a lungo nell'urina. Nel sedimento urinario si possono osservare emazie, leucociti, cellule di sfaldamento di varia provenienza (epiteli tubulari, vescica, uretra, vagina) e formazioni microscopiche di natura proteica, denominate cilindri, di dimensioni e composizione variabili, generalmente indicativi di lesioni del parenchima renale. Mentre alcune cellule di sfaldamento dell'ultimo tratto delle vie urinarie sono riscontrabili anche nell'urina normale, gli altri elementi, soprattutto se presenti in grande numero, hanno sempre significato patologico. Gli elementi inorganici che si possono osservare nel sedimento urinario sono rappresentati da cristalli di acido urico e di ossalato di calcio nelle urine con reazione acida, di fosfati e di carbonato di calcio in quelle con reazione alcalina; in particolari condizioni patologiche è possibile evidenziare cristalli di aminoacidi (cistina, tirosina, leucina). Nel sedimento, infine, si possono riscontrare batteri, funghi, e anche parassiti intestinali o loro uova, nel caso di contaminazione dell'urina con materiale fecale. Importanza particolare riveste l'esame dei calcoli urinari, che viene eseguito sui calcoli comunque espulsi o rimossi dalle vie urinarie.
Questo esame prevede l'osservazione delle dimensioni, del colore, dell'aspetto della superficie e del nucleo centrale del calcolo, nonché, previa polverizzazione in un mortaio, l'esame chimico. Per quest'ultimo fine, si pongono in quattro capsule di porcellana piccole quantità della polvere ottenuta, e si aggiungono quindi i vari reagenti descritti in un apposito schema. La comparsa di differenti colori indica la presenza di determinate sostanze: per es., la comparsa di un colore blu intenso, dopo aggiunta di una goccia di carbonato di sodio e di due gocce di reagente all'acido urico, indica la presenza di urati; la comparsa di un precipitato giallo, dopo aggiunta di 5 gocce di molibdato di ammonio e successivo riscaldamento alla fiamma, si ha caratteristicamente in presenza di fosfati; ecc.
Esame delle feci. L'esame ispettivo delle feci è molto importante, perché offre la possibilità di formulare la diagnosi in casi di parassitosi, ostruzione delle vie biliari, malassorbimento, emorragie dei vari tratti dell'apparato gastrointestinale. Mediante tale esame si rilevano quantità, consistenza, forma e colore del materiale fecale. L'individuo normale elimina ogni giorno circa 100-200 g di feci. La consistenza semiliquida o liquida è tipica dei casi di diarrea; l'emissione di piccole masse sferiche dure è caratteristico della stipsi. Il colore può variare fisiologicamente a seconda dell'alimentazione, mentre la mancanza di colore (acolia) è un segno patologico distintivo dell'ittero da ostruzione; l'emissione di feci grigiastre, untuose e maleodoranti è invece peculiare delle sindromi di malassorbimento.
Il reperto di muco, pus o sangue nelle feci è sempre patologico e deve essere messo in evidenza. Se il sangue (in quantità di oltre 50 ml) deriva dal tratto superiore dell'apparato digerente, le feci assumono un caratteristico colore rosso scuro, fino ad apparire quasi nere. La ricerca dell'emoglobina fecale viene effettuata con gli stessi reattivi descritti a proposito dell'esame delle urine (e che sono disponibili anche in appositi preparati in commercio): data l'elevata sensibilità della reazione, è bene escludere la possibile interferenza dell'emoglobina presente negli alimenti, facendo precedere la ricerca da tre giorni di dieta priva di carne. La ricerca dei grassi si esegue osservando al microscopio il campione fecale dopo averlo opportunamente trattato con etanolo al 95% e colorato con Sudan III.
Gli acidi grassi si presenteranno allora come cristalli aghiformi quasi incolori, i saponi come fiocchi amorfi o masserelle tondeggianti incolori, i grassi neutri come gocciole di colore arancio o rosso. L'osservazione al microscopio permette inoltre di individuare eventuali residui alimentari indigeriti, nonché la presenza di parassiti o delle loro uova.
Esame del liquido cerebrospinale. Il liquido cerebrospinale o liquor, contenuto in tutte le cavità del sistema nervoso e tra le meningi, appare normalmente limpido e incolore. L'aspetto giallo o rosa pallido del sopranatante, dopo centrifugazione ad alta velocità per almeno 5 minuti, indica la presenza di bilirubina o di composti emoglobinici, quale si può rilevare in varie affezioni cerebrali, soprattutto di natura emorragica.
La presenza di leucociti e batteri, invece, conferisce al liquor un aspetto più o meno torbido: da una lieve opalescenza si può arrivare all'aspetto francamente purulento. La determinazione del contenuto proteico si effettua con vari metodi, analoghi a quelli già descritti per il siero e per le urine; ai metodi empirici impiegati in passato per valutare le varie frazioni proteiche (tipo test del benzoino colloidale) viene preferita oggi l'elettroforesi. I valori normali corrispondono a meno di 50 mg/dl. Un aumento più o meno marcato si ha in tutte le condizioni morbose che causano lesioni dell'encefalo e delle meningi. La determinazione del glucosio, eseguita con i metodi già illustrati per il sangue, riveste particolare importanza per la diagnosi di meningite e di altre affezioni del sistema nervoso centrale, in cui il valore della concentrazione del glucosio nel liquor (glicorrachia) risulta diminuito rispetto al normale (50-80 mg/dl). Il conteggio delle cellule (eritrociti e, soprattutto, leucociti) si esegue al microscopio, entro mezz'ora dal prelievo. Sul materiale strisciato sul vetrino e colorato è possibile studiare il tipo, la morfologia e altre caratteristiche di questi e di altri elementi cellulari eventualmente presenti.
Altre determinazioni che si possono effettuare sul liquido cerebrospinale sono la misurazione del pH, il dosaggio di vari enzimi, test sierologici per la diagnosi di sifilide ed esami batteriologici per rilevare la presenza di altre infezioni.
Esame del liquido sinoviale. Sul liquido sinoviale, contenuto di norma nelle articolazioni, si eseguono l'esame fisico, per il rilievo dell'aspetto (normalmente limpido e quasi incolore, esso può divenire più o meno torbido e colorato per la presenza di eritrociti e di leucociti) e della viscosità, ricerche microbiologiche e studi immunologici, nonché l'osservazione microscopica del sedimento opportunamente colorato, per lo studio di cellule e cristalli.
Esame del liquido seminale. Del liquido seminale è utile osservare il volume (da 2 a 6 ml nella norma), che appare diminuito in molti casi di infertilità, e la viscosità, che, se troppo elevata, può compromettere la motilità degli spermatozoi. È anche importante valutare la concentrazione degli spermatozoi (concentrazione nemaspermica), effettuata mediante la conta delle cellule in una camera al microscopio ottico, previa diluizione con una soluzione di bicarbonato di sodio e formalina. Nella norma il numero degli spermatozoi varia da 60 a 150 milioni/ml. L'esame completo del liquido seminale comprende inoltre lo studio della morfologia degli spermatozoi che fornisce la percentuale di forme tipiche e atipiche. Si possono poi condurre test particolari, come lo Swelling test, che valuta l'integrità della membrana cellulare degli spermatozoi, e il test di Lorton, che ne esamina la motilità e la capacità di penetrare nel muco cervicale.
Esame dello striscio vaginale. Il materiale raccolto viene sottoposto a esame microscopico per l'identificazione dei tipi cellulari anomali o degli eventuali agenti microbici. Per rivelare le cellule tumorali viene usata la tecnica di colorazione di Papanicolau, da cui deriva il nome Pap test (Papanicolau test), con cui spesso si indica l'esame stesso. Il Pap test, divenuto oramai un esame di routine, rappresenta uno strumento fondamentale e insostituibile per la diagnosi precoce del carcinoma della cervice uterina.
Esame del succo gastrico e duodenale. Sul campione di contenuto gastrico si eseguono l'esame fisico, la determinazione del pH, e l'osservazione microscopica degli elementi cellulari. Il succo gastrico normale, a digiuno, si presenta come un liquido altamente viscoso, bianco-grigiastro, traslucido, dall'odore molto acre. In condizioni patologiche esso può contenere bile, muco in quantità notevolmente eccedenti la norma (per commistione con la secrezione faringo-tracheale o duodenale), sangue. La determinazione del pH può essere eseguita sommariamente, in modo molto rapido, con cartine impregnate di indicatore, oppure, più correttamente, con un pHmetro. Nella norma, il pH è inferiore a 2. L'osservazione microscopica può mettere in evidenza emazie, leucociti, cellule di sfaldamento delle mucose, peraltro presenti in modica quantità anche nell'individuo normale. Non sono invece normalmente reperibili nel succo gastrico batteri e lieviti: il riscontro di lattobacilli di Boas-Oppler, considerato in passato segno distintivo del carcinoma gastrico, è ritenuto oggi più semplicemente la conseguenza di un aumento del contenuto gastrico, in presenza di diminuita o assente secrezione acida. Notevole importanza ha assunto attualmente anche la ricerca dell'Helicobacter pylori, ritenuto responsabile di molte affezioni gastroduodenali, soprattutto recidive o croniche.
I liquidi che, in condizioni patologiche, si trovano negli spazi pleurici, peritoneali o pericardici sono solitamente classificati come trasudati o essudati, a seconda che contengano rispettivamente meno o più di 3 g/dl di proteine; la distinzione è importante, perché permette di riferire l'aumento del liquido in esame a condizioni morbose completamente differenti, quali ipertensione venosa, ipoproteinemia, processi infiammatori, tumori ecc. Oltre al contenuto di proteine, può essere utile determinare quello del glucosio nel liquido pericardico (diminuito nella pericardite batterica e in vari altri casi) e quello di enzimi nel liquido peritoneale (per la diagnosi di pancreatite). Unitamente a eventuali esami batteriologici, su tutti questi fluidi è importante eseguire l'osservazione microscopica delle cellule, previa colorazione con differenti tecniche, tra le quali quella di Papanicolaou si presta assai bene alla evidenziazione di cellule neoplastiche.
È possibile immaginare il DNA come un codice costituito da soli quattro elementi, che si succedono in diversa sequenza per milioni di volte. Gli elementi in questione sono i nucleotidi, uniti tra di loro a formare dei lunghi filamenti da un forte legame, detto covalente. Ogni nucleotide è costituito da varie strutture chimiche: una base azotata, uno zucchero a cinque atomi di carbonio e un gruppo fosfato. Nella diversa sequenza delle basi azotate, che prendono il nome di adenina, guanina, timina e citosina, risiede l'informazione genetica. Normalmente i filamenti di DNA si appaiano tra di loro grazie alla complementarità dell'adenina con la timina e della guanina con la citosina, presenti in due diversi filamenti che si avvolgono poi nella cosiddetta 'doppia elica'.
All'interno della cellula la molecola di DNA è ulteriormente circondata da varie proteine che hanno funzioni strutturali e regolatrici nell'ambito dell'informazione genetica e della duplicazione del DNA stesso. Il segmento di DNA contenente il codice di sintesi per una proteina rappresenta un 'gene' e include: una sequenza codificante (costituita dagli esoni), delle sequenze che la precedono o che la seguono su cui agiscono numerosi fattori che regolano l'espressione del gene stesso e, infine, intercalate tra gli esoni, altre sequenze non codificanti, dette introni.
In realtà il DNA di un essere umano è costituito da circa 3 ∃ 109 basi, di cui solo una parte codifica per i circa 125.000 geni, lunghi mediamente 10.000 basi; il rimanente è costituito da sequenze la cui funzione è tuttora in gran parte sconosciuta. In un'alterazione della sequenza di basi del DNA (per sostituzione di una singola base con un'altra, per delezione o inserzione di un gruppo di basi) o in una sua alterata espressione possono risiedere le cause dell'alterata struttura, funzione o concentrazione di una proteina che può scatenare una patologia. Lo studio del DNA consente di individuare molte di tali alterazioni. A tal fine, tuttavia, è necessario individuare un gene e quindi isolare un DNA 'nudo', cioè un singolo filamento sul quale determinare la sequenza delle basi e verificare se ci siano alterazioni del codice. Si tratta pertanto di cercare una singola informazione immersa in un'infinità di altri messaggi. Inoltre il singolo filamento di DNA è abbastanza fragile e ciò determina, dopo il suo isolamento, una serie di rotture casuali che ostacolano il tentativo di studio. Solo con la scoperta, negli anni Settanta, degli 'enzimi di restrizione', cioè di proteine che tagliano il DNA in punti specifici, è stato possibile ottenere frammenti più piccoli, resistenti e meglio identificabili.
È possibile ottenere tali frammenti in quantità sufficiente per il sequenziamento grazie a tecniche di clonaggio molecolare che implicano l'isolamento del tratto di DNA di interesse, il suo clonaggio in un vettore plasmidico o fagico, la crescita di quest'ultimo in un microrganismo e infine l'estrazione del frammento clonato dal vettore stesso. Conosciuta la sequenza da studiare, diventa possibile valutarne la presenza nel campione di DNA in esame grazie all'utilizzazione di sonde oligonucleotidiche (piccole catene di basi disposte in ordine specifico, complementari a una regione del gene da studiare e marcate con isotopi radioattivi che consentono di individuarle, una volta che si siano appaiate a una parte del gene in studio). Dal 1985 con la messa a punto della reazione di polimerizzazione a catena (PCR, Polymerase chain reaction) un tale risultato può essere ottenuto in poche ore: questa scoperta ha rivoluzionato il mondo della biologia molecolare nell'ambito sia della ricerca di base sia della diagnostica molecolare. Si tratta della sintesi esponenziale in vitro di segmenti di DNA a partire da uno 'stampo' di DNA la cui sequenza sia conosciuta.
L'amplificazione avviene attraverso ripetuti cicli di polimerizzazione utilizzando come stampo i due filamenti complementari di DNA presenti inizialmente in poche copie, o addirittura in singola copia. Due oligonucleotidi sintetici che delimitano la regione da amplificare (primers) fungono da innesco per la reazione. Il DNA che funge da stampo viene denaturato per riscaldamento (94 °C), separando così tra di loro i due filamenti; successivamente la temperatura viene abbassata (40-60 °C) in modo da favorire l'accoppiamento del DNA bersaglio con i primers la cui sequenza è complementare a quella delle estremità della regione da amplificare; infine la temperatura viene innalzata a 72 °C per permettere la sintesi del nuovo filamento di DNA grazie all'utilizzo dei quattro nucleotidi aggiunti nella miscela di reazione e di una DNA polimerasi resistente al calore. Questo ciclo di denaturazione, appaiamento e sintesi viene ripetuto 30-40 volte (mediante appositi thermal cyclers), ottenendo una sintesi esponenziale del DNA localizzato tra i due primers secondo la formula: N = N₀ (l+E)n, dove N rappresenta il numero delle molecole finali di DNA, N₀ il numero delle molecole iniziali, E l'efficienza della reazione (variabile da 0 a 1) e n il numero dei cicli.
Si comprende così che, per es. con un'efficienza pari a 0,85, per un numero di 30 cicli si ottiene un'amplificazione del numero di molecole iniziali pari a 10,4 ∃ 107. Sono evidenti pertanto i motivi della rapida diffusione di questa tecnologia che unisce alla grande sensibilità i pregi della rapidità e del costo contenuto. Il DNA da utilizzare per la PCR può essere estratto da sangue intero o da qualsiasi tessuto, così come da cellule in coltura o da materiale bioptico incluso in paraffina con protocolli estremamente rapidi e semplici, oggi disponibili commercialmente come kit e basati in genere sulla presenza di tre componenti fondamentali: un tampone di lisi per le cellule, il fenolo per la precipitazione della componente proteica e l'etanolo per la precipitazione del DNA. La PCR si è dimostrata in pochissimi anni un mezzo diagnostico estremamente potente che ha permesso di trasferire la biologia molecolare nella diagnostica di routine (per alcuni esempi di applicazioni diagnostiche della PCR .
Una delle principali applicazioni della PCR è la virologia, con la possibilità di rivelare l'infezione da RNA virus e in particolare da retrovirus quali l'HIV. Grazie a un passaggio preliminare in cui l'RNA viene retrotrascritto in cDNA (DNA copy) è possibile studiare sia il livello di RNA virale genomico o messaggero, sia il livello di DNA integrato come provirus. In generale la PCR risulta di grande ausilio nelle infezioni in cui è necessaria una grande sensibilità, oppure in casi in cui non esistono anticorpi o antigeni virali che siano buoni marcatori sierologici, o qualora è necessaria una tipizzazione di ceppi o varianti particolari del microrganismo.
In batteriologia valgono le stesse considerazioni associate al fatto che la PCR restringe sensibilmente i tempi diagnostici e supera il problema dell'individuazione di patogeni difficili o pericolosi da coltivare. La PCR è stata anche ampliamente utilizzata per la diagnosi di malattie ereditarie monogeniche, come la fibrosi cistica, le talassemie, le distrofie muscolari. È inoltre uno strumento molto utile per studi di sequenza nella ricerca di nuove mutazioni responsabili di malattia e di polimorfismi genetici correlati con varie patologie (valga a esempio la tipizzazione del sistema maggiore di istocompatibilità HLA). Anche l'analisi di oncogeni attivati o amplificati o dell'espressione di tali oncogeni a livello di mRNA (mediante tecniche di amplificazione dei rispettivi cDNA) è risultata un'applicazione molto promettente e, infatti, l'analisi di numerosi oncogeni è oggi routinariamente effettuata in clinica. Nel breve tempo dalla sua messa in opera in laboratori dapprima di ricerca e poi di biochimica clinica, la PCR ha apportato un potenziale diagnostico elevatissimo in molti campi della patologia umana. Restano tuttavia da effettuare studi accurati essenziali per convalidarne l'applicazione clinico-diagnostica su larga scala.