Biomatematica
Nel Saggiatore (1623), Galileo Galilei sosteneva che «l’Universo […] è scritto in lingua matematica, e i caratteri sono triangoli, cerchi e altre figure geometriche […]; senza questi è un aggirarsi vanamente per un oscuro laberinto» (in Opere di Galileo Galilei, a cura di F. Brunetti, 1980, 1° vol., pp. 631-32). Invero, il suo approccio quantitativo per la comprensione delle leggi della natura segnò l’avvio della scienza moderna, aprendo la strada al metodo più propriamente matematico di Isaac Newton. Quasi quattro secoli più tardi, nonostante la persistente frammentazione dell’insegnamento scientifico nelle nostre università, le scienze della vita e dell’ambiente hanno ormai sempre più intrecciato le loro metodologie di indagine con i metodi analitici e computazionali più tipici delle scienze quantitative. Conviene però ricordare il punto di vista, seppur pessimistico, del fisico irlandese John L. Synge, espresso oltre 65 anni fa: «La natura ci espone a dei problemi importanti, ma essi non giungeranno mai al matematico. Egli siede nella sua torre d’avorio in attesa del nemico con un arsenale di armi potenti, ma il nemico non verrà mai da lui. La natura non offre i suoi problemi in maniera già formulata. Essi vanno scavati con zappa e vanga, e colui che non si sporcherà le mani non li vedrà mai» (Focal properties of optical and electromagnetic systems, «The American mathematical monthly», 1944, 51, 4, p. 186).
Dagli inizi del 20° sec. abbiamo assistito a significative applicazioni della matematica alla biologia, a partire dai lavori pionieristici di Vito Volterra e Alfred J. Lotka sulle popolazioni interagenti, successivamente maturati attraverso i lavori in genetica delle popolazioni (John B.S. Haldane, Sewall G. Wright, Godfrey H. Hardy, Wilhelm Weinberg, Ronald A. Fisher), diffusione di epidemie (Ronald Ross, William O. Kermack, Anderson G. McKendrick, David G. Kendall), sviluppo (Alan M. Turing), neurobiologia (Alan L. Hodgkin, Andrew F. Huxley, Richard FitzHugh, Jin-Ichi Nagumo) e così via. Questi primi lavori hanno stimolato importanti contributi da parte di matematici come Andreij N. Kolmogorov, Samuel Karlin e diversi altri. Comunque, fino a qualche decennio fa la collaborazione scientifica tra biologi e matematici non è stata facile, né di fatto cercata dalle due comunità; in particolare, molto del lavoro svolto dai biomatematici è rimasto senza seguito, non sostenuto dal lavoro sperimentale, e viceversa il lavoro sperimentale ha sofferto di una mancanza di visione teorica a carattere generale. La situazione è cambiata in modo sostanziale negli ultimi quindici anni: da un lato, i matematici hanno preso coscienza del bisogno di un aggancio con la realtà dei dati sperimentali, dall’altro, nei settori della biologia molecolare, dell’epidemiologia delle malattie contagiose, dell’immunologia, della ricerca sui tumori ecc., si è avvertito il bisogno delle capacità descrittive e predittive dei modelli matematici, a livelli sempre più sofisticati, richiamando in tal modo l’attenzione di illustri matematici teorici verso la biologia.
L’emergenza di nuove frontiere di ricerca nella genomica funzionale, l’evoluzione molecolare, le neuroscienze, le malattie complesse, l’integrazione di segnali e meccanismi di regolazione suscitano nei biologi un interesse sempre maggiore verso i metodi delle scienze matematiche. D’altra parte, questi settori innovativi della ricerca biologica attraggono l’attenzione di fisici, chimici e ingegneri. Caratteristica del nuovo scenario è la conferma del bisogno di una forte interazione che attraversi i tradizionali confini disciplinari, imposti dalla comune pratica accademica (Bialeck, Botstein 2004).
Qualcuno ancora si chiede se i modelli matematici ci avvicinino alla soluzione dei problemi biologici o piuttosto aggiungano confusione. Secondo taluni (MacKenzie 2004), forse i cardiologi non sono del tutto convinti dell’efficacia dei modelli matematici, ma al contempo questi sono sufficientemente stimolanti da indurre a effettuare nuovi esperimenti. Il vantaggio più significativo del modello matematico è che si possono condurre esperimenti realistici, ma non ancora attuali (per es., si possono collocare 500 elettrodi sul cuore, mentre la pratica sperimentale attuale sugli animali ne posiziona 50). Si può indurre una tachicardia su un computer e simulare diverse pratiche di intervento. Il risultato di questi esperimenti in silico può essere almeno quello di portarci a riflettere sui possibili esiti di esperimenti reali, senza mettere a rischio esseri viventi reali.
A questo non è quindi estranea la disponibilità di moderne e potenti attrezzature di calcolo che, a costi accessibili, da un lato hanno consentito la raccolta e l’analisi di enormi quantità di dati sperimentali (dalle sequenze genetiche di organismi alle immagini satellitari di regioni del pianeta alla scala continentale), dall’altro, consentono la simulazione di sistemi biologici complessi che integrano diverse scale, da quella molecolare a quella degli organismi viventi, nei più diversi contesti ambientali. Sarebbe comunque errato pensare che lo sviluppo delle architetture di calcolo non sia accompagnato da progressi nello sviluppo di metodi matematici e algoritmi innovativi in modo altrettanto tumultuoso (PITAC 2005).
Una definizione
La biomatematica, meglio detta biologia matematica, è un’area scientifica multidisciplinare che ha l’obiettivo di sostenere la ricerca biologica attraverso la modellazione matematica. Il suo campo d’interesse parte dalla costruzione di modelli matematici intesi a descrivere in termini quantitativi gli esiti della ricerca sperimentale e arriva allo sviluppo di strutture e teorie matematiche che consentono di interpretare i risultati della ricerca sperimentale e di formulare nuove ipotesi da sottoporre a nuovi esperimenti.
L’aspetto duale è quello legato allo sviluppo di metodologie matematiche, anche innovative, derivanti dalla necessità di modellare fenomeni biologici ove le metodologie esistenti si siano rivelate a ciò inadeguate. Non si tratta, dunque, dell’applicazione occasionale della matematica a un determinato problema della biologia, ma della costruzione di una teoria sistematica, per classi di problemi biologici, simile a quanto va sotto il nome di fisica matematica. In tale costruzione si assiste allo sviluppo congiunto e contestuale sia della biologia sia della matematica. Da un lato, la biologia ha attratto l’impiego di metodi quantitativi tipici della matematica; dall’altro, la costruzione di modelli matematici in biologia ha stimolato lo sviluppo di una serie di metodi matematici innovativi basati su concetti biologici, come il DNA computing, le reti neurali, gli automi cellulari, gli algoritmi genetici, la swarm intelligence e così via. Vale la pena di ricordare che anche lo sviluppo della matematica dei sistemi caotici è stato stimolato da studi in ambito biologico.
Detto in modo estremamente schematico, le fasi della ricerca in biomatematica includono la cosiddetta trilogia universale: modellazione, analisi, controllo (J.-L. Lions, El planeta Tierra. El papel de las matemáticas y de los super ordenadores, 1990). La disponibilità di un adeguato modello matematico diviene così strumento cruciale di supporto alle decisioni, soprattutto nelle applicazioni della biologia alla medicina, alla difesa dell’ambiente, alla gestione delle risorse agroalimentari. Tale disponibilità consente, infatti, di pianificare interventi sul sistema al fine di raggiungere un desiderato obiettivo a costi minimi; si parla in questo caso di controllo ottimo.
Oltre a questo, va ricordato l’impatto che metodi matematici sofisticati (come la trasformata di Radon) hanno avuto nella diagnostica medica; basti pensare ai metodi di ricostruzione e rappresentazione di immagini biomediche ottenute con metodi non invasivi, come la TAC (Tomografia Assiale Computerizzata) e la RMN (Risonanza Magnetica Nucleare).
Il reciproco impatto tra biologia e matematica
Come detto, l’applicazione della matematica alla biologia non è un fatto nuovo; né lo è l’evidenza del suo impatto sullo sviluppo della matematica (Mathematics and biology. The interface, challenges, and opportunities, ed. S.A. Levin, 1992).
Nel 1827 il botanico Robert Brown, osservando il movimento del polline nell’acqua, gettò le basi concettuali dell’ormai noto moto browniano; attraverso gli studi di Albert Einstein e poi di Paul Levy e Norbert Wiener, si è arrivati alla formulazione matematica dei processi di Wiener, la cui teoria è centrale nel calcolo delle probabilità e nella statistica matematica e, più recentemente, in altri settori applicativi, come, per es., la meccanica statistica, la finanza matematica e la swarm intelligence.
Analogamente, la teoria delle catastrofi è un capitolo della matematica stimolato dal concetto di scenario epigenetico, elaborato nel 1942 dal biologo Conrad H. Waddington; René Thom l’applicò in seguito alla teoria delle biforcazioni di sistemi dinamici (Stabilité structurelle et morphogénèse. Essai d’une théorie générale des modèles, 1972, 19772; trad. it. 1980) e, nonostante le critiche che tale teoria ha suscitato rispetto alla sua applicabilità concreta alla biologia, essa ha da allora trovato applicazioni in altri settori della matematica teorica.
Nella fluidodinamica, le applicazioni alla biologia hanno stimolato lo studio di fluidi non newtoniani per la circolazione sanguigna e l’analisi delle equazioni di Navier-Stokes a bassi numeri di Reynolds (fluidi fortemente viscosi).
Tra le aree matematiche che più recentemente hanno interagito con reciproco vantaggio, possiamo citare anche la geometria e la topologia. Per es., la biologia molecolare ha riacceso l’interesse verso le invarianti per inclusione (embedding invariants) per i grafi (usate nello studio dei topoisomeri), lo studio dei nodi aleatori (usati nell’analisi di macromolecole) e il tangle calculus (utilizzato nello studio dei meccanismi enzimatici del DNA, DeoxyriboNucleic Acid). L’approccio topologico all’enzimologia è un protocollo sperimentale in cui il potere descrittivo e analitico della topologia e della geometria sono utilizzati per determinare i meccanismi enzimatici e la struttura dei complessi enzima-DNA in vitro. La forma aggrovigliata (entangled) dei nodi e legami del DNA contiene informazioni sugli enzimi che li hanno provocati.
In definitiva, la formulazione di un modello matematico costringe all’esame di tutte le ipotesi alla base della biologia di un fenomeno. In tal modo esse possono essere dettagliatamente esaminate, e le conseguenze sui risultati biologici sperimentali verificate. C’è dunque da aspettarsi sempre più, in questo secolo, che mentre da un lato la matematica offrirà alla biologia un potente strumento d’indagine, dall’altro la biologia stimolerà la creazione di ulteriori aree completamente nuove in matematica. In questo senso possiamo condividere un’affermazione del biomatematico Joel E. Cohen, che egli ha posto a titolo di un suo celebre articolo: «La matematica è il nuovo microscopio per la biologia, soltanto migliore; la biologia è la nuova fisica per la matematica, soltanto migliore» (Cohen 2004).
Volendo evidenziare l’impatto della matematica sulla biologia, possiamo sottolineare che il contributo della prima riguarda aspetti tipici della disciplina, relativamente alla comprensione del fenomeno da un punto di vista semantico (enti e relazioni tra gli stessi) e alla sua rappresentazione sintattica (attraverso specifiche strutture matematiche). Tali aspetti sono: formulazione del modello matematico; ricerca di soluzioni, possibilmente quantitative, del modello matematico che, da un lato, offrano un’interpretazione dei dati già disponibili, dall’altro, forniscano previsioni di possibili comportamenti al variare dei parametri e delle condizioni iniziali e al contorno; la validazione del modello matematico sulla base di dati reali, con i metodi della statistica e dell’analisi dei problemi inversi.
Uno dei grandi contributi della biologia matematica e quindi computazionale è quello di consentire le simulazioni e la conseguente visualizzazione in scenari che sarebbero persino impossibili nei laboratori umidi, a causa di limitazioni di vario tipo, tra cui quelle finanziarie e temporali, se non etiche. Stiamo così assistendo all’emergere di nuovi paradigmi che collocano gli esperimenti computazionali di modelli matematici (sperimentazione in silico o dry experiments) accanto alla sperimentazione in vitro (wet experiments). Anche se si tratta di un settore completamente diverso, la situazione è analoga a quella dell’industria aeronautica: la combinazione di calcolatori più veloci e di algoritmi più efficienti ha permesso di sostituire gli esperimenti condotti nelle costose gallerie del vento con altri svolti in gallerie virtuali, che consentono una vasta sperimentazione in silico sui comportamenti di nuovi veicoli, notevolmente meno costosa e con la possibilità di variare i parametri in tempi assai minori rispetto ai modelli fisici.
La biologia non è fisica
È importante chiarire che la biologia matematica non è un capitolo della fisica matematica, poiché i fenomeni biologici non sono riconducibili alle leggi della fisica: «A fianco di fenomeni che hanno un’evidente natura fisica, nelle cellule viventi vi sono anche delle azioni […] che non possiamo […] attribuire con certezza a qualcuna delle forze fisiche che ci sono note» (D.W. Thompson, On growth and form, 1917, 19422, trad. it. 1969, p. 18).
Ciò è confermato da Leland H. Hartwell, premio Nobel per la fisiologia o medicina nel 2001: «I sistemi biologici sono molto diversi dai sistemi chimici e fisici solitamente analizzati con gli strumenti della meccanica statistica o della fluidodinamica […]. Infatti i sistemi fisici sono spesso composti da entità semplici, mentre in biologia ognuno dei componenti è esso stesso spesso un dispositivo microscopico, capace di trasformare energia e di lavorare lontano dall’equilibrio […]. Nonostante i sistemi viventi ovviamente rispettino i principi della fisica e della chimica, la nozione di funzione e finalità differenzia la biologia dalle altre scienze naturali» (L.H. Hartwell, J.J. Hopfield, S. Leibler, A.W. Murray, From molecular to modular cell biology, «Nature», 1999, 402, 6761 Suppl., p. c49).
L’aspetto ereditato comunque dal modo di fare scienza in fisica è l’interazione tra teoria ed esperimento; per certi versi oggi ci troviamo in biologia in una situazione analoga al passaggio dalla grande disponibilità di dati astronomici di Tycho Brahe all’elaborazione della conoscenza (le ‘leggi’ della fisica) dovuta a Nicola Copernico, Johannes Kepler e Galilei, che portò alla fine alla comprensione matematica della dinamica dell’Universo da parte di Newton. La crescente disponibilità di enormi masse di dati biologici richiede una teoria unificante, capace di descrivere in modo coerente tutti questi dati; tale teoria potrebbe portare a una revisione della comprensione attuale degli organismi viventi, e quindi dei sistemi biologici.
Si pensi al ruolo giocato dalla matematica, insieme alla statistica e all’informatica, nella sequenziazione del genoma umano e di altri genomi. Il primo passo fu la pubblicazione del lavoro di James D. Watson e Francis H.C. Crick sulla doppia elica (Molecular structure of nucleic acids. A structure for deoxyribose nucleic acid, «Nature», 1953, 171, 4356, pp. 737-38); il secondo grande salto fu effettuato grazie ai brillanti risultati della biochimica, che avevano consentito la segmentazione della sequenza umana lunga tre miliardi di lettere in un certo numero di frammenti trattabili. La riorganizzazione dei frammenti di sequenza, per giungere alla sequenza finale del genoma umano, ha richiesto l’impiego di un’enorme potenza di calcolo guidata da un software sofisticato, basato a sua volta su metodi matematici innovativi. Purtroppo, questo ha portato solo al livello di estrazione dell’informazione alla Brahe. Nei lavori in corso su diversi genomi, si sta procedendo per identificare pattern significativi derivanti da geni che codificano, tra un sottofondo di geni che non codificano (stadio di Kepler).
Il passaggio allo stadio di Newton richiederà la modellazione matematica per capire la dinamica evolutiva che ha portato dal gene a questi pattern, in senso universale. Riemergerà così anche nella biologia la forza del metodo matematico, piuttosto che quella delle singole strutture già studiate. La matematica intesa come modo di organizzare le nostre idee sulla struttura dei fatti biologici, di fare chiarezza sulle possibili congetture e ipotesi, di confrontare le conseguenze logiche di tali ipotesi con i fatti sperimentali.
Una matematica al passo
Perché la matematica sia utile alla biologia, occorre considerare tra gli obiettivi della ricerca lo sviluppo, ove necessario, di tecniche totalmente innovative, dal momento che la quantità, la diversità, la potenzialità evolutiva, l’intrinseca struttura multifisica e multiscala dei sistemi biologici rendono questi ultimi estremamente più complessi dei sistemi naturali non biologici.
Le sfide principali si stanno orientando in due direzioni, verso i dati e verso la complessità.
Per quanto attiene ai dati, il numero di genomi sequenziati sta crescendo più velocemente di quanto stabilito dalla legge di Moore: si è stimato che il numero di sequenze genomiche disponibili si raddoppia ogni 12 mesi, mentre la legge di Moore ne prevede 18.
Come il numero di sequenze aumenta, così accade al numero di algoritmi che servono alla loro analisi, il che richiede non solo ulteriore potenza di calcolo, ma anche nuovi metodi matematici e algoritmi per l’elaborazione della conoscenza. L’aspetto cruciale deriva dal fatto che la ricerca in biologia sta producendo dati più velocemente di quanto i computer più moderni siano in grado di analizzare. Per es., un’area che ha risentito fortemente di questo enorme accumulo di informazioni riguarda la scoperta di farmaci per il trattamento di infezioni microbiche (Read, Gill, Tettelin, Dougherty 2001). La quantità di dati è tale che controllare tutti i bersagli microbici di farmaci confrontando tutte le basi di dati pubbliche e private di composti chimici, al fine di identificare potenziali nuovi inibitori e potenziali farmaci, richiederebbe un anno per tutti i bersagli microbici a 360 teraflop, un mese a 1000 teraflop, e un anno per tutti i bersagli microbici umani conosciuti a 5000 teraflop (Stevens 2006). Ciò vale per i metodi in silico; si immagini, comunque, il costo economico e temporale dei metodi tradizionali, in cui i bersagli venivano identificati usando test genetici, biochimici o cellulari.
La scienza della complessità è ancora nella sua fase iniziale, ed è probabile che alcune direzioni di ricerca che oggi possono apparire fruttuose risultino invece vicoli ciechi. Le sorgenti di complessità in campo biologico sono di diverso tipo; qui possiamo limitarci a ricordarne le più importanti, quali la non linearità e le scale multiple in una visione di multidisciplinarietà (Westerhoff 2007).
Una definizione completa e univoca della non linearità è difficile da offrire. Da un punto di vista matematico-computazionale possiamo affermare, in accordo con Philip W. Anderson, premio Nobel per la fisica nel 1977, che la non linearità consiste nel fatto che il comportamento di un sistema nel suo complesso può essere diverso, più ricco, di quello determinato dalla pura somma delle sue parti. Vi sono molti esempi in cui le proprietà dei singoli componenti e la natura delle loro interazioni sono stati ragionevolmente interpretati, eppure il comportamento collettivo dell’insieme non è stato ancora capito, ed è tuttora oggetto di indagine.
Per quanto concerne le scale multiple, si può affermare che fino a pochi anni fa la caratteristica peculiare della ricerca in biomatematica è stata quella di modellare un sistema biologico a una scala specifica, per es. il ciclo cellulare da un lato e la dinamica di una popolazione dall’altro. La ricerca attuale si è resa conto che nei sistemi biologici è ineludibile l’interazione tra fenomeni che accadono a scale diverse. Una delle maggiori sfide è capire come questa informazione di natura genetica si converta alla fine in un pattern di espressione spaziotemporale che definisce la forma fisica di una cellula, un tessuto, un organismo. Ancora una volta, la più valida opzione per studiare questo upscaling, dall’informazione genetica alla forma, è il modello matematico, la sua simulazione numerica e la sua visualizzazione.
Problemi globali devono alla fine essere studiati alle scale globali. Ciò è particolarmente vero quando si devono accoppiare scale spaziali e temporali nello studio dei processi oceanici o, di più, nello studio del cosiddetto global change. Una delle grandi sfide ancora aperte è legata alla necessità di fornire modelli che integrino fenomeni che avvengono naturalmente a un vasto range di scale, sia nello spazio sia nel tempo. Uno stesso fenomeno osservato a una certa scala può coinvolgere altri fenomeni che avvengono a scale diverse; si va dalla scala molecolare, che si può svolgere in frazioni infinitesime di secondo, ai processi evolutivi, ecologici, di popolazione, che avvengono a scale temporali, persino geologiche. Analoghe variabilità di scale si incontrano a livello spaziale, dalla scala molecolare a quella della biosfera. In modo estremamente sintetico, potremmo affermare che la matematica può aiutare i biologi ad affrontare problemi che sono (spazialmente) troppo grandi, come la biosfera, o troppo piccoli, come la struttura molecolare; troppo lenti, come la macroevoluzione, o troppo veloci, come la fotosintesi; troppo lontani nel tempo, come le estinzioni delle specie primordiali, o troppo remoti nello spazio, come la vita agli estremi dell’Universo; troppo complessi, come la struttura del cervello, o che infine intaccano la sfera etica, come l’epidemiologia delle malattie contagiose.
Purtroppo l’idea, nata nella fisica classica, di modellare i fenomeni naturali alle diverse scale, e quindi di integrare poi tali fenomeni in un unico modello, risulta poco praticabile nell’analisi dei fenomeni biologici. Uno dei problemi legati alla trattazione delle diverse scale è dovuto all’inevitabile non linearità, discussa sopra, dei fenomeni biologici.
Metodi di riduzione della complessità
Rimane dunque aperto il problema di sviluppare tecniche matematiche che consentano di stabilire un ponte tra le diverse scale, dalla struttura genetica fino alle cellule, agli organi, agli organismi. Le tecniche di riduzione della conseguente complessità analitica e computazionale devono essere in grado di catturare le informazioni derivanti dalle dinamiche a livello individuale (geni, cellule, vasi, organi ecc.), che sono responsabili dell’emergenza di comportamenti più complessi alle scale più grandi (organismi, ecosistemi e così via).
Occorre tenere presente, come detto, che a livello individuale, o di piccoli gruppi, gli effetti stocastici non sono in genere trascurabili; per es., nella diffusione di un’epidemia il comportamento di singoli gruppi è stocastico, mentre nelle grandi comunità, come nelle città, le fluttuazioni stocastiche appaiono trascurabili. A livello più ampio, come quello delle intere nazioni, i modelli deterministici si sono dimostrati di una certa utilità; infatti, alle scale più grandi si preferisce ricorrere a modelli deterministici, in termini di equazioni integro-differenziali (A.M. Turing, The chemical basis of morphogenesis, «Philosophical transactions of the Royal society of London. Series B, Biological sciences», 1952, 237, 641, pp. 37-72). Un possibile approccio (Neuhauser 2001) è quello di partire da modelli spaziali espliciti per descrivere i fenomeni alla microscala, dedurre da questi ultimi modelli deterministici di reazione-diffusione per i campi medi, la cui analisi qualitativa e computazionale è più accessibile, e quindi tornare ad analizzare i problemi stocastici alla microscala nelle regioni dello spazio dei parametri che hanno rivelato comportamenti di un certo interesse. Qui, come sempre, la collaborazione costante tra matematici e biologi è importante per la verifica di ipotesi biologiche su base sperimentale. Ne è derivato un forte interesse di ricerca matematica nei metodi di upscaling, che richiedono innovativi e sofisticati metodi di omogeneizzazione, sia deterministici sia stocastici. In quest’ultimo caso, alla base di tali metodi vi sono leggi dei grandi numeri e teoremi del limite centrale, nella loro formulazione cosiddetta funzionale. Questi approcci portano ai modelli di campo medio (Multiscale problems, 2008).
Come si è detto in precedenza, i modelli di campo medio, derivanti da analisi alla mesoscala, di solito tendono a eliminare alcuni livelli di stocasticità, e danno quindi luogo a modelli ibridi che lasciano tipicamente la stocasticità solo alle scale più basse, consentendo di giungere a modelli matematici trattabili dal punto di vista computazionale. Notiamo dunque che, nonostante l’enorme sviluppo di metodi e tecnologie di calcolo, siamo in effetti ancora costretti a sviluppare metodi di riduzione della complessità, diminuendo i dettagli e favorendo modelli aggregati che siano trattabili, sia computazionalmente sia statisticamente. Rimane, comunque, l’ovvia conseguenza negativa di tali approssimazioni, dovuta alla perdita di dettagli che darebbero maggiore affidamento ai modelli matematici.
Un altro esempio riguarda l’ecologia e la biologia evoluzionistica, che coinvolge un ampio range di livelli di organizzazione biologica, dall’organismo alle popolazioni e agli ecosistemi. La proliferazione di informazioni derivanti dal remote sensing ha introdotto il bisogno di metodologie per l’analisi matematico-statistica di tali informazioni, l’analisi di pattern spazio-temporali e lo sviluppo di modelli dinamici che consentano l’integrazione delle informazioni attraverso scale multiple di tipo spaziale, temporale e organizzativo.
La disponibilità di moderne tecniche matematico-computazionali, quali i sistemi ad agenti, in combinazione con potenti sistemi di calcolo, consentirebbe di condurre sempre di più esperimenti in silico per gestire scale multiple e investigare comportamenti emergenti nei sistemi biologici. Per poter gestire l’enorme crescita di complessità dei sistemi biologici, la stessa biologia richiede l’integrazione di diverse competenze scientifiche, che vanno dalla genomica alla fisiologia, alla biochimica, alla biofisica, alla proteomica e ad altro ancora.
Le grandi sfide in biologia
Tra i problemi della biologia che potrebbero trovare soluzione tramite una matematica innovativa, forse ancora da inventare, vi sono i seguenti (Cohen 2004): capire le cellule, le loro diversità all’interno o tra organismi, nonché la loro interazione con l’ambiente esterno, biotico o abiotico; descrivere il global change, cioè l’accoppiamento delle biosfere (atmosferiche, terrestri e acquatiche) con i processi fisico-chimico-biologici globali, anche al fine di monitorare i sistemi viventi per rilevare le loro deviazioni verso situazioni indesiderabili, quali le pandemie o le patologie ecologiche.
La biologia molecolare
Un obiettivo fondamentale della biologia è quello di capire come funzionano le cellule viventi. Ciò è alla base della comprensione di tutti i livelli superiori, tra cui la fisiologia, l’anatomia, il comportamento, l’ecologia e lo studio delle popolazioni. A mano a mano che la comprensione dei fenomeni aumenta e i dati sperimentali crescono a velocità impressionante, il settore diventa sempre più dipendente dalla modellazione matematica, dall’analisi matematica e dal calcolo scientifico.
I biologi della cellula riconducono, a livello molecolare, il funzionamento di una cellula alle interazioni fra tre importanti classi di macromolecole, il DNA, l’RNA (RiboNucleic Acid) e le proteine. Il dogma fondamentale della biologia molecolare è che il DNA codifica per l’RNA e l’RNA codifica per le proteine. Tutte le cellule di un organismo vivente (con rare eccezioni) contengono copie quasi identiche dell’intero genoma dell’organismo. L’espressione di un gene all’interno di una cellula è, tuttavia, regolata dall’ambiente in cui la cellula stessa è immersa. Quindi l’espressione di un gene può essere vista come un sistema complesso di interazioni che coinvolgono geni, proteine, RNA, ma anche altri fattori esterni come la temperatura e la presenza o meno di nutrienti e sostanze chimiche nella cellula (microecologia).
I problemi principali della genomica (Karp 2002) sono sequenziare e confrontare genomi di specie diverse; identificare i geni e determinare le funzioni delle proteine che essi codificano; capire l’espressione dei geni; determinare le relazioni evolutive tra le specie attualmente esistenti e i loro antenati; risolvere il problema del folding delle proteine, ossia come si passa dalla struttura lineare degli amminoacidi in una proteina alla sua struttura tridimensionale; scoprire i legami tra mutazioni geniche e malattie. Prendendo in considerazione l’ultimo punto, è attualmente oggetto di intensa indagine matematico-statistica il problema della determinazione delle associazioni tra polimorfismi e malattie complesse, come l’aterosclerosi, il diabete, le malattie cardiache, la fibrosi cistica e diversi tipi di tumori. Per individuare i geni responsabili di tali malattie, un approccio richiede la mappatura genica, per ottenere la quale è necessario un apparato matematico sofisticato.
I metodi matematici impiegati per affrontare i problemi sopra indicati sono stati, per es., i modelli di Markov nascosti, l’analisi di microarrays, i metodi dell’analisi dei gruppi (clusters) ecc., uniti ai metodi di ottimizzazione per problemi NP-hard (Nondeterministic Polynomial-time hard). In pratica, ci si confronta con problemi di informazione incompleta, per gestire la quale i genetisti si sono rivolti tra l’altro all’approccio statistico detto di massima verosimiglianza. Purtroppo, si tratta di massimizzare funzioni di un numero enorme di parametri incogniti, per cui il problema della ricerca del massimo richiede lo studio dei cosiddetti algoritmi efficienti; negli anni Novanta del 20° sec. sono stati impiegati sistematicamente metodi matematici non banali, come il Gibbs sampling (un metodo Monte Carlo basato su catene di Markov) o l’importance sampling (un metodo della statistica computazionale di cambiamento di misura di probabilità, che consente di ridurre il numero di simulazioni necessarie). Peraltro, per l’analisi della significatività dei test statistici si è fatto ricorso a un altro settore sofisticato della teoria della probabilità, quello delle grandi deviazioni.
I processi cellulari, come la divisione, la morte programmata, la risposta a farmaci, a nutrienti oppure a ormoni, sono regolati da interazioni complesse tra un gran numero di geni, proteine e altre molecole. Capire la natura di queste interazioni è un problema di estremo interesse, la cui soluzione richiede una modellazione matematica dettagliata dell’abbondanza e della distribuzione spaziale di migliaia di specie chimiche e delle loro relazioni. Si spera che questo problema venga risolto in questo secolo.
Il global change
Il nostro ambiente è caratterizzato da una rete di processi fortemente accoppiati che risultano essere non lineari e operanti a scale spaziali e temporali diverse, su differenti ordini di grandezza. L’analisi riguarda la dinamica dell’atmosfera, accoppiata con quella degli oceani, la dinamica terrestre (in particolare le emissioni vulcaniche) e quella della biosfera (il complesso di tutti gli esseri viventi). Gli scienziati hanno finora studiato le singole parti del sistema, su base sia concettuale sia geografica, per le quali è già spesso difficile dare risposte definitive ricorrendo alle conoscenze matematiche disponibili. Le sfide aperte dallo studio dell’accoppiamento di tutte le parti va al di là delle attuali conoscenze concettuali e potenzialità computazionali. Valga su tutto l’esempio della dinamica del metano e di altri gas coinvolti nell’effetto serra (Kenschaft 2008). Il trasporto di sostanze chimiche nel suolo e nelle acque sotterranee avviene a distanze che vanno dal metro al chilometro, ed è fortemente influenzato dalla struttura fisico-chimica del suolo. Lo scambio di energia e di sostanze chimiche tra le acque superficiali e l’atmosfera è influenzato dalla diffusione molecolare, ma anche, di nuovo, dalla dinamica dell’atmosfera. La qualità dell’aria dipende dall’interazione molecolare tra le diverse sostanze chimiche, come anche dalla dinamica dell’atmosfera, che governa la diffusione e il trasporto alle diverse scale, da quelle locali a quelle globali.
È caratteristica generale degli studi ambientali che gli accoppiamenti forti e la natura multiscala e multifisica dei sistemi ecologici rendono molto difficile l’isolamento dei processi individuali. D’altro canto, l’incalzare di fenomeni emergenti come l’effetto serra pone sfide ineludibili alla ricerca; abbiamo bisogno di predire come questi fenomeni alla scala globale influenzeranno la struttura genetica degli organismi viventi, la biodiversità, il comportamento degli individui, il comportamento delle comunità, delle popolazioni, al fine di suggerire le strategie ottimali per uno sviluppo sostenibile. Ancora una volta la sfida centrale deriva dal fatto che bisogna accoppiare fenomeni e processi che avvengono alle scale più disparate, sia spaziali sia temporali. Per es., lo zooplancton risponde alla distribuzione spazio-temporale delle sue riserve alimentari (il fitoplancton) e dei loro predatori (planctivori), mentre a loro volta i planctivori rispondono alla distribuzione spazio-temporale dei loro predatori (piscivori). Al fine di predire i pattern di questi organismi, occorre considerare le diverse scale spaziali coinvolte, che vanno da meno del millimetro (fitoplancton) ai centimetri (zooplancton), ai metri (aggregati di zooplancton), alle decine di metri (aggregati di planctivori), ai chilometri (aggregati di piscivori e loro mobilità), alle quali naturalmente corrispondono adeguate scale temporali. Un altro esempio è costituito dai ghiacci polari, che rappresentano l’interfaccia tra gli oceani polari e l’atmosfera; essi contribuiscono a regolare il clima di tutta la Terra e agiscono come indicatori dei cambiamenti climatici. D’altro canto, i ghiacci polari ospitano popolazioni di alghe e batteri che sostengono la vita negli oceani polari, a partire dal krill, che sostiene pesci, pinguini, foche, balene e su nella catena alimentare fino agli orsi polari. La modellazione matematica di tutto il sistema richiede anche qui la comprensione di come l’informazione di eventi alla microscala influenzi il comportamento del sistema alla macroscala (Golden 2009; Sea ice, 2003).
Un altro problema d’interesse globale è la diffusione di una malattia infettiva in una regione geografica di grandi dimensioni. A titolo di esempio, è significativo uno studio condotto sulla diffusione della malaria nel Burkina Faso (Sankoh, Yé, Sauerborn et al. 2001). In esso sono stati considerati sei livelli di dati sperimentali: i dati ambientali, comprendenti dati atmosferici e dati sull’uso del suolo; i dati demografici; i dati epidemiologici sulla malaria; i dati socioeconomici; i dati sulla popolazione del vettore (zanzara anofele); i dati sull’agente eziologico (densità, specie, genotipo, resistenza ai trattamenti chimici). Gli obiettivi del progetto di ricerca includono lo sviluppo e la validazione di modelli matematici che descrivono il complesso d’interazione tra i fattori ambientali, comportamentali, biologici e sanitari in grado di influenzare la trasmissione della malattia, e la ricerca delle strategie ottimali d’intervento per la riduzione e la possibile eradicazione dell’epidemia. È evidente che un tale progetto coinvolge biologi, medici, statistici e matematici di diverso tipo, analitici e computazionali.
Il collegamento tra la visione globale del problema e le azioni a livello locale richiede metodi matematici non banali di teoria del controllo, applicata a sistemi di reazione-diffusione per epidemie (Anita, Capasso 2009).
Alcuni casi di studio
Immunologia e HIV
La comprensione, a livello molecolare, del modo con il quale i virus e gli altri agenti patogeni interagiscono con le singole cellule del sistema immunitario, permetterebbe di progettare farmaci specifici capaci di sopprimere la replica dei virus. Per es., capire la dinamica dell’AIDS (Acquired Immune Deficiency Syndrome), l’infezione da HIV (Human Immunodeficiency Virus) e i suoi effetti sul sistema immunitario è un problema ancora aperto. Tra le questioni di rilievo sono incluse la ricerca della causa del lungo e variabile periodo d’incubazione dal momento del contagio alla comparsa dei sintomi clinici dell’AIDS; la ragione del diverso periodo d’incubazione nei bambini rispetto agli adulti; la verifica dell’eventuale possibilità di fornire misure quantitative della probabilità che un soggetto malato infetti un partner sessuale, sulla base dei livelli di anticorpi o di antigene misurati nel sangue. Una risposta può provenire dall’analisi delle interazioni tra le popolazioni dei differenti ceppi dell’HIV con tutte le popolazioni dei diversi tipi di cellule del sistema immunitario, all’interno di un singolo individuo infetto.
La matematica, con la teoria del controllo ottimo, sulla base di un adeguato modello, potrebbe suggerire lo sviluppo di schemi di trattamento ottimali, nonché di strategie ottimali di vaccinazione delle popolazioni a rischio (May 2004).
Biologia dello sviluppo e morfogenesi
L’embriogenesi riguarda la capacità di popolazioni di cellule di differenziarsi; comprendere questi fenomeni vuol dire capire come meccanismi operanti alla scala molecolare influenzino l’organizzazione coerente a scale più grandi. Ancora una volta si tratta di colmare il gap tra scale diverse. Il problema della modellazione è quello di individuare i principali meccanismi d’interazione alla scala più bassa (molecole, cellule ecc.) che sono poi responsabili, alla scala più alta, dei meccanismi più complessi che portano alla formazione di pattern (tumori, reti di vasi e così via).
Recenti sviluppi metodologici, all’interno della biologia sperimentale, hanno creato nuove basi di dati, di dimensioni e complessità tali che solo le più moderne metodologie matematico-computazionali, insieme a quelle più propriamente informatiche, consentono di analizzare. Possiamo citare la scoperta che una rete costituita da un gran numero di geni è responsabile dello sviluppo iniziale della Drosophila melanogaster; analogamente, la motilità cellulare, alla base della morfogenesi, è controllata da un certo numero di molecole. Queste scoperte richiedono una più intensa collaborazione tra matematici e biologi per studiare le conseguenze macroscopiche dei meccanismi molecolari.
Solo la matematica, infatti, può offrire una sintesi del quadro complessivo a partire dal livello molecolare, data l’evidente complessità delle reti genetiche, in cui ogni espressione genica è modulata da tanti altri geni.
Comprendere lo sviluppo di pattern spazio-temporali è una delle principali sfide del 21° sec., che si tratti di morfogenesi, di crescita tumorale, dinamica delle organizzazioni di stormi in ecologia e così via. Si sono fatti grandi progressi in diverse aree della biologia, ma un’accurata e condivisa descrizione dei meccanismi responsabili della formazione di pattern ha ancora bisogno d’indagine. La disponibilità di questi modelli, seguendo il percorso della trilogia universale, può essere di notevole importanza in medicina per il possibile controllo dello sviluppo, dall’embrione all’individuo adulto, consentendo la previsione degli effetti dell’alterazione dei parametri responsabili. Purtroppo, nonostante i considerevoli progressi raggiunti in altri settori della biologia, dalla mappatura del genoma alla clonazione, i problemi più importanti della generazione di pattern richiedono un’ulteriore indagine (Neuhauser 2001). I settori della matematica coinvolti nella modellazione della formazione di pattern sono diversi e sofisticati; per es., i modelli alla Turing sono basati essenzialmente su sistemi non lineari di reazione-diffusione; la teoria della biforcazione e i metodi delle perturbazioni singolari hanno già spiegato alcuni dei comportamenti osservati in natura. Occorrono però nuovi approcci analitici e numerici per trattare anche dal punto di vista computazionale problemi tridimensionali a domini variabili nel tempo (Murray 2003).
Verso la fine degli anni Settanta e in maniera particolare durante gli anni Ottanta del 20° sec., le maggiori scuole di biomatematica facevano uso di modelli matematici basati su sistemi di equazioni integro-differenziali, meglio conosciuti come sistemi di reazione-diffusione. Nella scuola di Turing e di James D. Murray, la formazione di pattern era modellata tramite l’accoppiamento di processi di attivazione-inibizione; Evelyn F. Keller e Lee A. Segel (Traveling bands of chemotactic bacteria. A theoretical analysis, «Journal of theoretical biology», 1971, 30, 2, pp. 235-48) avevano dato luogo con la loro scuola a un’esplosione di modelli di chemiotassi, ma la morfogenesi potrebbe non essere un fenomeno puramente chimico, in cui le cellule rispondono semplicemente a gradienti chimici di pattern preesistenti. Se le cellule possono avvertire i gradienti morfogenici, allora potrebbe valere un’interpretazione molecolare dell’ipotesi di informazione posizionale originariamente dovuta a Lewis Wolpert (Positional information and the spatial pattern of cellular differentiation, «Journal of theoretical biology», 1969, 25, 1, pp. 1-47).
Un esempio classico è fornito dall’ameba collettiva Dictyostelium discoideum, in cui le cellule producono il chemioattrattore (cyclic AMP) insieme a un morfogene chemiocinetico (ammonia). Se l’ambiente è ricco di cibo (batteri), l’ameba si comporta come un insieme di individui unicellulari che si riproducono per mitosi; quando il nutrimento scarseggia, essi si riaggregano in un unico individuo, formato da un insieme di decine di migliaia di cellule, che si muove alla ricerca di nutrimento. La sostanza che funge da chemioattrattore è emessa da tutte le cellule, in carenza di nutrimento. Questa forma aggregata ha persino funzioni proprie come la sporazione. L’aspetto interessante è che, nel processo di autorganizzazione, non vi è un individuo guida. Di questi comportamenti sociali ci si occuperà in seguito a proposito della swarm intelligence, uno dei meccanismi alla base della pattern formation.
Oggi si è coscienti dei limiti di un approccio basato semplicemente su equazioni differenziali alle derivate parziali, anche se la complessità del fenomeno potrebbe essere ancora ricondotta, pur se in termini matematici più adeguati, all’interazione tra una dinamica locale e una globale. In quest’ultimo decennio sono stati proposti modelli matematici più complessi che tengono meglio conto dei problemi a geometria variabile, peraltro con elementi di stocasticità non trascurabili; tali modelli richiedono sofisticate metodologie della teoria geometrica della misura, unite ai metodi della geometria stocastica. Quest’ultimo capitolo della matematica, nato principalmente nell’ambito delle scuole d’ingegneria mineraria, ha ricevuto recentemente un grande sviluppo proprio grazie al suo impiego in ambito biomedico (Capasso 2009). A titolo di esempio ricordiamo che il processo di formazione di una rete vascolare stimolata da un tumore (angiogenesi) include i seguenti sottoprocessi: ramificazione di nuovi vasi; estensione di vasi, dovuta alla chemiotassi in risposta a fattori biochimici (TAF, Tumor Angiogenesis Factors), rilasciati da cellule tumorali; aptotassi, in risposta a gradienti di fibronectina, generata dalla matrice extracellulare; anastomosi, necessaria alla formazione di reti di vasi; circolazione sanguigna. La corretta modellazione della rete capillare conduce naturalmente alla formulazione di un modello matematico di reti aleatorie di cellule endoteliali, e quindi a sistemi stocastici di fibre (Capasso, Dejana, Micheletti 2008; Carmeliet 2005; Sun, Wheeler, Obeyesekere, Patrick Jr 2005).
Grazie ai recenti sviluppi della computergrafica, accanto al potenziamento dei metodi di analisi di immagini e della stereologia, è stato possibile sviluppare ulteriormente i metodi della statistica delle strutture geometriche aleatorie, o più in generale della forma, al fine di validare modelli matematici; monitorare l’efficacia di possibili interventi quantificando il rapporto dose/effetto; diagnosticare situazioni patologiche utilizzando la descrizione quantitativa e obiettiva delle differenze morfologiche nelle diverse situazioni (Capasso, Dejana, Micheletti 2008).
Morfologia funzionale
D’Arcy W. Thompson già nel suo citato classico del 1917, On growth and form, anticipava l’esistenza di un’importante relazione tra la forma di una struttura biologica e la sua funzione.
La fisiologia di un organo è oggetto naturale d’indagine dal punto di vista matematico e computazionale. I modelli matematici hanno diversi scopi: da un lato, comprendere la relazione tra struttura e funzione in un organo normale, dall’altro, studiare i meccanismi e l’impatto di patologie e, quindi, sostenere la progettazione di dispositivi artificiali per riparare, assistere o sostituire un organo leso.
Il cuore
Uno dei problemi aperti, di grande importanza per la patologia medica, è la fibrillazione; da tempo i matematici si sono occupati del malfunzionamento elettrico del cuore, attualmente contrastato da uno shock doloroso prodotto da defibrillatori di costo molto elevato, che non è né clinicamente soddisfacente né basato sulla comprensione del fenomeno. Eppure la pratica corrente ha un successo vicino al 100%, dipendendo dall’intensità dello shock, mentre secondo i modelli matematici correnti il successo sarebbe solo del 20% (MacKenzie 2004). I modellatori che studiano la fibrillazione sono più interessati al comportamento elettrico del cuore che alla meccanica del pompaggio; la matematica attualmente coinvolta è quella dei sistemi di reazione-diffusione, che descrivono la diffusione degli ioni nelle cellule e le correnti che attraversano le membrane cellulari.
La dinamica del calcio e il fegato
Si riporta un esempio di microecologia. Gli ioni di calcio agiscono come messaggeri in un gran numero di tipi di cellule nelle piante e negli animali. Un certo numero di agonisti usa il calcio per trasmettere informazioni entro una cellula stimolata e nei tessuti; rimane aperta la questione di come questa informazione venga trattata e di come essa sia codificata e decodificata. Studi sperimentali rivelano che le concentrazioni di calcio cominciano a oscillare dietro lo stimolo degli agonisti. Colture di epatociti isolati e di tessuti estratti da campioni di fegato in vertebrati vengono impiegate come materiale sperimentale; i modelli teorici proposti sono basati su equazioni differenziali alle derivate parziali oppure su sistemi di equazioni differenziali stocastiche, nel caso di sistemi a piccoli numeri di canali. Obiettivo di lungo termine è quello di riuscire a comprendere come funzionano i processi di trasmissione dei segnali di calcio e di come essi vengano influenzati da stimoli ambientali che includano la presenza di sostanze tossiche.
L’interazione tra le cellule e l’ambiente può servire come modello base per una microecologia, ossia nello studio delle interazioni tra strutture viventi e ambiente. Uno studio discute di esperimenti condotti sul fegato di pesci per rivelare tali interazioni di microecologia (Segner, Braunbeck 1998). L’informazione strutturale disponibile da studi sul fegato dei pesci può essere impiegata per pervenire a un modello più generale di crescita del fegato sotto l’impatto di microambienti controllati. Si potrà così dare un grande contributo alla comprensione delle relazioni tra la morfogenesi (formazione di strutture) e la trasmissione di segnali dall’ambiente, sia interno sia esterno, avvalendosi di adeguati modelli matematici. Le relative simulazioni possono guidare gli esperimenti e la verifica di ipotesi di interesse biologico.
Ciò è oggi possibile anche grazie alla disponibilità di metodi di visualizzazione tridimensionale della struttura del fegato, unita alla disponibilità di metodi della stereologia matematica per la ricostruzione tridimensionale di immagini sperimentali.
Gli algoritmi ispirati dalla natura
Come si è accennato in precedenza, la biologia ha stimolato lo sviluppo di una serie di metodi matematici innovativi basati su concetti biologici. Qui ci soffermiamo su un caso di grande interesse basato sulla swarm intelligence, che abbiamo incontrato tra l’altro nella discussione sulle amebe collettive. Si tratta di un metodo moderno di ottimizzazione, basato su un paradigma ispirato dalla natura che è emerso dalla modellazione matematica di sistemi autorganizzanti, e che è alla base dei modelli ad agenti (agent based models): il coordinamento è la capacità fondamentale di un agente di decidere delle proprie azioni, nel contesto di attività degli altri agenti che lo circondano, per assolvere a compiti che richiedano uno sforzo collettivo. L’idea ha trovato spazio nell’ambito della teoria e dei metodi di ottimizzazione; negli ultimi anni si è diffuso, infatti, un modo innovativo di inventare tecniche per risolvere problemi di ottimizzazione, che è basato sullo studio dell’ingegneria della natura, cioè di come, dati certi vincoli ambientali, l’evoluzione abbia creato la forma di vita ottima per quei vincoli. Gli algoritmi ispirati dalla natura hanno un’interessante caratteristica: mentre la natura può impiegare milioni di anni per far evolvere un sistema biologico verso il suo stato ottimale, un moderno calcolatore multiprocessore può far compiere la stessa evoluzione in pochi giorni. Un chiaro esempio di organizzazione naturale è quello offerto dalle colonie di formiche. Le formiche trovano sempre il modo ottimale per la raccolta e l’immagazzinamento di risorse alimentari. L’algoritmo che formalizza il loro comportamento prende il nome di ACO (Ant Colony Optimization), ed è stato introdotto nel 1992 da un gruppo di ricercatori del Politecnico di Milano. È interessante notare come l’argomento abbia stimolato un enorme numero di lavori scientifici, sia in ambito teorico sia nel campo delle applicazioni (Bonabeau, Dorigo, Theraulaz 2000).
Bibliografia
H. Segner, T. Braunbeck, Cellular response profile to chemical stress, in Ecotoxicology, ed. G. Schürmann, B. Markert, New York-Heidelberg 1998, pp. 521-69.
E. Bonabeau, M. Dorigo, G. Theraulaz, Inspiration for optimization from social insect behaviour, «Nature», 2000, 406, 6791, pp. 39-42.
D.E. Hinton, H. Segner, T. Braunbeck, Toxic responses of the liver, in Target organ toxicity in marine and freshwater teleosts, ed. D. Schlenk, W.H. Benson, 1° vol., Organs, London-New York 2001, pp. 224-68.
C. Neuhauser, Mathematical challenges in spatial ecology, «Notices of the American mathematical society», 2001, 48, 11, pp. 1304-14.
T.D. Read, S.R. Gill, H. Tettelin, B.A. Dougherty, Finding drug targets in microbial genomes, «Drug discovery today», 2001, 6, 17, pp. 887-92.
O.A. Sankoh, Y. Yé, R. Sauerborn et al., Clustering of childhood mortality in rural Burkina Faso, «International journal of epidemiology», 2001, 30, 3, pp. 485-92.
R.M. Karp, Mathematical challenges from genomics and molecular biology, «Notices of the American mathematical society», 2002, 49, 5, pp. 544-53.
J.D. Murray, Foreword, in Morphogenesis and pattern formation in biological systems. Experiments and models, ed. T. Sekimura, S. Noji, N. Ueno, P.K. Maini, Tokyo 2003.
Sea ice. An introduction to its physics, chemistry, biology and geology, ed. D.N. Thomas, G.S. Dieckmann, Oxford-Maiden (Mass.) 2003.
W. Bialeck, D. Botstein, Introductory science and mathematics education for 21st-century biologists, «Science», 2004, 303, 5659, pp. 788-90.
J.E. Cohen, Mathematics is biology’s next microscope, only better; biology is mathematics’ next physics, only better, «PLoS. Biology», 2004, 2, 12, pp. 2017-23.
D. MacKenzie, Making sense of a heart gone wild, «Science», 2004, 303, 5659, pp. 786-87.
R.M. May, Uses and abuses of mathematics in biology, «Science», 2004, 303, 5659, pp. 790-93.
P. Carmeliet, Angiogenesis in life, disease and medicine, «Nature», 2005, 438, 7070, pp. 932-36.
PITAC (President’s Information Technology Advisory Committee), Computational science. Ensuring America’s competitiveness. Report to President, Darby (Pa.) 2005.
Sh. Sun, M.F. Wheeler, M. Obeyesekere, Ch.W. Patrick Jr, A deterministic model of growth factor-induced angiogenesis, «Bulletin of mathematical biology», 2005, 67, 2, pp. 313-37.
V. Westerhoff, Mathematical and theoretical biology for systems biology, and then… vice versa, «Journal of mathematical biology», 2007, 54, 1, pp. 147-50.
V. Capasso, E. Dejana, A. Micheletti, Methods of stochastic geometry, and related statistical problems in the analysis and therapy of tumour growth and tumour-driven angiogenesis, in Selected topics in cancer modeling. Genesis, evolution, immune competition, and therapy, ed. N. Bellomo, M. Chaplain, E. De Angelis, Boston 2008, pp. 299-336.
P.C. Kenschaft, Climate change. A research opportunity for mathematics?, «Notices of the American mathematical society», 2008, 55, 6, pp. 695-99.
Multiscale problems in the life sciences. From microscopic to macroscopic, ed. V. Capasso, M. Lachowicz, Berlin-Heidelberg 2008.
S. Anita, V. Capasso, A stabilization strategy for a reaction-diffusion system modelling a class of spatially structured epidemic systems (think globally, act locally), «Nonlinear analysis. Real world applications», 2009, 10, 4, pp. 2026-35.
V. Capasso, Multiple scales and geometric structures: additional sources of randomness, «Journal of mathematical biology», 2009, 59, 1, pp. 143-46.
K.M. Golden, Climate change and the mathematics of transport in sea ice, «Notices of the American mathematical society», 2009, 56, 5, pp. 562-84.
Si veda inoltre:
R. Stevens, Trends in cyberinfrastructure for bioinformatics and computational biology, «CTWatch quarterly», 2006, 2, 3, http://www.ctwacht.org/quarterly/articles/2006/08/trends-in-cyberinfrastructure-for-bioinformatics-and-computational-biology/5/index-html (30 giugno 2010).