Modello
Il termine modello è diffusamente utilizzato per indicare un ampio insieme di costruzioni formali ottenute mediante schematizzazioni di processi, comportamenti, situazioni ecc., al fine di comprendere e controllare in qualche senso i fenomeni, prevedere il comportamento di sistemi complessi, progettare varie tipologie di macchine e così via.
Nel seguito si discuterà di alcuni esempi significativi dell'uso moderno del termine in ambiente scientifico. È interessante notare che si può cercare di comprendere il metodo scientifico stesso inquadrando questa attività intellettuale in schemi concettuali detti modelli della scienza; sono particolarmente discussi in letteratura il modello deduttivo e il modello analitico.
Secondo il m. deduttivo, in una teoria scientifica si formulano delle ipotesi che sono ottenute con l'intuizione e da queste, con procedimenti di deduzione logica, si derivano le leggi che poi possono essere confrontate con i fenomeni studiando i risultati dell'attività sperimentale. In base a tale m., che sembra essere condiviso da scienziati come A. Einstein, le ipotesi sono il fondamento di un sistema chiuso che produce sempre nuove verifiche delle ipotesi stesse. Nel caso in cui le ipotesi risultassero falsificate si dovrebbe passare a nuove ipotesi ottenute per mezzo dell'intuizione. Questo modo di vedere la scienza è stato criticato dai logici a causa della sua chiusura, caratteristica che lo mette sotto accusa di incompletezza per il teorema di K. Gödel.
Con il m. analitico le ipotesi sono formulate in base a processi logici di analogia e induzione, con una continua formulazione di nuove ipotesi sempre più generali necessarie a giustificare le precedenti in un processo che potrebbe essere senza fine. Naturalmente nella scienza è presente un controllo stretto delle ipotesi e delle loro conseguenze basato sulla verifica empirica ottenuta effettuando opportuni esperimenti. In questo m. la teoria scientifica è quindi vista come un sistema aperto perché è per sua natura incompleta e per migliorare deve rifarsi ad altri sistemi.
In fisica si è sempre avuta un'ampia diffusione dell'uso di m. che hanno spesso avuto una grande importanza. Per es., è ampiamente conosciuto il caso significativo del confronto tra m. corpuscolare e m. ondulatorio, inizialmente della luce e poi di tutta la materia, che ha portato all'inizio del 20° sec. alla nascita della meccanica quantistica. All'epoca di tale discussione su queste manifestazioni della fisica classica che apparivano inconciliabili, il m. corpuscolare e quello ondulatorio compendiavano degli aspetti non solamente euristici ma delle rappresentazioni della realtà irrinunciabili per i fisici dell'epoca. L'abbandono della possibilità di classificare i fenomeni fisici in termini di uno o l'altro di questi m., che gli esperimenti sembravano suggerire in quanto il comportamento dei sistemi microscopici si doveva interpretare in un modo o nell'altro a seconda della situazione sperimentale (dualità onda-corpuscolo), avrebbe significato perdere ogni possibilità di spiegare il mondo fisico in modo generale riducendo la teoria a un insieme di regole descrittive da utilizzare a seconda dei casi. L'avvento della meccanica quantistica ha riconciliato queste due opposte visioni del mondo mostrando che il comportamento ondulatorio e quello corpuscolare possono convivere nell'ambito della stessa teoria.
Significato contemporaneo dei modelli
La grande diffusione del termine modello è anche legata al vasto sviluppo di tecniche di matematica applicata, di tipo sia deterministico sia stocastico, astratta e numerica, che richiedono per la loro applicazione una modellazione iniziale del problema, ovvero la determinazione delle variabili descrittive e l'assiomatizzazione formale delle relazioni che tra loro intercorrono. L'uso dell'elaboratore elettronico è determinante sotto ogni aspetto: per la soluzione numerica di equazioni che descrivono dinamiche deterministiche sia lineari sia non lineari, nella risoluzione di equazioni stocastiche e nell'impiego di tecniche combinatorie, nella manipolazione algebrica delle equazioni, nella simulazione e così via. La manipolazione algebrica consiste in una metodica che permette, mediante l'utilizzazione di moderni e innovativi algoritmi, il trattamento automatico di espressioni matematiche agendo sui simboli (e non numericamente) per ottenere altre espressioni. Tali tecniche sono diventate potentissime, vengono estensivamente impiegate in molti ambiti della ricerca e sono entrate nei programmi di studi universitari dei primi anni delle facoltà scientifiche.
In vari Paesi si è ricorso, per scopi scientifici, alla costruzione di supercalcolatori dedicati a problemi particolari per soddisfare le richieste di calcolo numerico. In Italia il progetto APE ha portato alla realizzazione di vari m. di supercalcolatori di successo utilizzati in Europa. Si è anche iniziato a sviluppare, sempre in ambiente scientifico, una rete globale di calcolatori, detta Grid, che può fornire una risorsa di potenza di calcolo distribuita finora impensabile, di cui cominciano a fare uso i grandi esperimenti di fisica delle particelle elementari e gli altri grandi progetti scientifici di punta di biologia, chimica e così via.
Il panorama di capacità di calcolo per il prossimo futuro risulta essere veramente formidabile e quindi è facile prevedere un ulteriore sviluppo della modellazione numerica, anche finalizzata a simulazioni.
La relazione esistente tra m. e simulazione costituisce un modo complementare alla naturale relazione fra teoria ed esperimento per ottenere la comprensione quantitativa e anche qualitativa di un fenomeno o di un sistema complesso. La simulazione al computer richiede che si abbia una formalizzazione matematica completa del m. traducibile in algoritmi da elaborare al calcolatore, in modo da ottenere previsioni in funzione dei valori dei parametri adottati (che a volte non sono noti o non sono noti con sufficiente precisione).
All'inizio del 21° sec. si può simulare il comportamento di un sistema prevedendo il suo stato futuro a partire dalla situazione iniziale, e si può anche aggiornare l'elaborazione in modo tale da tener conto di ulteriori rilevazioni dello stato del sistema durante l'evoluzione anche con procedure probabilistiche di tipo bayesiano. Naturalmente il calcolo numerico è efficiente quando permette di risolvere il m. matematico in studio in poco tempo e con grande precisione. I parametri che caratterizzano il tempo di elaborazione e la precisione di calcolo sono a loro volta determinati dal problema in studio. Per es., nel caso del puntamento di un missile terra-aria è necessario, in frazioni di secondo, poter prevedere la posizione del bersaglio e calcolare i parametri di tiro, modificando i valori a mano a mano che il missile è in volo, mentre nelle simulazioni di cromodinamica quantistica sul reticolo, ovvero nelle simulazioni della teoria dei campi quantistici relativistici delle interazioni forti opportunamente discretizzata su un reticolo in quattro dimensioni (spazio-tempo), si possono aspettare mesi per accumulare la statistica sufficiente a raggiungere precisioni dell'ordine di alcune parti percentuali. È quest'ultimo un importante caso in cui è essenziale l'utilizzazione delle massime risorse del supercalcolo.
Spesso, nel caso di applicazioni tecnologiche, si ricorre alla costruzione di m. in scala quando le dimensioni dell'oggetto in studio sono troppo piccole o troppo grandi per permetterne uno studio diretto. In questi casi le proporzioni vengono mantenute e sono riprodotti solo i dettagli che si presuppone abbiano importanza nel fenomeno in studio. Le grandezze interessanti relative al sistema in studio devono essere in corrispondenza matematica con quelle del m. in scala, in modo tale che le proprietà ottenute dalle prove sul m. possano essere trasferite al sistema reale.
Non si deve pensare però che tutto sia modellabile, poiché a volte esistono delle difficoltà strutturali o concettuali non facilmente sormontabili. Infatti, quando un sistema è troppo complesso o presenta comportamenti troppo complessi, il m. che lo rappresenta può essere difficile da costruire oppure semplicemente inutile, in quanto potrebbe non portare a spiegazioni del fenomeno oppure non permetterebbe previsioni affidabili.
Dal punto di vista teorico, un m. è utile quando fornisce una rappresentazione mentale che possa spiegare in termini di meccanismi o fenomeni già conosciuti il nuovo oggetto di studio e permetta di separare le grandezze importanti in gioco da quelle che sono solo di disturbo, stimolando nuovi innovativi sviluppi.
Prendendo un esempio tra i m. atti a spiegare il funzionamento di parti importanti del corpo umano o di quello dei mammiferi, sembra sia molto difficile ottenere un m. della coclea allo scopo di studiare l'udito, probabilmente a causa della dinamica intrinsecamente non lineare propria di questo sistema. In particolare, malgrado gli enormi progressi che ci sono stati nel campo della psicoacustica e della neurologia non sono state ancora risolte alcune delle problematiche connesse con la percezione sonora. Sono infatti stati proposti m. antagonisti, come quelli basati sulla localizzazione (place models), che ipotizzano che particolari tratti della membrana basilare della coclea siano meccanicamente selettivi a determinate frequenze, oppure i m. basati sulla temporizzazione (timing models), ossia su particolari fenomeni di periodicità nei segnali neuronali. Si noti la notevole importanza, anche da un punto di vista applicativo, di conoscere le peculiari capacità dell'orecchio umano, che potrebbe permettere la costruzione di sensori artificiali molto efficienti ed essere di grande aiuto nella lotta alle malattie dell'udito. Ovviamente ci stiamo riferendo a un m. che possa poi essere utilizzato, per es. per la costruzione di una macchina (sensore artificiale): se le ipotesi di base sono troppo numerose, il m. risulta essere troppo complesso da vanificare i benefici attesi dalla modellazione.
Il fatto che non si riesca a ottenere una modellazione chiara di un apparato come la coclea non significa che non possiamo avere delle rappresentazioni matematiche del suono e della musica efficienti dal punto di vista della percezione musicale. La codifica del suono con tecniche di compressione digitale, come nel caso per es., dell'MP3, è una modellizzazione standardizzata molto conosciuta nell'archiviazione e nella riproduzione del suono.
Sotto vari aspetti, hanno avuto e continuano ad avere grande importanza i m. finalizzati alla comprensione dei meccanismi di funzionamento del cervello umano, anche a scopi pratici come la progettazione di elaboratori innovativi basati su meccanismi mutuati dallo studio del sistema nervoso centrale. Dal 1943, anno in cui W.S. McCulloch e W. Pitts proposero un m. di neurone con l'intenzione di conoscere i segreti del pensiero umano basandosi sulla modifica dei pesi matematici assegnati alle connessioni in forma di rete tra neuroni in funzione della ripetizione degli stimoli, un progresso molto veloce ha coinvolto campi di ricerca piuttosto diversi, come la neurobiologia, la cibernetica, la computer science e altri. Da questi studi discendono gli sviluppi riguardanti le reti neuronali o neurali, sistemi basati sulla connessione dei segnali in entrata e in uscita attraverso una rete di trasmissione composta da un numero elevato di unità elementari, dette neuroni (artificiali), che presentano caratteristiche di dinamica non lineare. Alcuni neuroni sono accessibili dall'esterno della rete (neuroni di input) o trasmettono i segnali in uscita (neuroni di output), mentre i rimanenti sono soltanto interconnessi ad altri neuroni; lo stato istantaneo di un neurone è determinato dal complesso dei segnali che lo circondano. La rete quindi può essere vista come un sistema di interconnessioni in cui i segnali in ingresso vengono eleborati e producono segnali in uscita caratterizzati da una grandissima gamma di comportamenti che dipendono dalla struttura della rete e dalle proprietà specifiche dei singoli componenti.
Una tipica novità di questi sistemi è la capacità di apprendimento della rete. Durante una fase iniziale, la rete impara gradualmente a conoscere il sistema, il fenomeno o il comportamento che deve riprodurre, mediante l'applicazione ripetuta di segnali d'ingresso e la modifica conseguente dei parametri caratteristici per ottenere l'uscita desiderata. Le reti neurali presentano un'architettura di elaborazione di tipo massicciamente parallelo e distribuito; permettono quindi l'elaborazione simultanea di grandi moli di dati, in un tempo molto minore rispetto a quello richiesto dagli usuali algoritmi numerici. Per questa caratteristica sono impiegate per risolvere problemi di riconoscimento delle forme anche in condizioni di disturbo e in altre applicazioni dove l'architettura parallela favorisce algoritmi veloci.
La possibilità di capire e modellare la capacità che il cervello umano ha sviluppato nell'effettuare calcoli difficilmente eseguibili in tempi rapidi con le usuali tecniche di elaborazione è certamente un programma di ricerca entusiasmante in vari ambiti della scienza. Perciò, il campo applicativo delle reti neurali, pur rimando un settore di nicchia, è attentamente e costantemente studiato in vari modi. Sono stati costruiti m. elettronici di reti neurali sia con elettronica digitale sia analogica o mista allo scopo di studio oppure con finalità applicative specifiche.
Modelli in fisica
Per l'analisi di sistemi complessi (anche per sistemi fisici per i quali si pensa di conoscere completamente le leggi fondamentali), si preferisce utilizzare m. più o meno ispirati dai principi primi su cui è fondata la teoria. Si parla a volte in questi casi di modelli euristici, ossia m. il cui scopo è quello di semplificare mettendo in luce particolari proprietà dei sistemi che altrimenti non sarebbero visibili e renderne calcolabili le grandezze tipiche. Un esempio è quello del modello a bag (sacca) per gli adroni: in esso una particella (pione, protone ecc.) che risente delle interazioni forti, pensata in cromodinamica quantistica come un sistema legato di componenti più elementari detti quark e gluoni, è descritta in modo quantitativo individuando una regione dello spazio-tempo (bag) in cui i costituenti sono confinati e il cui raggio è determinato dal bilanciamento tra energia di volume, energia superficiale ed energia cinetica.
A volte il termine modello si riferisce a uno standard prefissato convenzionalmente allo scopo di costituire un riferimento e permettere quindi confronti qualitativi e quantitativi con la situazione in esame. Per es., il modello di aria tipo è un m. convenzionale dell'atmosfera terrestre i cui parametri sono fissati dall'organizzazione internazionale dell'aviazione civile, allo scopo di confrontare le misure di esperimenti tra differenti propulsori, oppure per la propagazione delle onde elettromagnetiche o altro. Con questa espressione si intende aria secca con particolari valori di temperatura, pressione, densità, peso molecolare, fissati in funzione della quota.
La locuzione modello standard viene usata molto spesso a indicare un m. che ha assunto una validità molto generale ed è accettato come il migliore possibile. Un esempio molto interessante è quello del modello solare standard, uno dei m. più completi dell'astronomia. Esso è fondato essenzialmente su poche assunzioni di base riguardanti l'equilibrio idrostatico (il bilanciamento tra la pressione locale e l'attrazione gravitazionale): il trasferimento di energia avviene tramite fenomeni di radiazione, conduzione, convezione e perdite di neutrini. Le reazioni termonucleari sono le uniche fonti di produzione di energia della stella, mediante la fusione di nuclei di idrogeno in elio. Tutte le assunzioni sono formalizzate matematicamente in equazioni che contengono i parametri della stella; si possono così calcolare, per es., l'evoluzione temporale della luminosità solare o il flusso dei neutrini prodotti dalle reazioni termonucleari. Le misurazioni effettuate sulle grandezze osservabili della stella sono in buon accordo con le previsioni ottenute dal m.; anche il flusso dei neutrini solari, che per lungo tempo ha rappresentato un problema, in quanto il valore misurato era inferiore a quello previsto, sembra, nei primi anni del 21° sec., compreso in termini del fenomeno delle oscillazioni di neutrino.
Con modello teorico si indica, a volte in contrapposizione a modello euristico, una teoria generalmente accettata: un esempio è il Modello Standard della fisica delle particelle elementari, che indica l'insieme delle tre teorie che spiegano i fenomeni subnucleari, la teoria unificata delle interazioni elettromagnetiche e deboli e la teoria delle interazioni forti (cromodinamica quantistica). Storicamente, il termine modello fa riferimento alla teoria unificata elettrodebole proposta nel 1963 da S. Glashow e successivamente modificato da S. Weinberg nel 1967 e indipendentemente da A. Salam nel 1968 con l'introduzione del concetto di rottura spontanea della simmetria mediante il meccanismo di Higgs; l'aggettivo 'standard' indica che la teoria è presa come contesto di riferimento, per quanto bene interpreta (anche quantitativamente) la fisica delle particelle elementari. La teoria è così sofisticata che è risultata non poter essere facilmente falsificabile anche se è una teoria operativa che permette di calcolare con metodi di approssimazione di tipo perturbativo, il cui errore è controllabile, il valore delle grandezze fisiche di interesse. La comunità dei fisici delle particelle non la considera però la teoria definitiva: ci sono infatti troppi parametri che devono essere fissati dai dati sperimentali (che quindi non sono spiegati); inoltre, l'interazione gravitazionale non è presa in considerazione e anzi sembra molto difficile che possa essere inglobata nello schema teorico su cui il m. si fonda. Il Modello Standard è infatti basato su teorie di campo relativistiche dette teorie di gauge, per via di una particolare proprietà di invarianza che possiedono e che è stata mutuata dall'elettrodinamica quantistica; queste teorie nascono dall'unione dei principi della teoria della relatività ristretta e della teoria dei campi quantizzati. Le particelle elementari sono viste come eccitazioni quantistiche dei campi a loro associati che si propagano nello spazio-tempo quadridimensionale interagendo localmente tra loro attraverso altri campi fondamentali: il fotone, i bosoni vettori W e Z e il bosone scalare H, detto bosone di Higgs. Quest'ultimo è l'unica particella elementare prevista dalla teoria ma non ancora scoperta sperimentalmente. Compito principale del grande collisore tra adroni LHC (Large Hadron Collider), che è in fase avanzata di costruzione al CERN di Ginevra ed entrerà in funzione nel 2007, è quello di individuare questa particella e determinarne la massa verificando sperimentalmente le numerose altre proprietà che sono previste dal Modello Standard. Altri tipici esempi di m. teorici in fisica si ritrovano nella cosmologia e nell'evoluzione dell'Universo.
Anche se è stata più volte sottolineata l'importanza del calcolo numerico nello sviluppo moderno dei m., non bisogna sottovalutare l'importanza nelle scienze dei m. esattamente risolubili, nei quali i problemi posti sono risolubili senza richiedere l'uso del calcolo numerico. La loro importanza come strumento concettuale è fondamentale, in quanto direttamente connessa alla struttura del metodo scientifico che tende a spiegare il comportamento di fenomeni complessi in analogia con i comportamenti inferiti dalle proprietà di sistemi ideali conosciuti, che quindi diventano dei m. paradigmatici, come, per es., l'oscillatore armonico in fisica o la distribuzione o curva gaussiana in statistica. In meccanica statistica classica alcuni m. risolubili, come, per es., il modello di Ising bidimensionale, hanno avuto un ruolo fondamentale per chiarire il fenomeno delle transizioni di fase, costituendo dei sistemi di confronto importanti per i risultati ottenuti mediante metodi numerici sviluppati in seguito per studiare la natura dei punti critici. In questo ambito, un m. è risolubile se si conosce un potenziale termodinamico che sia in generale effettivamente calcolabile come integrale di funzioni elementari. Anche in questi casi, per calcolare le grandezze fisiche di interesse è necessario comunque ricorrere al calcolo numerico.
Modelli statistici
Molto spesso si ricorre a un m. matematico allo scopo di avere un metodo oggettivo per analizzare proprietà che fino a tempi recenti potevano essere solamente inferite in base all'esperienza dell'analista. Per fissare le idee si potrebbe pensare alla modellazione delle serie temporali in ambito statistico, dette a volte anche serie storiche, ossia le misurazioni delle condizioni climatiche di una certa regione, il valore di un pacchetto azionario in funzione del tempo, un segnale elettrico prodotto da uno strumento elettroacustico e così via. Nel caso delle serie temporali, il fenomeno è riconducibile a una successione ordinata di numeri che costituiscono l'andamento temporale; il fenomeno è di regola formalizzato nell'analisi moderna attraverso un m. matematico di tipo statistico costruito in modo tale da rappresentarlo adeguatamente e quindi spiegare la serie, in termini di relazioni matematiche e proprietà probabilistiche del modello.
Nell'ambito dell'analisi delle serie temporali, un m. è costituito quindi da equazioni che mettono in relazione tra loro i valori contemporanei o ritardati del processo, allo scopo di descrivere l'andamento nel tempo del fenomeno considerato. I m. coinvolgono anche processi aleatori, spesso ad andamento totalmente casuale, detto di rumore bianco.
Un m. di questo tipo non ha lo scopo di riprodurre esattamente la fenomenologia della serie, ma deve essere focalizzato solo su alcuni aspetti ritenuti importanti. In questo caso è essenziale che le osservazioni del comportamento della serie contribuiscano a determinare sufficientemente le caratteristiche del m. e le inevitabili semplificazioni, in modo da condurre a una struttura formale che sia utilizzabile nella pratica con proprietà facilmente interpretabili e con chiare procedure matematiche riconducibili ad algoritmi agevolmente calcolabili.
In molti sviluppi recenti si preferisce cercare di perdere di vista completamente la situazione fenomenologica per costruire un m. matematico della serie temporale che sia fondato su assunzioni analitiche basate il più possibile sul comportamento dei dati e giudicato solamente per i risultati di maggior o minor rappresentatività dei dati tramite criteri oggettivi; in statistica i m. ispirati a questa concezione sono indicati come modelli rappresentativi. I m. moderni di serie temporali si avvalgono pienamente degli sviluppi più recenti del calcolo delle probabilità, della teoria delle decisioni in situazioni di incertezza e delle tecniche dell'inferenza statistica (per es., modelli ARIMA).
È da notare che, anche con queste tecniche, non è comunque sempre vero che si possa trovare un unico m. ottimale (secondo certi criteri); accade spesso, infatti, che ci siano più m. in competizione e la scelta di quale sia il migliore è molte volte difficile.
Recentemente si è cercato di allargare la tipologia dei m. adottati per le serie temporali a m. di tipo caotico, in cui la spiegazione della serie è essenzialmente deterministica ma basata su strutture matematiche che manifestano comportamenti imprevedibili, a causa delle forti non linearità presenti. Da un punto di vista concettuale l'uso di m. caotici potrebbe essere visto come un passo in avanti rispetto all'ipotesi semplificatrice di giustificare il comportamento fluttuante della serie temporale con variabili stocastiche, ma la realizzazione pratica di m. competitivi non si è rivelata facile.
Lo studio delle dinamiche caotiche su m. di fisica fu iniziato da H. Poicaré alla fine del 19° sec., ma i progressi in questo settore si sono avuti con il rapido sviluppo del calcolo numerico e con le applicazioni a m. di meccanica statistica. La scoperta che anche sistemi piuttosto semplici, a causa della dinamica non lineare possono manifestare comportamenti poco intuitivi ha notevoli implicazioni concettuali in fisica. L'applicazione a m. adatti per problemi economici e sociali di queste idee è ancora in fase di sperimentazione ed è oggetto di studio spesso di tipo interdisciplinare.
Un altro interessante sviluppo nella modellazione delle serie temporali è la possibile applicazione di m. basati su reti neurali, che potenzialmente possono spiegare anche comportamenti non lineari. Per ora non c'è una vera evidenza di una maggiore capacità previsionale di questi approcci, anche se si sono trovati dei legami tra m. regressivi classici a somma mobile e alcuni tipi di reti neurali.
È singolare che la tendenza qui illustrata verso un'oggettivazione forzata basata sull'uso asettico della matematica applicata è complementare alla posizione dello scienziato che voglia interpretare e spiegare la natura. In tal caso infatti la modellazione è basata sulle leggi fisiche che si pensa abbiano un ruolo rilevante nel fenomeno in esame: se i risultati ottenuti in tal modo corrispondono alle misure sperimentali allora si è avuto successo nella spiegazione. Questo tipo di impostazione è anche seguito in ambito statistico, dove è tipica dei m. detti interpretativi, per contrasto con quelli rappresentativi già ricordati. Per es., nei m. di tendenza (trend models) la serie è spiegata dall'unione di componenti deterministiche, per rappresentare la tendenza mostrata dai dati, e componenti di tipo casuale, per modellare le variazioni accidentali (per es., stagionali, nel caso di serie climatiche); i modelli econometrici hanno lo scopo di spiegare un aggregato macroeconomico in funzione dei valori temporali di altri aggregati. In economia sono piuttosto diffusi m. detti strutturali, che nascono da questa tipologia di modellazione.
Il contrasto tra questi due tipi di impostazioni piuttosto distanti tra loro si può ritrovare in ciò che si è verificato in fisica all'inizio del 20° sec. con lo studio del corpo nero da parte di M. Planck. Per spiegare i dati a bassa temperatura che si stavano osservando, Planck costruì una formula matematica che con una piccola forzatura può essere considerata simile a un m. matematico, nel senso usato per le serie temporali. In poco tempo però Planck stesso si rese conto che la sua formula non era in grado di spiegare il fenomeno, perché non poteva essere ricavata applicando le leggi della meccanica statistica conosciute all'epoca, ossia quelle della meccanica statistica classica, ma aveva bisogno di supporre la quantizzazione dei valori di energia permessi dal sistema, osservazione che diede il via al processo di costruzione della teoria quantistica moderna.
bibliografia
D.J. Amit, Modelling brain functions, Oxford 1989 (trad. it. Padova 1995).
B. Greene, The elegant universe. Superstrings, hidden dimensions, and the quest for the ultimate theory, New York 1999 (trad. it. Torino 2002).
R.H. Shumway, D.S. Stoffer, Time series analysis and its applications, New York 2000.
E.B. Dagum, Analisi delle serie storiche. Modellistica, previsione e scomposizione, Milano 2002.
A. Vulpiani, Determinismo e caos, Roma 2005.