Simulazione, modelli di
Secondo l'etimo latino, 'simulare' sta per 'render simile', come vuole la sua derivazione da similis; e tuttavia il verbo ha assunto differenti accezioni: oltre a quella dell''imitare', nel senso di 'riprodurre', di 'prender l'aspetto di', quella, opposta, del 'fingere', nel senso di 'ingannare', di 'dare a intendere'. In questo significato di falsa apparenza ricorre, nel parlare comune, il sostantivo 'simulazione' (da simulatio), per esprimere, nella sfera dei rapporti interpersonali, e quindi anche nel lessico giuridico, l'atto del nascondere il vero, non del rappresentarlo; ammette infatti sinonimi quali 'falsificazione', 'infingimento', 'menzogna'.
Nella scienza, e nella tecnica, il vocabolo ritrova il suo originario valore semantico, per designare la rappresentazione, attraverso modelli, di fenomeni, di sistemi, di processi, così da sceverarne i costituenti e studiarne il reagire a condizioni artificialmente preordinate. Eppure, un modello è anche 'finzione' perché è astrazione, riduzione, artefatto: artefatto razionale. 'Modello' (dal latino volgare modellus, diminutivo di modulus, a sua volta diminutivo di modus, misura) è un costrutto, reale o virtuale, che riproduce le componenti strutturali essenziali di un 'sistema', inteso come unità funzionale di parti interconnesse.
La simulazione su un modello è un'esplicazione dell'asserzione ipotetica "se (antecedente), allora (conseguente)". È deduzione, dal modello, dei 'conseguenti' quando ad esso siano imposti certi 'antecedenti'. Senza simulazioni non sarebbe stato possibile dare leggi a tutta una realtà naturale: i corpi indeformabili della meccanica classica, i moti senza attrito della dinamica, i gas perfetti della chimica-fisica non sono realtà: sono idealizzazioni. Senza modelli, siano essi costituiti da leve e ruote o da complesse equazioni, non può darsi una immagine razionale della realtà, né possono trarsi leggi quantitative. E infatti la scienza è avanzata attraverso un succedersi di immagini di una medesima realtà: ne sono esempi, fra i più noti, i diversi paradigmi interpretativi del sistema solare, dai modelli geocentrici a quello eliocentrico, o la diversa lettura geometrica di quest'ultimo, e dell'intero universo, nello spazio tridimensionale e nello spazio-tempo quadridimensionale.
Scienza non è rappresentazione dei fenomeni nell'interezza del loro apparire: è riduzione analogica, è simulazione modellistica. La pallina che Galileo fa rotolare su un asse cavo inclinato - un modello - esemplifica l'inerzia nel "cader de' corpi" e prefigura il grave ideale che cade in un vuoto ideale (un vuoto soltanto pensato, in quelle esperienze). Questo è il significato euristico dell'esperimento galileiano, il canone metodologico che ha avviato alla scienza moderna; non è ripetizione della realtà fenomenica: è realtà resa modello, fatto ridotto ad artefatto. Non l'evento concreto, nella sua contingente unicità, bensì una sua figurazione emblematica: una simulazione.La rappresentazione per modelli non è limitata alla ricerca sperimentale in senso proprio. Attiene, più in generale, a tutte le scienze di osservazione, a cominciare dall'astronomia. Come il modello dinamico della pallina che scende simula - nell'esperimento galileiano - la caduta libera dei gravi, svelando che la distanza coperta in un intervallo di tempo è "doppiamente proporzionale" ad esso, così i pianeti che ruotano intorno al Sole diventano - nel sistema di Newton - punti euclidei che si attraggono con una forza direttamente proporzionale al prodotto delle loro masse (immaginarie) e inversamente proporzionale al quadrato del raggio che li congiunge: relazioni fisiche tra grandezze reali ridotte a relazioni matematiche tra entità geometriche immateriali. Una grandiosa astrazione, che riduce a una medesima legge formale l'orbita di un pianeta e la traiettoria di un sasso lanciato, il moto della Luna e la caduta di una mela.
Analogie, similitudini; quando non metafore. Il 'come se' che ha segnato momenti significativi del sapere scientifico, dando un'impronta di metodo a tante scienze della natura, a cominciare dalle scienze della vita: ora trovando corrispondenze tra strutture organiche di forme viventi diverse (analogie che si possono far risalire al miracolo greco: "le piume stanno all'uccello come le squame al pesce" - scriveva Aristotele), ora istituendo corrispondenze tra strutture organiche e strutture non organiche. Ecco, nella fisiologia secentesca, il cuore come pompa e la circolazione del sangue come circuito fluido-dinamico (Harvey, Borelli) nella tradizione cartesiana delle corrispondenze tra organismo animale e congegno meccanico (isomorfismi audaci, che risalgono a Empedocle e sembrano un poco ritornare in certe allegorie cibernetiche di metà Novecento); ecco, ancora, nell'elettrologia degli inizi, la corrente elettrica intesa come un corso d'acqua, e perciò chiamata "torrente". Non meno rilevanti le analogie alle origini della teoria cinetica (Clausius, Maxwell): le molecole gassose come palle da biliardo, che si urtano vicendevolmente ed elasticamente; o quelle alle origini della fisica subatomica: il modello planetario dell'atomo (Bohr), a imitazione formale del sistema solare (elettroni orbitanti attorno al nucleo come pianeti attorno alla propria stella; questi attratti dalla forza gravitazionale, quelli avvinti dal segno opposto delle rispettive cariche elettriche). Le scienze sociali hanno anch'esse preso a prestito modelli di altre scienze, dalle immagini meccanicistiche del sistema economico (Walras, Pareto) a quelle organicistiche (Marshall), alle teorizzazioni di Irving Fisher (ispirate alla metodologia fisica di J.W. Gibbs), a certe imitazioni bionaturalistiche della sociologia di un Comte, di uno Spencer.
Ancora e sempre analogie, ancora isomorfismi, tanto utili quanto convenzionali: gli atomi non sono sistemi solari, le molecole di un gas non sono palle da biliardo, un flusso di elettroni liberi non è una caduta d'acqua. E un sistema sociale non è una macchinetta automatica. Tuttavia il modello dell''equilibrio economico generale' (Walras) può valere come schema teorico di riferimento nell'indagine su una realtà che in equilibrio non è mai; e così il modello demografico di 'popolazione stabile' (Lotka) nello studio delle componenti del ricambio di comunità umane di fatto non stabili; e così ancora il modello dell''equilibrio allelico e genotipico' (Hardy, Weinberg), nell'analisi dei fattori dinamici di gruppi omospecifici sempre soggetti a evolvere. (È sulla falsariga di questo fondamentale modello - una relazione assiomatica tra probabilità - che si compiono esperimenti virtuali sulle conseguenze evolutive, nelle popolazioni, di pressioni selettive ambientali simulate o di fenomeni erratici di deriva genetica dovuti alla casualità divergente).Il modello, dunque, come 'sostituto analogico' di una realtà, di un sistema. E, quanto più è astratto e formale, tanto più tende ad assumere una valenza transdisciplinare, a superare gli steccati tra le diverse scienze. Un medesimo modello può infatti raffigurare realtà fenomeniche diverse e lontane. Così la 'funzione logistica' (Verhulst), presto uscita dai confini della biodemografia, così le equazioni degli 'equilibri interspecifici' (Volterra), dalla modellistica ecologica alla teoria dei sistemi oscillanti e ad altro ancora; così i modelli dei 'sistemi lontani dall'equilibrio' (Prigogine), dalla chimica all'economia; così i modelli della 'divergenza caotica' (Poincaré, Lorenz, Ruelle), dall'astronomia alla meteorologia, ai sistemi sociali. Così, ancora, il 'modello normale', che prende nome da Gauss, affermatosi in astronomia come 'distribuzione degli errori strumentali' e passato attraverso tutte le scienze positive, della natura e dell'uomo, quale espressione asintotica della legge di variabilità di fenomeni - fisici, biologici, sociali - dovuti al concorso additivo di innumerevoli fattori indipendenti, comunque variabili.
Se l'esperimento scientifico non è riproduzione di un fenomeno, bensì di ciò che ne resta quand'esso sia spogliato di tutto quanto lo rende singolare e irripetibile, dando luogo a un fenomeno tipo (l'artefatto sperimentale), la simulazione attraverso modelli si traduce nell'isolare un sistema in modo che le circostanze estranee a quelle di cui si indaga la portata siano rese ininfluenti. "La scienza - ha scritto Popper - si può definire come l'arte della ipersemplificazione sistematica, l'arte del discernere ciò che si può proficuamente tralasciare". Nessun modello, infatti, può, e deve, ricopiare tutte le componenti del sistema reale che pure riflette: deve invece ridurre il sistema, le sue variabili, i suoi gradi di libertà. Da questa scelta, che risponde a precise ipotesi, a calcolate astrazioni, dipende la perspicuità del modello, che, come ogni esperimento, procede per tentativi, per approssimazioni. Ne sono esempi, fra i tanti, i modelli succedutisi nelle molteplici interpretazioni delle particelle elementari, dell'eredità biologica, dei cicli economici.
I modelli sono dunque strumenti dell'esperimento come della simulazione, e le simulazioni su modelli realizzano una tendenziale unità metodologica tra scienze della natura e scienze dell'uomo, sebbene in queste ultime sia spesso riduttivo e azzardato isolare fenomeni reali e postularne l'indipendenza dalle condizioni 'al contorno'. Astrarre sistemi economico-sociali, per accertarne la tendenza spontanea verso uno stato di equilibrio, è meno immediato dell'immaginare sistemi termodinamici chiusi all'interno dei quali valga la legge dell'aumento dell'entropia. Nel sociale, dove la 'variabile umana', con le sue discontinuità improvvise, rende tutto più incerto e più instabile, astrazioni del tipo di quelle che hanno reso possibile teorizzare i fenomeni del calore e del funzionamento delle macchine termiche, ipotizzando impianti ideali privi di dispersione e di attriti, a energia inalterata durante il ciclo del lavoro, rischiano di stravolgere i fenomeni oggetto di indagine. Eppure, in questa funzione vicariante dell'esperimento vero e proprio, la simulazione rende in certa misura sperimentali le scienze sociali: si schematizza un sistema reale, se ne identificano le variabili strutturali, si provocano eventi a imitazione di realtà possibili e si inferiscono le reazioni del sistema, in obbedienza alle regole codificate dal modello. È sempre il canone ipotetico-deduttivo della scienza moderna. La manipolazione del modello, delle sue variabili interne, dei parametri che ne riassumono le proprietà formali, attiene a tutta una fenomenologia economica. Smontare e rimontare i 'pezzi' del modello è come scomporre il sistema di riferimento nei suoi costituenti, per trarne opportune combinazioni alternative, dando luogo a una sorta di empiria immaginaria e multiversa.
E qui un modello può assumere una funzione più che descrittiva: interpretativa, ermeneutica; e può talora avere un ruolo costruttivo di una teoria. Ma più spesso, in econometria ad esempio, la ragione di un modello è limitata alla sua attitudine a prevedere il comportamento immediato di un sistema. In quanto non sia pura mimesi, semplice imitazione, un modello riflette pur sempre un'ipotesi, che si traduce in scelte: delle variabili, delle interazioni. Scelte ispirate dalla fantasia e guidate dallo spirito critico. Ridurre un sistema reale a un'immagine modellistica, ad esso isomorfa, è intuizione e invenzione; e non deve sottrarsi mai, quali che siano le finalità conoscitive od operative, al confronto con un contesto reale, con l'esperienza dei fatti. "Arte intuitiva" - l'ha definita Shannon.Scienza è sempre confronto tra schema teorico e dato empirico, tra una realtà pensata e una realtà accertata; è "paragone - sono parole di Einstein - tra ciò che la mente umana ha concepito e ciò che ha osservato". E quanto più il modello (il "concepito") coglie la logica interna di un sistema reale (l'"osservato") attraverso le interdipendenze funzionali tra i costituenti, tanto più assume valore euristico entro un proprio dominio di validità, e può addirittura prefigurare deduttivamente fenomeni non ancora conosciuti. Così, il modello matematico dell'universo newtoniano-laplaciano ha consentito di scoprire, a tavolino, pianeti del sistema solare non ancora apparsi all'osservazione telescopica; e tuttavia non ha potuto dar ragione di eventi (anomalie, in quel dominio), che un diverso e più ampio modello teorico, quello relativistico einsteiniano (all'interno del quale il precedente sopravvive come schema limite), avrebbe saputo comprendere: dalla gravità come attrazione tra corpi alla gravità come modificazione geometrica dello spazio indotta dalla presenza di materia. Dunque, modelli teorici diversi in quanto espressione di diversi canoni di lettura. Allo stesso modo, del micromondo quantico si danno un'immagine ondulatoria e un'immagine corpuscolare; e, in termodinamica, una nube di gas avente una certa temperatura diventa, nella dimensione particellare, uno sciame di molecole dotato di una certa energia cinetica media.
In campo tecnologico, i modelli possono essere apparecchiature concrete, in scala, a imitazione di impianti, da costruire o da controllare. Modelli capaci di dare coerenti 'risposte' a specifiche 'domande'. Le domande sono azioni alle quali il sistema può essere assoggettato, le risposte sono le reazioni del sistema a tali stimoli, mediate dal modello. Sempre più spesso, tuttavia, si tende a ricorrere, anche in tali ambiti, a modelli formali, per simulare al calcolatore le particolari strutture reali: ad esempio, un impianto nucleare, un aereo in volo, una stratificazione tettonica, o, in altro contesto, un mercato finanziario; in generale, un sistema riducibile ad alcune variabili essenziali: le coordinate del modello. Ciò che consente, se il sistema è dinamico, una fittizia accelerazione nel tempo degli esiti del modello, per esaltarne le tendenze in fieri e precorrerne il possibile divenire. Simulando cambiamenti nello stato di quei sistemi - rispettivamente: una fuga radioattiva, una perdita di portanza, un movimento sismico, ovvero una caduta del tasso di interesse - se ne possono valutare gli effetti dinamici in tutte le alternative rilevanti, sperimentando al calcolatore. Dall'ingegneria, la simulazione al calcolatore si è estesa alle strategie del management, alla macroeconomia; e si è sviluppato un florilegio di modelli di simulazione intesi a prefigurare le conseguenze economiche e sociali delle decisioni politico-economiche. Il fine è il medesimo: prefigurare, attraverso il modello, le reazioni di un sistema reale a date condizioni 'sperimentali'.
L'efficacia di una simulazione dipende dal modello, dal suo evincere le proprietà del sistema, includendo le variabili essenziali ed escludendo quelle inessenziali. Tutto sta nel saper distinguere l'essenziale dall'inessenziale. E se un'inclusione impropria può inutilmente complicare il modello, un'esclusione impropria può comprometterlo irrimediabilmente. Di più: l'inessenziale può sempre rivelarsi essenziale. Anzitutto negli eventi umani, dove è più difficile postulare invarianze. "La 'natura umana', come dato immutabile, separato dalla storia, non esiste" - ha scritto Paolo Sylos Labini.
Nella struttura del modello risiede il contenuto euristico di un esperimento, di una simulazione. Come l'esperimento, la simulazione è osservazione e astrazione; è riduzione di un fenomeno ai suoi 'invarianti', ricomposizione di questi in un disegno concettuale. Un traslato che è, ad un tempo, premessa e limite di conoscenza. Le inferenze del pensiero scientifico non operano più sul reale, bensì sui simboli della traduzione convenzionale che se ne è data: un sistema astratto di relazioni tra entità simbolizzate. Di questa astrazione sono partecipi tutte le scienze positive, sulle orme della fisica, la cui immagine della realtà - ha scritto Max Planck (1929) - "si allontana sempre più dal mondo sensibile, smarrisce sempre più il suo carattere intuitivo a tinta originariamente antropomorfa, elimina sempre più le sensazioni e si perde sempre più nell'astratto, in quanto le operazioni matematiche puramente formali acquisiscono una importanza sempre maggiore e le differenze qualitative vengono sempre più ricondotte a differenze quantitative". E tuttavia Planck non si nascondeva i rischi di una assiomatizzazione esasperata delle scienze positive. "Qui si cela - soggiungeva - il grave pericolo della unilateralità: il pericolo che l'immagine fisica del mondo perda il suo significato e degeneri in un formalismo privo di contenuto".
È il pericolo di tutte le formalizzazioni intese come fine e non come mezzo, come conoscenza in sé e non come strumento di conoscenza. Anche di certe modellizzazioni matematico-statistiche oggi diffuse nelle scienze umane, che sembrano evocare il rituale oscuro dell'aruspice piuttosto che il metodo critico dello scienziato: il metodo dell'ipotesi e della prova. Un pericolo da tempo avvertito, e proprio dai grandi fondatori del pensiero scientifico. Ad esempio da Ludwig Boltzmann, che pure aveva dato i fondamenti teoretico-statistici della termodinamica arditamente formalizzando. "Può accadere - scriveva (1905) - che il matematico, sempre impegnato con le equazioni, resti abbagliato dalla loro perfezione interna e finisca per credere che le loro reciproche relazioni siano ciò che realmente esiste". Ed è significativo che uno dei più riconosciuti precursori della modellistica econometrica, Wassily Leontiev (1982) abbia denunciato la futilità di certo baloccarsi nell'"adattamento di funzioni algebriche di qualunque forma possibile a un medesimo insieme di dati senza la capacità di avanzare una qualsiasi spiegazione della struttura e della dinamica di un concreto sistema economico". Del resto, Keynes (1921) aveva bollato come "ciarlataneria quantitativa" certa pseudomatematica compiaciuta della propria oscurità.La modellizzazione di un sistema economico è premessa di conoscenza razionale e di sperimentabilità virtuale. Si tratta di identificare le variabili del sistema e le loro interrelazioni (le 'regole del gioco') così da dedurne il comportamento in risposta a condizioni volta a volta imposte al modello: questo può essere la traduzione di una teoria, più che di una realtà empirica, anche per l'insufficienza di dati quantitativi; ma la base empirica, il dato fattuale di riferimento, è irrinunciabile.
È d'uso classificare i modelli in a) 'iconici'; b) 'analogici'; c) 'simbolici', intendendo rispettivamente: a) la riproduzione, secondo opportune proporzioni, di un sistema (un plastico architettonico, un planetario, la 'scala a chiocciola' del DNA); b) la trasposizione di un sistema nei termini di un altro sistema (il modello meccanico-cinetico del calore, il modello idrodinamico dell'elettricità), oppure le analogie tra riflessione di onde sonore e riflessione di onde luminose, che hanno un remoto antecedente in Aristotele, al quale si deve un uso razionale dell'analogia, nel significato etimologico della parola. (In greco, ἀναλογία indicava somiglianza e anche proporzione, intesa come uguaglianza di rapporti); c) la traduzione logico-formale dei costituenti essenziali di un sistema in uno schema matematico astratto, così da poter variare a piacere, al calcolatore, i valori dei parametri del modello. È ciò che si intende per simulazione, nel suo significato più specifico e più attuale. In quanto esplica il canone ipotetico-deduttivo delle scienze fisiche, questa simulazione è sperimentazione su modelli, intesi come rappresentazioni formali di un sistema reale, naturale o sociale, resa possibile dagli strumenti di calcolo automatico, dalla loro capacità di dare rapide risposte a una pluralità alternativa di domande. Tutto sta nel porre le domande giuste.I modelli simbolici si distinguono, a seconda che i sistemi di riferimento siano 'statici' o 'dinamici' (essendo esclusa o, rispettivamente, inclusa la variabile 'tempo'), e ancora in 'lineari' e 'non lineari' (in ragione del tipo e del grado delle funzioni matematiche coinvolte), e, infine, in 'deterministici' e 'stocastici': questi ultimi contengono grandezze da intendersi come variabili aleatorie con assegnate distribuzioni di probabilità approssimate campionando 'numeri casuali', che possono essere generati dal calcolatore stesso con procedimenti deterministici (e per ciò detti, da taluno, 'numeri pseudocasuali'). I modelli stocastici sono quindi aperti a una pluralità disgiuntiva di risultati, affidati alla casualità.
Protagonista della simulazione su modelli formali è dunque il calcolatore: laboratorio virtuale di esperimenti per mentem, in cui l'immaginazione, alleggerita del peso dei calcoli, resta libera di cimentarsi in tutti gli sviluppi ipotetico-deduttivi impliciti nel modello. È stata appunto la facilità di trattare grandi quantità di dati, variando in tutti i modi voluti le condizioni di un sistema e traendone con immediatezza una varietà di soluzioni, ad aprire la via a questo modo di indagare. Il calcolatore è, a sua volta, una pur vaga simulazione del cervello umano. Dalle delineazioni cibernetiche di Norbert Wiener (1947) e dai contributi di Shannon e Weaver (1949) alla teoria matematica dell'informazione, come trasmissione di messaggi, si sono avviate suggestive riduzioni analogiche della complessità delle connessioni sinaptiche.
Il calcolatore ha aperto nuovi orizzonti alle simulazioni numeriche su modelli di sistemi complessi, via via scomposti nei loro costituenti essenziali e quindi ricomposti nelle reciproche interconnessioni. Così avviene, ad esempio, in meteorologia, dove, grazie agli elaboratori 'in parallelo', le previsioni (seppure di non lunga gittata per sottrarsi agli effetti della divergenza caotica: v. Previsione) possono avvalersi di modelli matematici di simulazione impostati come sistemi di equazioni alle derivate parziali e risolti per approssimazioni numeriche.
Nella ricerca scientifica e nella ricerca operativa, 'simulazione' è ormai divenuta espressione sinonima di approssimazione numerica, al calcolatore, di sistemi dinamici complessi attraverso 'campioni probabilistici'. La teoria del campionamento casuale è appunto il fondamento statistico del più noto e più usato criterio di simulazione mediante variabili casuali, il 'metodo Monte Carlo': un metodo di generazione di variabili aleatorie attraverso distribuzioni campionarie, ispirato ai teoremi della convergenza stocastica, sorto come strumento di indagine sul micromondo fisico e diffusosi poi a una grande varietà di contesti.
L'origine del metodo viene datata al 1944, nell'ambito di un progetto di ricerca sull'atomo (Los Alamos, New Mexico) finalizzato all'impiego bellico dell'energia liberata dalla scissione dei protoni avvinti nel nucleo (la 'bomba atomica'), ma si può trovare un suggestivo antecedente nell'approssimazione di leggi di distribuzioni campionarie compiuta dal chimico William Sealy Gosset (si firmava Student) nei primi anni del XX secolo. Negli esperimenti sul nucleo atomico si trattava di simulare il diffondersi di neutroni, per traiettorie casuali, in un mezzo fissile e di approssimare per via numerica la soluzione di equazioni integro-differenziali pressoché intrattabili per via analitica.
Si introdusse allora un criterio di calcolo statistico-probabilistico e - per suggerimento di uno dei suoi ideatori, Johann (John) von Neumann - lo si denominò metodo Monte Carlo, per evocare, con l'allusione al casinò, l'idea di un gioco di sorte, quale è appunto la simulazione attraverso sequenze di 'numeri casuali'. (Per convenzione, si dice casuale, o aleatoria, una successione di cifre da 0 a 9 - numerazione decimale - oppure da 0 a 1 - numerazione binaria - in cui non sia riconoscibile alcun algoritmo generatore: è la 'incomprimibilità algoritmica' secondo Kolmogorov e Chaitin; nota una di tali cifre, non è data alcuna regola per inferire la cifra che la segue: se la numerazione è a base decimale, quest'ultima non è prevedibile con una probabilità superiore a 1/10; se è binaria, con una probabilità superiore a 1/2).
Ulteriormente perfezionato da opportuni accorgimenti tecnici intesi a ridurre la varianza delle funzioni di stima, così da migliorarne l''efficienza', il metodo Monte Carlo si è diffuso, per analogie formali, in tanti settori della ricerca scientifica e della strategia decisionale, ossia in tutte le analisi di processi trattabili al calcolatore secondo leggi statistiche dedotte da campionamenti assimilabili a sorteggi ripetuti. Dall'ingegnoso criterio pionieristico di von Neumann, per generare numeri aleatori (iterazione delle cifre intere comprese fra un numero e il suo quadrato), il metodo si è sviluppato come procedimento per l'approssimazione numerica delle proprietà di insiemi attraverso le proprietà di sottoinsiemi casuali. Dunque, problemi di inferenza induttiva, di stima statistica: stima dei valori incogniti di parametri attraverso campioni probabilistici.
Il successo del metodo Monte Carlo è affidato alla rappresentatività statistica dei campioni, essendo ogni risultato uno dei tanti possibili, soggetti alle fluttuazioni statistiche: due o più simulazioni identicamente impostate danno quindi luogo, in generale, a risultati non coincidenti, per effetto della casualità immanente al procedimento: è il cosiddetto 'errore di campionamento', tanto più incombente quanto più i campioni sono piccoli. Grazie agli strumenti di calcolo automatico, il metodo ha giovato e giova anche alla soluzione di problemi di natura non stocastica: stocastica, ossia statistico-probabilistica, è tuttavia la trattazione dei problemi; ad esempio, la determinazione approssimata del valore di una costante. Sotto questo aspetto, si può riconoscere un celebre precedente in una esperienza che risale al XVIII secolo, a quando Buffon affidava agli esiti accidentali dei ripetuti lanci di un ago sopra un piano orizzontale attraversato dai tracciati di linee rette parallele (distanti tra loro di una lunghezza costante superiore a quella dell'ago) la misura della probabilità che l'ago, ricadendo, intersecasse una di tali rette: una procedura per approssimare empiricamente, mediante prove ripetute, il valore della costante π (il rapporto della lunghezza di una circonferenza a quella del proprio diametro). Il 'problema dell'ago di Buffon', entrato con questo nome nella storia del calcolo delle probabilità ('probabilità geometriche', nella fattispecie), anticipava i criteri per il calcolo approssimato, con metodi aleatori, di un integrale definito.
Le simulazioni attraverso modelli - dai macromodelli deterministici ai micromodelli stocastici - sono ormai di gran moda nelle scienze sociali, a cominciare da quelle di più forte assetto quantitativo. Ad esempio, in demografia, nell'indagine sui fenomeni della riproduzione umana per sceverare le variabili psico-ambientali da quelle più propriamente bio-demografiche e per misurare gli effetti delle componenti naturali e sociali del ricambio di una popolazione: si simula la storia di una coorte di donne dall'inizio della vita di coppia alla fine del periodo riproduttivo, assumendo il tempo come variabile discreta e ripartendo gli eventi in opportuni intervalli, in ragione delle probabilità generate dal calcolatore.
In ambito più strettamente socio-economico si è assistito, soprattutto nella seconda metà del XX secolo, a un florilegio di metodi strategici, fondati sulla 'teoria dei giochi' e sulla 'teoria delle decisioni' (v. von Neumann e Morgenstern, 1944). La teoria dei giochi è appunto simulazione, come lo è la teoria delle decisioni: si riducono a modello situazioni competitive con contrasto di interessi, si prefigurano scenari alternativi, si simulano le rispettive strategie razionali finalizzate.
Mentre i metodi di simulazione sorti nelle scienze fisiche si sono diffusi, poi, nelle scienze sociali, la teoria dei giochi, nella sua più comune accezione, ha compiuto il percorso inverso: dal paradigma dell'equilibrio economico (inteso come gara tra numerosi operatori, secondo certe regole) alle strategie adattative di specie viventi e ad altro ancora. Alle simulazioni possono essere affidate le scelte razionali di un'impresa, intesa come un sistema di componenti interrelate condizionato da una realtà circostante, di cui è a sua volta, in qualche misura, condizionante. Dato il sistema delle grandezze in gioco e specificate le variabili, si simulano e si confrontano soluzioni strategiche alternative, traendo dai vincoli interni e dal loro impatto sull'esterno le conseguenze effettuali di ogni scelta. Così, un'industria può razionalizzare il processo produttivo cercando, attraverso la migliore combinazione delle risorse umane e materiali, il volume della produzione che massimizza il risultato economico. A questo scopo, particolari vantaggi, anche algoritmici, presentano le simulazioni attraverso i metodi di programmazione lineare (essendo imposta alle variabili del modello la condizione di linearità) e di programmazione dinamica, in cui il sistema viene scomposto, variabile per variabile, in modo ricorsivo. Di metodi di simulazione nel senso premesso si avvalgono svariati corpi di dottrina, dalla 'teoria dei sistemi', dove a un modello s'impone di rappresentare lo 'spazio degli stati' compatibili con un sistema dato, alla 'ricerca operativa', dove la simulazione rappresenta la tecnica più usata per risolvere problemi di 'ottimizzazione' di impianti e di processi, sperimentando sul modello gli effetti di causalità indotte.
In quanto sintetizza e formalizza le relazioni tra le grandezze interne al sistema, un modello trae dalle variabili indipendenti in esso incluse una varietà alternativa di situazioni nelle variabili dipendenti. È allora possibile, attraverso il modello, prevedere le reazioni del sistema ai particolari fattori sperimentali, così da procedere, nel momento decisionale, a eventuali interventi scelti tra soluzioni strategiche alternative. In qualche modo, un modello empirico si rifà, esplicitamente o implicitamente, a un paradigma teorico. Anche in economia, che, nel suo farsi scienza, si è avvalsa di teorie formalizzate. E tuttavia, dalla 'teoria matematica dell'equilibrio economico generale' (Walras, 1874) - un modello meccanico e statico, che riduceva a equazioni simultanee le grandezze economiche del sistema - ai modelli del 'ciclo economico', ai più recenti modelli dinamici, si è reso evidente il limite di ogni schematizzazione formale di realtà economiche e sociali e della simulazione delle reazioni dinamiche di un sistema a condizioni provocate. Isolare alcune variabili e le loro interrelazioni espone sempre al rischio dell'interferenza di ciò che è esterno al modello su ciò che è interno: la caduta, ad esempio, della domanda di un bene 'esterno' può innescare reazioni che finiscono per ripercuotersi sul modello.In economia, e ovunque giochi il 'fattore umano', è ancor più vero che l'inessenziale può sempre diventare essenziale. Una cosa è sperimentare sul pendolo, alla Galileo, facendo astrazione dalle fasi lunari o dalla posizione della Terra rispetto al Sole (la legge dell'isocronismo pendolare non ne è apprezzabilmente turbata), altra cosa è circoscrivere un mercato finanziario, un settore produttivo, un aggregato sociale. Il principio ceteris paribus - l'invarianza di ciò che è estraneo al modello - va adottato con cautela. Né si può sempre evocare, nella fenomenologia sociale, il 'principio di permanenza delle leggi', come si fa, ad esempio, in astrofisica, nella risoluzione numerica, al calcolatore, delle centinaia di equazioni, una per ogni strato, di cui si compongono i 'modelli stellari', nell'assunto che all'interno (ignoto) di una stella valgano ancora le leggi fisiche di conservazione della massa e dell'energia.
Anche per questo, la modellizzazione matematica dei sistemi economici non sembra aver raggiunto un'autentica valenza euristica, e non solo perché i modelli irrigidiscono, talora, nell'irrealtà di schemi lineari componenti dinamiche non lineari. Ai diversi gradi di astrazione possibili, il modello deve saper comporre l'antitesi tra la sua prima ragion d'essere, che è la riduzione semplificante, e l'esigenza di trarre, dalla molteplicità delle variabili, il meccanismo del sistema, quale pluralità coordinata di elementi interagenti: una 'struttura' nel senso di Lévi-Strauss. Muovono di lì le istanze metodologiche che negli anni trenta hanno condotto all'econometria, sorta all'insegna della sintesi tra teoria e misura, tra il momento teorico-quantitativo e quello empirico-quantitativo.
I 'modelli econometrici' sono modelli stocastici intesi a ridurre una realtà economica all'interazione tra alcune variabili e a simulare in quei limiti, essendo data una espressione delle relazioni tra le variabili in termini di equazioni, più spesso non lineari nei parametri. In ragione del paradigma teorico, le variabili possono essere 'endogene', ossia interne al sistema (e perciò da spiegare attraverso il modello) ed 'esogene', ossia esterne al sistema. È soprattutto il metodo Monte Carlo, anche in econometria, a sopperire all'impraticabilità di sperimentazioni dirette e alla difficoltà della risoluzione analitica di complessi sistemi di equazioni.
La modellistica econometrica, cresciuta sui modelli multiequazionali addotti da Tinbergen (1939) e da Klein (1961), è assai discussa. Essa dovrebbe reggersi, infatti, su dati quantitativi sicuri e ispirarsi a una teoria, soprattutto nella scelta delle variabili. Dai modelli lineari 'di produzione' (Leontiev, 1941) - costituiti da variabili 'in uscita' (variabili output: i prodotti) come funzioni lineari di variabili 'in ingresso' (variabili input: i fattori della produzione) - ai modelli microeconomici per lo studio delle interazioni tra entità decisionali (Orcutt, 1957), la tecnica ha fatto grandi passi, sino a prendere la mano, talvolta, a chi non ne faccia un uso accorto. Tinbergen (v., 1952), distingue le variabili di un modello in 'variabili obiettivo' (targets) e 'variabili strumento' (instruments): rispettivamente, variabili dipendenti (tasso di inflazione, livello di occupazione, ritmo di crescita, ecc.) e variabili indipendenti (pressione fiscale, tasso di sconto, spesa pubblica, ecc.) su cui lo stratega, il politico, esercita per quanto possibile il proprio controllo in vista degli scopi da raggiungere. Nel modello, i ruoli possono scambiarsi in modo da prefigurare gli effetti delle scelte strategiche sui possibili scenari alternativi. Si possono così fissare i valori desiderati dei parametri di alcune variabili obiettivo e risolvere attraverso i valori dati alle variabili strumento le equazioni del modello. Si può altresì puntare, con Theil (1966), a una "funzione del benessere sociale" e articolare il modello in modo da trovare la combinazione dei parametri che la rende massima.
La costruzione di un modello di simulazione passa attraverso fasi non facilmente codificabili, se non per principî generali. Definiti gli obiettivi di una simulazione (le ipotesi di lavoro, le domande alle quali si vuol dare risposta), considerate le variabili esogene e le variabili endogene, in coerenza con lo schema teorico, si procede a saggiare l'aderenza tra empiria osservata (il sistema reale) ed empiria simulata (il modello formale). Non esistono regole fisse, criteri oggettivi (che non sia l'ovvio ma sempre attuale richiamo al principio occamiano dell'essenzialità, della parsimonia). Si stabilisce quindi il piano degli esperimenti da compiersi sul modello, facendo corrispondere i fattori sperimentali alle variabili esogene e gli esiti del modello alle variabili endogene. Infine, l'analisi dei risultati della simulazione: e qui ancora il momento della tecnica lascia spazio al momento dell'immaginazione. Tanto più se il modello di simulazione è stocastico e come tale espresso da una pluralità virtuale di esiti campionari. Un modello può assumere, per successivi aggiustamenti, gradi diversi di formalizzazione, e questa è pur sempre da mantenere entro limiti di trattabilità, per non rischiare di perdere in essenzialità senza acquistare in valore strategico. Ha scritto George Box (1976): "L'abilità di trovare modelli semplici ma evocativi è il tratto del grande scienziato, come la superelaborazione e la superparametrizzazione sono spesso il marchio della mediocrità". Un modello, ogni modello, si presta per sua natura a molteplici interpretazioni e ha tanto più valore strumentale quanto più è duttile; ma, quanto più è duttile, tanto più è affidato alla sensibilità di chi lo usa. E il pericolo di giocare all''apprendista stregone' è sempre incombente, ogni congettura essendo possibile, ogni simulazione ammessa. (Un dubbio che grava su certe fantasiose simulazioni di ecosistemi di 'vita artificiale', dall'incerto significato euristico).
Quando si eviti la tentazione di fare, di ogni metodo, ora un totem ora un tabù, quando certe tecniche non siano intese come meccanismi autopensanti, come regole sostitutive del ragionamento, le elaborazioni virtuali possono diventare strumenti ausiliari di conoscenza: gli strumenti di una metodologia transdisciplinare, che ha per principio logico il canone ipotetico-deduttivo, per ipotesi di lavoro il modello, per esperimento la simulazione, per laboratorio il calcolatore. (V. anche Econometria; Metodo e tecniche nelle scienze sociali; Previsione; Previsioni economiche).
Binder, K., Theory and technical aspects of Monte Carlo simulation, Berlin 1979.
Hammersley, I.N., Handscomb, D.C., Monte Carlo methods, London 1964.
Klein, L.R., Forecasting and policy evaluation using large scale econometric models: the state of the art, in Frontiers of quantitative economics (a cura di M.D. Intriligator), Amsterdam-London 1971, pp. 133-164.
Mihram, G.A., Simulation: statistical foundation and methodology, New York 1972.
Naylor, T.H., Policy simulation experiments with macroeconometric models: the state of the art, in Frontiers of quantitative economics (a cura di M.D. Intriligator), Amsterdam-London 1971, pp. 211-227.
Neumann, J. von, Various techniques used in connection with random digits, in "Applied mathematics", series 12, Washington 1951.
Neumann, J. von, Morgenstern, O., Theory of games and economic behavior, Princeton, N.J., 1944.
Rosa, R., Lezioni sul metodo Monte Carlo, Bologna 1992.
Shannon, R.E., System simulation: the art and the science, New York 1975.
Tinbergen, J., Einführung in die Ökonometrie, Wien-Stuttgart 1952.