Frontiere della ricerca economica
Premessa
La ricerca economica di ‘frontiera’ del 21° sec. è entrata nell’era postneoclassica. Sebbene la maggior parte dei libri di testo, specialmente quelli dei corsi postlaurea, faccia ancora riferimento alla teoria neoclassica ortodossa, ciò non riflette più realmente il modo di pensare di quegli economisti che lavorano alle frontiere della disciplina, compresi coloro che si collocano in seno al mainstream. Il dominio dell’ortodossia neoclassica è finito, e la disciplina ai suoi livelli più avanzati è alla ricerca di un’alternativa (Colander 2000).
Prima di proseguire, è però utile tracciare una distinzione fra i concetti di ortodossia, mainstream ed eterodossia. Secondo l’opinione di David C. Colander, Richard P.F. Holt e J. Barkley Rosser Jr (2004), l’ortodossia è una categoria intellettuale, una ben definita struttura di idee, ovvero un paradigma. L’ortodossia economica neoclassica si caratterizza in particolare per tre elementi fondamentali: razionalità, egoismo ed equilibrio. Il mainstream, d’altro canto, è una categoria sociologica, ovvero l’insieme delle figure preminenti in seno alla professione, che controllano i principali centri di potere, come università, istituti di ricerca, riviste eccetera. Infine, l’eterodossia è una categoria sia intellettuale sia sociologica, in quanto si oppone all’ortodossia dominante agendo, allo stesso tempo, ai margini della professione, lontana dai leader del mainstream e talvolta persino soggetta a persecuzioni o al rischio di soppressione. Gli economisti eterodossi hanno formato scuole, alcune delle quali abbastanza note e affermate (come il marxismo, l’istituzionalismo, la scuola postkeynesiana e quella austriaca), che a loro volta possono dar vita a ‘sotto-ortodossie’ e ‘sotto-mainstreams’, e che difendono le loro posizioni tramite riviste o all’interno di alcune università o istituti di ricerca, dove i loro seguaci si trovano talvolta in una posizione dominante e impongono le proprie idee agli ‘eretici’ locali.
Il punto cruciale è che durante periodi di sconvolgimento, quando la preesistente ortodossia è in crisi e sta per essere sostituita, il mainstream se ne allontana, impegnandosi nel tentativo di sostituirla senza necessariamente legarsi a un particolare paradigma. In tali periodi, anche se non viene esplicitamente riconosciuto, è possibile che la frontiera della professione venga a trovarsi vicina all’interfaccia fra mainstream ed eterodossia, prendendo idee provenienti da scuole o approcci eterodossi.
Anche se la maggior parte degli economisti non ammette che l’economia neoclassica sia finita, per coloro che lavorano alla frontiera ciò è senz’altro vero, sebbene non sia ancora emerso un nuovo paradigma in sostituzione di quello neoclassico. È probabilmente proprio questo fattore, congiuntamente alla forza d’inerzia dei libri di testo che cambiano lentamente, a creare in molti l’illusione che l’economia neoclassica non sia morta. Altra questione è però stabilire come e quando sia avvenuto il suo ‘decesso’. Colander (2000) si spinge forse troppo all’indietro quando sostiene che l’economia neoclassica era semplicemente l’economia marginalista che si affermò nei Paesi di lingua tedesca, francese e inglese negli anni Settanta del 19° sec. e culminò con la pubblicazione di Foundations of economic analysis di Paul A. Samuelson (1947). In questa prospettiva, tutti gli sviluppi successivi, come la teoria dei giochi non cooperativi di John F. Nash Jr (Non-cooperative games, «Annals of mathematics», 1951, 2, pp. 286-95) e la strettamente connessa teoria dell’equilibrio economico generale di Kenneth J. Arrow e Gérard Debreu (Existence of an equilibrium for a competitive economy, «Econometrica», 1954, 3, pp. 265-90), già rappresentano un allontanamento dal neoclassicismo. Questa posizione è certamente sostenibile, e forse più coerente dal punto di vista della storia del pensiero economico, ma per la maggior parte degli economisti gli sforzi di istituzioni come, per es., il MIT di coniugare l’originario marginalismo di Samuelson con i successivi sviluppi teorici hanno avuto successo. Secondo questa interpretazione, l’ortodossia neoclassica avrebbe raggiunto il suo apice fra gli anni Settanta e i primi anni Ottanta del 20° sec., quando in macroeconomia si affermarono i modelli microfondati della ‘nuova macroeconomia classica’, basati sull’ipotesi di agenti omogenei (o di un agente rappresentativo) che formulano aspettative razionali. Questi modelli assumono l’esistenza di un equilibrio generale di tipo walrasiano, e la loro soluzione riflette in generale la soluzione del problema microeconomico dell’agente rappresentativo, evitando così i problemi di aggregazione, posti già da John M. Keynes (The general theory of employment, interest, and money, 1936) con il ben noto problema della fallacia della composizione (il tutto non è la somma delle sue parti), e criticati in modo più profondo dalla stessa teoria dell’equilibrio economico generale, una linea di ricerca che in seguito ha dato vita a lavori che mostrano come, pur assumendo l’esistenza di un agente rappresentativo, il comportamento aggregato può non corrispondere a quello di tale agente (Kirman 1992).
In questa prospettiva interpretativa, il collasso dell’ortodossia dipende da una serie di eventi e shock esterni (che vanno dall’inattesa crisi borsistica del 1987 al collasso dell’Unione Sovietica e del suo impero, a una successiva fase di crisi finanziarie tra la fine degli anni Novanta e l’inizio del nuovo secolo), accompagnati da scoperte e innovazioni intellettuali. Fra queste scoperte, forse la più importante è stata il ripetuto realizzarsi di alcuni risultati dell’economia sperimentale che, a prescindere dai difficili problemi di aggregazione, hanno in ultima analisi messo in crisi l’idea di un agente individuale razionale e onnisciente.
Sebbene sia possibile effettuare molti esperimenti i cui risultati mettono in dubbio le ipotesi ortodosse di razionalità, egoismo ed equilibrio (o almeno le prime due), l’esperimento più sorprendente e influente è stato quello del gioco dell’ultimatum (ultimatum game) di Werner Güth, Rolf Schmittberger e di Bernd Schwarze (An experimental analysis of ultimatum bargaining, «Journal of economic behavior and organization», 1982, 3, pp. 367-88). Un agente ha a disposizione una certa somma e offre di dividerla con un altro agente. Il primo propone una certa suddivisione all’altro; se questi accetta, si procede, e ciascuno ottiene la somma stabilita. Se invece rifiuta (ultimatum), nessuno dei due agenti ottiene nulla. L’equilibrio di Nash per il primo agente consiste nell’offrire l’ammontare più piccolo possibile, mentre per il secondo consiste nell’accettazione di questa offerta minima. In realtà, è ormai assodato che in genere, in modo presumibilmente ‘irrazionale’, le offerte più basse sono rifiutate. Negli Stati Uniti, per es., l’offerta mediana si aggira intorno al 40% del totale, l’offerta modale è rappresentata da una spartizione equa, mentre la maggior parte delle offerte minori del 20% del totale sono rifiutate. Il tentativo di spiegare questi risultati è alla base di un enorme numero di ricerche, che hanno anche favorito l’ingresso in economia di altre discipline, come la psicologia.
Un altro filone di ricerca, che si è andato sviluppando a partire dall’ultimo scorcio del 20° sec., è quello dell’economia della complessità (Rosser 1999), che mette in evidenza l’esistenza di seri limiti alla capacità degli individui di valutare razionalmente l’ambiente economico. La combinazione di questi risultati ha promosso il revival del concetto di razionalità limitata, già proposto da Herbert A. Simon (Administrative behavior: a study of decision-making processes in administrative organization, 1957), ma ha anche dato vita a un trend più generale, che emerge decisamente a cavallo dei secc. 20° e 21°, vale a dire la crescente influenza esercitata sull’economia da diverse discipline, che vanno dalle altre scienze sociali, come la psicologia e la sociologia, alle scienze naturali, come la fisica, la biologia e le scienze informatiche. Ciò ha favorito lo sviluppo di approcci transdisciplinari a un livello più elevato che in passato.
Il presente saggio si concentrerà su tre temi principali. Innanzitutto si prenderanno in considerazione in modo più approfondito gli sviluppi dell’economia sperimentale e comportamentale, di cui la neuroeconomia (neuroeconomics) rappresenta una recente sotto-area particolarmente promettente. In secondo luogo si prenderanno in esame varie idee connesse alla teoria della complessità, come i modelli agent-based (modelli basati sull’interazione fra agenti), l’economia computazionale (computational economics) e l’econofisica (econophysics). Si esaminerà in particolare la possibilità che questi approcci divengano i successori della nuova macroeconomia classica. Saranno inoltre presi in considerazione gli approcci che più si ispirano alla biologia, e in particolare alle teorie dell’evoluzione e all’ecologia, indicando un possibile riemergere in nuove forme di alcuni filoni di economia istituzionalista, che possono interessare chi attualmente opera alla frontiera della ricerca. Infine, si faranno alcune brevi considerazioni sul ruolo di scuole di pensiero eterodosse più antiche nel quadro dei nuovi sviluppi.
La ricerca nel campo dell’economia sperimentale e comportamentale
I meccanismi di mercato e una parziale difesa dell’ortodossia
Sebbene si sia già notato come molti risultati degli esperimenti in economia mettano in discussione la tradizionale concezione di Homo oeconomicus, alcuni filoni di ricerca in economia sperimentale hanno prodotto risultati che possono costituire un sostegno all’idea che liberi mercati adeguatamente strutturati siano in grado di realizzare equilibri ragionevolmente efficienti malgrado il comportamento degli individui. Il principale sostenitore di questo punto di vista è proprio il ‘padre dell’economia sperimentale’, Vernon L. Smith. Egli scoprì, nel 1962 (An experimental study of competitive market behavior), che mercati a duplice asta (con competizione sia dal lato della domanda sia da quello dell’offerta) convergono molto rapidamente verso un equilibrio, un risultato che è stato rafforzato e dimostrato efficiente e robusto in molti studi successivi. Da allora Smith è diventato un deciso sostenitore del libero mercato, ed è stato coinvolto nella costruzione di molti mercati d’asta reali, mentre le duplici aste si sono diffuse in molti mercati finanziari (Smith 2008).
L’equilibrio economico generale di tipo walrasiano presenterà pure molti problemi, ma i singoli mercati, anche quelli collegati a uno o due altri mercati, possono essere organizzati in modo tale da funzionare abbastanza bene per quanto riguarda la loro capacità di realizzare un equilibrio. Sebbene Smith abbia sostenuto questo punto di vista per decenni, non ha tuttavia messo in discussione quei risultati che mostrano forme di comportamento individuale irrazionale o peculiare, né ha sostenuto che tutti i mercati si comportino sempre ‘bene’ o in modo efficiente. Smith, infatti, è stato uno dei primi a mostrare che bolle speculative e crisi si verificano abbastanza facilmente in mercati sperimentali, anche se il processo di apprendimento degli agenti tende a ridurre la portata di tali fenomeni. Un risultato che si ottiene anche in casi in cui i partecipanti all’esperimento debbono usare denaro proprio per svolgere le loro attività di mercato. In realtà, anche se le duplici aste funzionano bene, in concreto non è facile organizzare molte aste in base a questo modello e, mentre Smith e i suoi ‘alleati’ hanno proposto regole più semplici per aste su ampia scala, in diversi casi queste non sono state seguite, come è avvenuto, per es. con l’organizzazione delle aste statunitensi per la concessione di diritti all’uso delle bande elettromagnetiche.
Ciò richiama un problema che ha interessato a lungo Smith: come riconciliare l’apparente irrazionalità degli agenti individuali con la loro capacità di agire collettivamente in modo apparentemente razionale ed efficiente, almeno in certi tipi di situazione. Egli si è rifatto sempre più agli argomenti di Adam Smith e di Friedrich von Hayek, che interpretano il mercato come il sorgere di un ordine spontaneo, e all’idea che gli individui, malgrado abbiano razionalità limitata, sono capaci di operare nei mercati in modo intuitivo, ottenendo risultati efficienti anche senza effettuare a livello cosciente i necessari calcoli. Il cervello e la mente si sono evoluti in modo tale da rendere possibile ciò, anche se a livello inconscio, in un ambiente caratterizzato da un principio di reciprocità generalizzata, vantaggiosa dal punto di vista evoluzionistico (Smith 2008).
In tal senso, pur sostenendo la possibilità che agenti con razionalità limitata possano realizzare risultati efficienti in adeguati contesti istituzionali attraverso ‘regole del pollice’ (procedure decisionali semplici, basate sull’esperienza e non del tutto rigorose), Smith e altri autori hanno direttamente messo in questione la tradizionale teoria dei giochi, che assume elevati livelli di razionalità per i singoli decisori, come l’esistenza di una conoscenza comune, che a sua volta implica il regolare ricorso all’‘induzione retrospettiva’ da parte degli individui che decidono il loro comportamento strategico nell’interagire con altri. Un agente ricorre all’induzione retrospettiva in quanto è convinto che anche gli altri facciano anticipazioni sul suo comportamento, e quindi deve calcolare, in un futuro distante, le migliori risposte possibili degli altri agenti alle sue possibili azioni. Attualmente i risultati sperimentali suggeriscono però che la maggior parte delle persone in questo tipo di situazioni non si spinge a considerare un futuro troppo lontano (Camerer 2003), e che quindi l’induzione retrospettiva rappresenta in larga misura una costruzione puramente teorica. L’accumularsi di questi risultati empirici ha posto la teoria dei giochi sulla difensiva, facendo emergere in particolare sia la teoria dei giochi evolutiva, che pone maggiore enfasi su fattori casuali che nel tempo sospingono gli agenti in diversi bacini di attrazione, sia la teoria dei giochi comportamentale, che riconosce che gli agenti non sono pienamente razionali o perfettamente informati (Camerer 2003).
Preferenze sociali e altre complicazioni
Sebbene siano stati compiuti molti esperimenti che documentano il ripetuto verificarsi di ‘anomalie’ che contraddicono il modello standard di agente economico razionale, in particolare il modello dell’utilità attesa per le decisioni in condizioni di rischio (Daniel Kahneman, Amos Tversky, Prospect theory: an analysis of decision under risk, «Econometrica», 1979, 2, pp. 263-91), è probabilmente stata la ripetuta conferma dei risultati dell’esperimento del gioco dell’ultimatum già menzionato che più di tutti ha ‘battuto il chiodo sulla bara’ dell’agente economico individualistico e razionale.
Le persone si dimostrano regolarmente disposte a sostenere il costo della punizione reciproca per la violazione di norme di giustizia (fairness). Ciò giustifica e favorisce l’introduzione di idee psicologiche e sociologiche in economia; cosa che avveniva normalmente prima della metà del 20° sec., ma che andò fuori moda nel momento in cui si ritenne che il modello economico di agente razionale offrisse un paradigma migliore per le scienze sociali in generale. In particolare, Matthew Rabin (1993) e altri autori hanno sostenuto che gli economisti debbano tenere conto del fatto che le persone hanno un ‘gusto per la giustizia’ in contrasto con il modello standard di semplice massimizzazione ‘egoistica’.
È ironico che tutto ciò abbia suscitato un dibattito sul modo migliore di affrontare questo problema. Da una parte, un gruppo guidato da Rabin critica grosso modo l’approccio convenzionale rifacendosi all’esistenza di un gusto per la giustizia che, in qualche misura, può considerarsi una sorta di altruismo disinteressato. Ma l’approccio di Rabin, se valutato sotto un’altra prospettiva, rimane assai convenzionale, in quanto assume una tradizionale funzione di utilità che l’individuo massimizza quando è sottoposto a un certo vincolo di bilancio. Tale funzione ha semplicemente fra i suoi argomenti anche la ‘giustizia’, che deve poi essere ‘scambiata’ con le altre più tradizionali variabili rientranti nel calcolo della massimizzazione dell’utilità. Rabin, del resto, si è detto convinto della validità di un approccio più convenzionale: «In effetti ho vari timori a proposito dell’insegnamento dell’economia psicologica. Uno è quello di attrarre studenti postlaurea semplicemente ostili all’economia. Un altro è che si vogliano impiegare la teoria evoluzionista o altri approcci per spiegare l’allontanamento dai modelli classici piuttosto che usare le evidenze empiriche di tali allontanamenti per effettuare una migliore analisi economica» (in Colander, Holt, Rosser 2004, p. 151).
Questa citazione ben descrive anche il punto di vista di altri, tra cui Smith (2008) e alcuni esponenti della scuola della teoria dei giochi evolutiva, come Kenneth G. Binmore, che critica chi assume ‘preferenze esotiche’ non difendibili da un punto di vista evoluzionistico (in Colander, Holt, Rosser 2004, pp. 65-66). Binmore tende in una certa misura a difendere approcci più convenzionali, per es. mettendo in dubbio la robustezza dei risultati del gioco dell’ultimatum, mentre Smith è a favore di una posizione metodologicamente meno convenzionale, che rigetta il modello standard di massimizzazione dell’utilità e, in realtà, la stessa ipotesi di esistenza di una funzione di utilità. L’evidenza empirica che le persone non possiedono capacità standard di calcolo e di ottimizzazione cosciente è troppo ampia per essere ignorata, e questo gruppo sostiene essenzialmente la necessità di assumere un approccio per così dire più ‘egoista’, cioè l’esistenza di una qualche forma di reciprocità, sebbene distante e indiretta. Tale ipotesi è ritenuta difendibile in quanto emergente da processi evolutivi, anche se la mente effettua i necessari calcoli in una sorta di modalità inconscia, come descritto in precedenza. In ultima analisi, sottostanti ai risultati del gioco dell’ultimatum vi sarebbero motivazioni ‘egoistiche’, e non qualche vaga nozione di altruismo egoistico o di avversione all’ineguaglianza.
La reazione da parte di coloro che sono più disposti a tener conto di motivazioni alternative all’egoismo ha dato vita a un’enorme mole di ricerche. In particolare, Gary E. Bolton e Axel Ockenfels (2000) hanno stabilito delle modalità per distinguere empiricamente la reciprocità dall’avversione all’ineguaglianza. Si tratta però di approcci controversi, che hanno generato un ampio dibattito sull’accuratezza o meno dei metodi seguiti. In ogni caso, alcuni, traendo ispirazione dal lavoro di antropologi e psicologi, ritengono che forme generalizzate di reciprocità, o reciprocità forte, abbiano in realtà un fondamento evoluzionistico (Moral sentiments and material interests, 2004). Queste forme sono chiamate preferenze sociali.
La neuroeconomia e l’alternativa fra esperimentidi laboratorio ed esperimenti sul campo
Per quanto riguarda gli esperimenti di laboratorio, i dibattiti menzionati sopra hanno condotto a effettuare analisi approfondite del funzionamento del cervello stesso, usando la risonanza magnetica per verificare come e quali parti del cervello siano stimolate quando gli agenti sono impegnati in vari tipi di processi decisionali o di azioni. Uno dei primi studi in campo economico è stato quello condotto da Kevin McCabe, Daniel Houser, Lee Ryan, Vernon C. Smith e Theodore Trouard (2001), riguardante l’alternativa fra comportamenti cooperativi e non cooperativi nel gioco del dilemma del prigioniero. I risultati mostrano che, a seconda del tipo di comportamento degli agenti, le regioni cerebrali stimolate sono diverse. È interessante notare che, mentre Nash originariamente ritenne ‘razionale’ il comportamento egoistico non cooperativo, gli agenti appaiono usare le regioni della corteccia prefrontale del cervello (cioè quelle che gli psicologi ritengono usualmente ‘superiori’ o più ‘razionali’) proprio quando cooperano.
Dato che la costituzione dei circuiti (hard-wiring) cerebrali è quasi certamente il risultato di profondi processi evolutivi, i dibattiti sulla reciprocità e l’altruismo si sono più recentemente spostati nei laboratori dei neuroeconomisti. Così Herbert Gintis, Samuel Bowles, Robert T. Boyd e Ernst Fehr sostengono con convinzione (Moral sentiments and material interests, 2004) che una reciprocità forte implica una ricompensa in termini di piacere cerebrale derivante dalla punizione di coloro che hanno violato le norme sociali, e che essa quasi certamente si associa alla sensazione di piacere dovuta all’ossitocina prodotta dal cervello. Tali sviluppi forniscono un fondamento profondo alla moralità e alla coesione sociale all’interno delle economie di mercato.
Il problema che resta irrisolto è il grado in cui si può associare lo stimolo di specifiche regioni cerebrali a particolari stati o percezioni psicologiche. Inoltre, rimane aperto anche il problema se i risultati di laboratorio riflettano o meno quanto avviene nella realtà, o ‘sul campo’. Ciò ha condotto a intensi dibattiti sull’uso degli esperimenti di laboratorio invece dei cosiddetti esperimenti sul campo (Levitt, List 2007). I sostenitori del primo tipo di esperimenti sottolineano la possibilità di definire in modo più scientifico le circostanze in cui si sperimenta e di eliminare i ‘rumori esterni’, mentre i sostenitori del secondo tipo sostengono che in laboratorio si determinano importanti effetti di ‘contesto’ (framing), causati dall’influenza esercitata dagli stessi sperimentatori, che possono distorcere i risultati. Un possibile compromesso potrebbe essere quello di considerare complementari i due tipi di esperimenti, ma su tali questioni si continua a discutere, così come si discute sulla rilevanza pratica dei risultati degli studi di neuroeconomics che permettono di associare particolari regioni cerebrali a vari tipi di decisioni. In ogni caso, tutti coloro che sono interessati all’economia sperimentale sperano di poter ottenere un approccio più propriamente scientifico allo studio e alla comprensione dei comportamenti umani.
Le implicazioni dell’economiadella complessità
Il problema
Sebbene l’economia comportamentale e l’economia della complessità mettano entrambe radicalmente in discussione il concetto neoclassico di Homo oeconomicus, pienamente razionale, informato ed egoista, specialmente nella sua versione più strettamente walrasiana, i due filoni si sono sviluppati e operano in modo ampiamente indipendente, pur trovando un’ispirazione comune nell’economia comportamentale di Simon, già menzionato come inventore dell’ipotesi di razionalità limitata. Simon è anche stato uno dei primi a sviluppare la teoria della complessità (The architecture of complexity, «Proceedings of the American philosophical society», 1962, 106, pp. 467-82). Egli comprese che esiste un legame profondo fra complessità e comportamentalismo, e che la complessità sta alla base della razionalità limitata. Inoltre va ricordato che i suoi successivi sforzi innovativi nella ricerca dell’ideale dell’intelligenza artificiale erano profondamente motivati dalla consapevolezza dei limiti della razionalità e del suo fondamento nell’inevitabile realtà della complessità.
Si possono identificare tre livelli di riflessione sulla natura della complessità. Al più elevato vi è la ‘metacomplessità’, il concetto più ampio, che include le 45 definizioni di complessità di Seth Lloyd (Horgan 1996, p. 303) e di altri autori. Subito dopo viene la definizione dinamica fornita da Rosser (1999). Secondo questa definizione ampia (big tent), un sistema è (dinamicamente) complesso se mostra, in modo deterministico ed endogeno, dinamiche irregolari che non convergono verso un punto, un ciclo limite o un sentiero regolare di crescita o di declino (senza tener conto così di quelle irregolarità che sono dovute al ‘rumore’ di shock esogeni alla base dei modelli di ciclo reale). Questa concezione ampia di complessità include le cosiddette quattro C: cibernetica, catastrofi (teoria delle), caos e concetto ristretto di complessità (proprio dei modelli con agenti eterogenei che interagiscono fra loro). È a quest’ultimo concetto che la maggior parte degli autori si riferisce quando parla di ‘economia della complessità’. Tale approccio è stato spesso associato al Santa Fe Institute e ai metodi di simulazione su computer come quelli degli automi cellulari (cellular automata) e i programmi di vita artificiale (Handbook of computational economics, 2006).
Tra le altre definizioni di complessità che si possono trovare al livello di metacomplessità, le più importanti per la ricerca attuale sono quelle basate sulla computabilità (Computability, complexity and constructivity in economic analysis, 2005). Di queste definizioni ve ne sono molte, gran parte delle quali derivano in ultima analisi dalla teoria dell’informazione e dai successivi sviluppi nel campo della complessità algoritmica. Sebbene esistano versioni alternative di queste definizioni e delle misure della complessità (come le assai studiate distinzioni fra programmi risolvibili in un tempo che cresce in relazione alle dimensioni del problema secondo una funzione polinomiale, oppure secondo una funzione esponenziale, e programmi che non possono essere risolti affatto in tempo finito a causa della difficoltà dei problemi), tutte, in un modo o nell’altro, fanno riferimento alla lunghezza minima del programma necessario per calcolare la soluzione di un problema o di un sistema e, in considerazione delle variazioni di questa lunghezza, forniscono dei gradi misurabili di complessità. È quest’ultimo aspetto (insieme al crescente diffondersi dell’economia computazionale nelle sue varie forme) che ha recentemente reso popolare questo tipo di definizione. Sebbene attualmente questo approccio abbia molti seguaci, esso è probabilmente stato applicato in economia per la prima volta da Peter Albin (Albin 1998).
L’approccio agent-based
Si tratta di una delle attuali aree di ricerca di frontiera più produttive e promettenti. Leigh Tesfatsion e Kenneth L. Judd (Handbook of computational economics, 2006) forniscono una panoramica ampia e dettagliata delle sue applicazioni in molti campi dell’economia, che includono modelli agent-based (modelli basati su agenti) nella finanza computazionale, nonché i legami fra gli approcci con agenti eterogenei e gli approcci comportamentalisti. Domenico Delli Gatti, Edoardo Gaffeo, Mauro Gallegati, Gianfranco Giulioni e Antonio Palestrini (2008) forniscono un’eccellente rassegna dedicata più in particolare alla macroeconomia.
Il modello generale di sistemi basati su agenti che interagiscono fra loro è stato elaborato da William A. Brock e Cars H. Hommes (1997) con Masanao Aoki e Horoshi Yoshikawa (2006). I loro lavori forniscono un fondamento teorico basato sulla dinamica del campo medio derivato dalla fisica statistica, reso popolare dal Santa Fe Institute. Per l’analisi di questi sistemi non lineari è d’importanza centrale considerare la struttura degli insiemi di biforcazione e le varie forme di dinamica complessa che emergono quando il sistema incontra una biforcazione. Ma la dinamica complessa si estende ben al di là, e include i bacini multipli di attrazione e i confini a bacini frattali degli stessi bacini. I parametri di controllo cruciali per la determinazione delle strutture di biforcazione in questo insieme di modelli sono il grado di interazione tra agenti (l’aspirazione di comportarsi ‘come un gregge’) e il loro desiderio di cambiare strategie. La probabilità di avere dinamiche complesse aumenta al crescere dei valori di questi parametri. Gallegati, Palestrini e Rosser (2008) utilizzano una variazione di questo modello per studiare la dinamica di mercati finanziari quando viene imposto un vincolo finanziario (Hyman Ph. Minsky, Financial instability revisited: the economics of disaster, «Reappraisal of the Federal reserve discount mechanism», 1972, 3, pp. 97-136). Ciò consente di mettere in evidenza un periodo di ‘stress finanziario’ che intercorre tra il picco e lo scoppio di una bolla speculativa, un comportamento, questo, piuttosto comune nelle bolle storicamente verificatesi, ma che non era mai stato modellizzato dalla teoria economica tradizionale.
I modelli agent-based sono stati usati anche per analizzare specifiche dinamiche di mercati non finanziari. Per es., Alan P. Kirman e Nicolaas J. Vriend (2001) studiano l’evolversi di strutture di lealtà in seno a un mercato. Il modo in cui le strutture di mercato rispondono al cambiamento tecnologico costituisce un’altra importante area di studio: in quest’ambito si esaminano le dinamiche delle innovazioni in un reticolo (insieme parzialmente ordinato) a due dimensioni con una varietà di effetti e processi, la diffusione delle innovazioni in una varietà di spazi tecnologici, nonché l’utilizzo di algoritmi genetici per esaminare le innovazioni in relazione ai cicli di vita del prodotto. Un ulteriore campo di sviluppo di molti modelli agent-based è stato lo studio della dinamica dell’apprendimento, un’area in cui l’approccio alla complessità di questo tipo di modelli si interseca con l’approccio comportamentale sperimentale. Questi lavori fanno crescente ricorso a esperimenti nei quali i soggetti interagiscono con sistemi computerizzati in giochi ripetuti o all’interno di interazioni di mercato in cui ha luogo un apprendimento. Essi includono la presenza di soggetti che partecipano a giochi ripetuti del tipo ‘dilemma del prigioniero’ contro oppositori computerizzati, e che impiegano algoritmi genetici (ispirati a principi evoluzionistici) per apprendere la dinamica dei tassi di cambio. In questi modelli, agenti con razionalità limitata in un contesto complesso riescono a fare meglio di agenti pienamente razionali, soprattutto se la dinamica dell’apprendimento può condurre a volatilità eccessiva. Forse il risultato estremo è quello di avere agenti computerizzati a intelligenza zero che, ciò nonostante, in un certo senso ‘imparano’ a muoversi verso un equilibrio del tipo di quelli delle duplici aste; un risultato che può essere considerato alla base della diffusione di modelli di scambio computerizzati senza attori umani, che rendono manifesta la predizione di Phillip Mirowski (2007) secondo cui i mercati sono semplicemente degli algoritmi che evolvono per diventare ciò che egli chiama markomata.
Infine, un’altra area attualmente d’interesse per l’applicazione di modelli agent-based è quella dell’analisi delle reti. Questi lavori, strettamente collegati alla sociologia, stanno ora stanno ampiamente sviluppandosi. Il già menzionato lavoro di Kirman e Vriend (2001) è un esempio di analisi di reti di relazioni di mercato. Un risultato generale di questo tipo di letteratura è che i raggruppamenti (clusterings) si verificano secondo modelli che non sono né completamente causali né totalmente concentrati. Si tratta del famoso fenomeno dei ‘piccoli mondi’, talvolta descritto dall’affermazione che al mondo non esistono due persone distanti più di sei gradi di separazione.
Econofisica
Coniato a metà degli anni Novanta da H. Eugene Stanley, il termine econofisica è stato definito da Rosario N. Mantegna e Stanley (2000, pp. VII-IX) come «il campo multidisciplinare […] che denota le attività di fisici che lavorano su problemi economici per sottoporre a verifica una varietà di nuovi approcci concettuali derivanti dalle scienze fisiche». Questa definizione di tipo sociologico si concentra su chi pratica l’econofisica piuttosto che su ciò che essa è. In sintesi, molta enfasi è stata posta sul fatto che innanzitutto si osservano i dati e successivamente si cerca di trovare dei modelli che si adattino a tali dati, diversamente da quanto avviene con l’approccio economico usuale, in cui si assume che la teoria standard sia generalmente corretta e la si applica ai dati per verificare se essa o i dati possano essere sufficientemente manipolati per trovare una corrispondenza. Un importante campo di ricerca di molti lavori di econofisica è rappresentato dalle distribuzioni basate sulla legge di potenza (una relazione polinomiale con la proprietà di essere invariante rispetto alla scala), lineari nella mappatura dei valori logaritmici delle relazioni tra variabili.
Per quanto riguarda l’analisi dei rendimenti nei mercati finanziari, le distribuzioni basate su leggi di potenza sono caratterizzate dalla presenza di eventi più estremi di quelli predetti basandosi su una distribuzione normale gaussiana; in altre parole si osservano curtosi (allontanamento dalla distribuzione normale) o fat tails (curtosi estremamente elevate). Molti dei modelli su cui gli econonofisici lavorano possono considerarsi variazioni di modelli con agenti eterogenei, in quanto derivano da modelli di meccanica statistica di particelle interagenti. Essi quindi si ricollegano al più ampio approccio basato sul concetto di complessità ristretta, che utilizza ampiamente modelli con agenti eterogenei che interagiscono fra loro. I sostenitori più ferventi di questo tipo di approccio affermano la sua superiorità rispetto ai modelli economici, in quanto questi ultimi non possiedono leggi di invarianza. Probabilmente, le applicazioni più importanti dell’econofisica sono state quelle nell’ambito dei modelli finanziari (Mantegna, Stanley 2000). Per quanto concerne le distribuzioni di ricchezza si è riscontrato che anch’esse si basano sulla legge di potenza (Levy, Solomon 1997), mentre le distribuzioni di reddito sembrano avere tale proprietà solo nei loro estremi superiori (Drăgulescu, Yakovenko 2001). Si è a lungo sostenuto che il reddito da lavoro tende a distribuirsi in modo lognormale (cioè secondo una distribuzione normale dei valori logaritmici). Dal momento che la ricchezza rappresenta sostanzialmente un reddito da capitale accumulato e che i mercati finanziari esibiscono distribuzioni basate sulla legge di potenza, è del tutto ragionevole che la parte inferiore della distribuzione dei redditi, dove il reddito da lavoro costituisce la componente più importante, sia lognormale, mentre l’estremo superiore, dove la ricchezza e i redditi da capitale predominano, sia basato sulla legge di potenza. Questo tipo di analisi è stato applicato anche alle distribuzioni per dimensione di città (Gabaix 1999) e imprese (Axtell 2001).
Un aspetto curioso è che molte di queste idee sono state inizialmente sviluppate da economisti, mentre alcune delle idee più convenzionali della teoria economica standard hanno origine in fisica. Il matematico Benoît B. Mandelbrot suggerì per primo (The variation of certain speculative prices, «Journal of business», 1963, 4, pp. 394-419) l’applicazione della legge di potenza ai rendimenti delle attività. Data la sua complessa evoluzione, non è sorprendente che l’econofisica abbia generato controversie. Gallegati, Steve Keen, Thomas Lux e Paul Ormerod (2006) hanno criticato gran parte del lavoro svolto finora in econofisica per non avere fatto corretto riferimento a precedenti contributi di economisti, per aver fatto uso di mediocri metodi statistici, per avere asserito l’esistenza di leggi universali in casi in cui esse non esistono e per la mancanza di modelli teorici, o di spiegazioni, dei risultati ottenuti. Gran parte di queste critiche hanno una qualche validità, ma sembrano in via di superamento, grazie alla collaborazione fra economisti e fisici. Tuttavia, i fisici possono prendere una direzione sbagliata qualora lavorino con economisti le cui idee siano troppo convenzionali. A conferma di questi rischi vi è il caso di alcuni econofisici che fanno imbarazzanti previsioni pubbliche errate a causa dell’uso di modelli inappropriati tratti dall’economia.
Econobiologia
A differenza dell’econofisica, l’econobiologia non è definita da chi la pratica; il termine esprime piuttosto la disapprovazione da parte di critici che ritengono che la biologia non abbia leggi di invarianza così come non le ha l’economia, e che perciò non può essere una vera scienza come la fisica (e come potrebbe esserlo l’econofisica). Tuttavia è possibile identificare almeno tre sottoaree, con una propria identità distinta, di ciò che potrebbe essere chiamato econobiologia: economia evoluzionista, bioeconomia ed economia ecologica.
Delle tre aree, la prima è certamente la più antica; furono infatti i vecchi economisti istituzionalisti ad adottare e definire questa locuzione. D’altro canto, l’economia e la teoria dell’evoluzione hanno mostrato una complessa interrelazione lungo tutto il 19° sec.: Thomas R. Malthus influenzò Charles R. Darwin, che a sua volta influenzò sia Karl Marx sia Alfred Marshall. Quando il vecchio istituzionalismo perse la sua battaglia con l’economia neoclassica (fu Thorstein B. Veblen a coniare la locuzione ‘economia neoclassica’) e la nuova economia istituzionalista acquistò maggiore importanza, l’economia evoluzionista perse popolarità; ma argomentazioni concernenti i processi evolutivi hanno continuato a essere presenti in vari campi dell’economia, come la teoria dell’impresa e dei suoi cambiamenti nel tempo, e la teoria del cambiamento tecnologico, anche se alcuni erano in favore di una visione più discontinua dell’evoluzione, in contrasto con quella darwiniana.
L’economia evoluzionista sta attualmente sperimentando un revival, che avviene lungo due linee. Una è quella già menzionata della teoria evoluzionista dei giochi, che è diventata l’avanguardia della teoria dei giochi. L’altra è costituita da quei lavori che tentano di superare la divisione fra vecchie e nuove scuole istituzionaliste, talvolta utilizzando i più recenti sviluppi della teoria evoluzionista derivata dalla sintesi neodarwiniana degli anni Trenta.
Si può sostenere che l’economia ecologica e la bioeconomia costituiscano semplicemente l’una una variazione dell’altra, anche se il termine bioeconomia è più antico, essendo stato inizialmente introdotto da Colin W. Clark nel 1976 (Mathematical bioeconomics: the optimal management or renewable resources), mentre la locuzione economia ecologica ha iniziato a essere usata solo nel 1984 (Joan Martínez Alier, L’ecologisme i l’economia: història d’unes relacions amagades). Entrambi gli approcci possono essere considerati transdisciplinari (gli stessi economisti ecologisti si definiscono in questi termini). Entrambi gli approcci cercano di integrare in modo organico modelli della biologia, o dell’ecologia, con modelli economici. Tuttavia l’economia ecologica è più propensa a modellare in modo specifico la dinamica di popolazioni biologiche e l’impatto su di esse prodotto dall’interazione con agenti economici. Il punto di riferimento è il modello della pesca di Clark, caratterizzato dal fatto che le curve di offerta di pesce tendono a inclinarsi all’indietro. Ciò rende possibili varie dinamiche non lineari e complesse, compresi casi di collasso catastrofico sfortunatamente spesso osservati in concreto. Le foreste sono state per molto tempo un campo di studio sia dei bioeconomisti sia degli economisti ecologici, che hanno fatto uso di una varietà di modelli (Economics, sustain-ability, and natural resources, 2005).
Gli studi della pesca e delle foreste sono stati considerati sempre molto importanti per il ruolo che questi settori svolgono nei Paesi in via di sviluppo e per la pressione cui si ritiene siano sottoposti a livello globale. Per ragioni analoghe, i sistemi di laghi sono stati studiati da gruppi congiunti di ecologisti ed economisti (Carpenter, Ludwig, Brock 1999). Per molti di questi sistemi, la questione principale è la gestione delle risorse in un regime di proprietà comune, per la quale assumono rilevanza gli studi condotti da economisti sperimentali e comportamentalisti riguardanti l’attitudine a cooperare o meno delle persone. Questi problemi diventano cruciali nell’affrontare la grande e difficile questione della gestione dei beni comuni globali di fronte al riscaldamento del pianeta indotto dall’uomo (Rosser 2001).
Conclusioni
In questo lavoro ci si è limitati a guardare appena la superficie delle aree di ricerca di frontiera in economia. La gran parte di queste ricerche, portate avanti dall’inizio del 21° sec., sono andate oltre l’approccio neoclassico ortodosso, anche se, con l’eccezione dell’econofisica, un contributo importante proviene da economisti del mainstream. Sebbene ampiamente separati e paralleli, i due filoni principali, quello dell’economia sperimentale/comportamentista e quello dell’economia della complessità, hanno alcune radici comuni, e recentemente sembra anche che si intersechino e compenetrino l’uno con l’altro più di frequente. La complessità e la razionalità limitata sono profondamente connesse l’una con l’altra.
Sorge una questione finale, che però non si cercherà di affrontare in modo approfondito. Si tratta della relazione fra queste ricerche più recenti e le più vecchie scuole di pensiero eterodosse. L’attuale periodo di vitalità dell’economia postneoclassica apre molte nuove porte, ed è possibile che alcune idee delle vecchie scuole eterodosse entrino nei dibattiti correnti, così com’è possibile che alcune delle idee che emergono dalla ricerca corrente facciano il loro ingresso nelle scuole eterodosse, stimolandone la riflessione. Gran parte degli sviluppi dell’approccio postkeynesiano sono stati fortemente influenzati da ricerche nel campo della dinamica non lineare complessa. D’altro canto, più vecchi modelli postkeynesiani sono stati fonte d’ispirazione per alcuni dei primi modelli di dinamica complessa (Rosser 2006). Anche le idee di Keynes sono chiaramente in maggiore sintonia con la nuova economia comportamentista che con l’idea di agenti pienamente razionali e informati alla base dell’economia neoclassica. Infine, proprio come è possibile ritrovare in Keynes le radici dei moderni approcci, allo stesso modo va considerato che von Hayek previde l’approccio alla complessità e che gli ‘austriaci’ mal vedevano l’analisi standard dell’equilibrio, enfatizzando invece la natura distintiva di agenti economici individuali, la cui interazione potrebbe portare a un ordine spontaneo. In questo nuovo ambiente di ricerca può verificarsi anche la possibilità di una fertilizzazione incrociata delle idee riferibili a queste vecchie scuole di pensiero eterodosso, che si aprono per fornire e ricevere influenze dai più recenti approcci postneoclassici.
Bibliografia
A.P. Kirman, Whom or what does the representative individual represent?, «Journal of economic perspectives», 1992, 2, pp. 117-36.
M. Rabin, Incorporating fairness into game theory and economics, «American economic review», 1993, 5, pp. 1281-302.
J. Horgan, The end of science. Facing the limits of knowledge in the twilight of the scientific age, Reading (Mass.) 1996 (trad. it. Milano 1998).
W.A. Brock, C.H. Hommes, A rational route to randomness, «Econometrica», 1997, 5, pp. 1059-95.
M. Levy, S. Solomon, New evidence for the power-law distribution of wealth, «Physica A», 1997, 1-2, pp. 90-94.
P.S. Albin, Barriers and bounds to rationality. Essays on economic complexity and dynamics in interactive systems, Princeton 1998.
S.R. Carpenter, D. Ludwig, W.A. Brock, Management of eutrophication for lakes subject to potentially irreversible change, «Ecological applications», 1999, 3, pp. 751-71.
X. Gabaix, Zipf’s law for cities: an explanation, «The quarterly journal of economics», 1999, 3, pp. 739-67.
J.B. Rosser Jr, On the complexities of complex economic dynamics, «Journal of economic perspectives», 1999, 4, pp. 169-92.
G.E. Bolton, A. Ockenfels, ERC: a theory of equity, reciprocity, and competition, «American economic review», 2000, 1, pp. 166-93.
D. Colander, The death of neoclassical economics, «Journal of the history of economic thought», 2000, 2, pp. 127-43.
R.N. Mantegna, H.E. Stanley, An introduction to econophysics. Correlations and complexity in finance, Cambridge-New York 2000.
R. Axtell, Zipf distribution of U.S. firm sizes, «Science», 2001, 5536, pp. 1818-20.
A.A. Drăgulescu, V. Yakovenko, Exponential and power-law probability distributions of wealth and income in the United Kingdom and the United States, «Physica A», 2001, 1, pp. 213-31.
A.P. Kirman, N.J. Vriend, Evolving market structure: an ACE model of price dispersion and loyalty, «Journal of economic dynamics and control», 2001, 3-4, pp. 459-502.
K. McCabe, D. Houser, L. Ryan et al., A functional imaging study of cooperation in two-person reciprocal exchange, «Proceedings of the National academy of sciences of the United States of America», 2001, 20, pp. 11832-35.
J.B. Rosser Jr, Complex ecologic-economic dynamics and environmental policy, «Ecological economics», 2001, 1, pp. 23-37.
C.F. Camerer, Behavioral game theory. Experiments in strategic interaction, Princeton 2003.
D.C. Colander, R.P.F. Holt, J.B. Rosser Jr, The changing face of economics. Conversations with cutting edge economists, Ann Arbor (Mich.) 2004.
Moral sentiments and material interests. The foundations of cooperation in economic life, ed. H. Gintis, S. Bowles, R. Boyd, E. Fehr, Cambridge (Mass.) 2004.
Computability, complexity and constructivity in economic analysis, ed. K.V. Vellupillai, Oxford 2005.
Economics, sustainability, and natural resources. Economics of sustainable forest management, ed. Sh. Kant, R.A. Berry, Dordrecht 2005.
M. Aoki, H. Yoshikawa, Reconstructing macroeconomics. A perspective from statistical physics and combinatorial stochastic processes, Cambridge-New York 2006.
M. Gallegati, S. Keen, T. Lux, P. Ormerod, Worrying trends in econophysics, «Physica A», 2006, 1, pp. 1-6.
J.B. Rosser Jr, Complex dynamics and post keynesian economics, in Complexity, endogenous money and macroeconomics. Essays in honour of Basil J. Moore, ed. M. Setterfield, Cheltenham 2006, pp. 74-98.
Handbook of computational economics, 2° vol., Agent-based computational economics, ed. L. Tesfatsion, K.L. Judd, Amsterdam 2006.
S.D. Levitt, J.A. List, What do laboratory experiments measuring social preferences reveal about the real world?, «Journal of economic perspectives», 2007, 2, pp. 153-74.
Ph. Mirowski, Markets come to bits: evolution, computation and markomata in economic science, «Journal of economic behavior and organization», 2007, 2, pp. 209-42.
D. Delli Gatti, E. Gaffeo, M. Gallegati et al., Emergent macroeconomics. An agent-based approach to business fluctuations, Milano 2008.
V.L. Smith, Rationality in economics. Constructivist and ecological forms, Cambridge-New York 2008.
N. Stern, The economics of climate change, «American economic review», 2008, 2, pp. 1-37.
Si veda inoltre:
M. Gallegati, A. Palestrini, J.B. Rosser Jr, The period of financial distress in speculative markets: interacting heterogeneous agents and financial constraints, 2008, http://cob.jmu.edu/ rosserjb/PRG.doc (26 marzo 2009).