economia, le nuove frontiere dell'
economìa, le nuòve frontière dell'. – Per tutto il 20° sec. la scienza economica ha abbracciato il paradigma neoclassico legato all’idea che fosse possibile descrivere, prevedere e controllare le economie usando semplici modelli basati su tre elementi fondamentali: razionalità illimitata, egoismo ed equilibrio economico. Tale paradigma ha raggiunto il suo punto più alto tra fine degli anni Settanta e l’inizio degli anni Ottanta, quando si affermarono i modelli microfondati della ‘nuova macroeconomia classica’, basati sull’ipotesi di agenti omogenei (o di un singolo agente rappresentativo), perfettamente informati che formulano aspettative razionali. Questi modelli assumono l’esistenza di un equilibrio generale di tipo walrasiano e la loro soluzione riflette in generale la soluzione del problema microeconomico dell’agente rappresentativo, evitando così i problemi di aggregazione, posti già da John M. Keynes con il ben noto problema della fallacia della composizione (il tutto non è la somma delle sue parti). Negli ultimi anni, questa prospettiva teorica è stata messa in discussione dal verificarsi di un insieme di eventi e shock esterni (l’inattesa crisi borsistica del 1987, il collasso dell’Unione Sovietica e del suo impero, le successive fasi di crisi finanziaria ed economica succedutesi a partire dalla metà degli anni Novanta e culminate nella grande crisi del 2007-08), accompagnati da scoperte e innovazioni derivanti dall’applicazione all’analisi economica dei metodi empirici dell’economia sperimentale sviluppati da V. L. Smith, premio Nobel per l’economia nel 2002. Ciò ha anche favorito l’ingresso nello studio dell’economia di altre discipline come la psicologia e la sociologia, cui si sono aggiunti, a cavallo dei secc. 20° e 21°, i contributi delle scienze naturali, della fisica, della biologia, delle scienze informatiche. Ne è conseguita una profonda trasformazione degli ambiti e delle metodologie della ricerca economica, che ha assunto un carattere maggiormente transdisciplinare rispetto al passato e ha visto l’affermazione di nuovi filoni di indagine schematicamente riconducibili a tre ambiti principali di analisi. Il primo riguarda gli sviluppi dell’economia comportamentale di cui la neuroeconomia rappresenta una recente sottoarea particolarmente promettente. Il secondo comprende i modelli in vario modo connessi alla teoria della complessità, come i modelli basati sull’interazione fra agenti e l’economia computazionale. Il terzo, infine, include gli approcci che più si ispirano alla fisica (econophysics) e alla biologia (evolutionary economics).
La ricerca nel campo dell’economia sperimentale e comportamentale. – H. Simon, premio Nobel per l’economia nel 1978, in un articolo del 1957 ha messo fortemente in discussione la plausibilità di alcune ipotesi neoclassiche, suggerendo, in particolare, di sostituire al concetto di perfetta razionalità quello di razionalità limitata derivante dall’idea che gli individui riescano a realizzare risultati soddisfacenti, benché non ottimali, attraverso ‘regole del pollice’, ovvero procedure decisionali semplici, basate sull’esperienza e non del tutto rigorose. Da questo e da altri contributi pubblicati tra gli anni Sessanta e Settanta del Novecento, si è sviluppata l’economia comportamentale, una disciplina che introduce nello studio del comportamento degli agenti economici anche elementi della psicologia cognitiva e della sociologia. I contributi più importanti allo sviluppo di questa materia sono giunti proprio dalle indagini empiriche di due psicologi israeliani, D. Kahneman – premio Nobel per l’economia nel 2002 assieme a V. L. Smith – e A. Tversky, che hanno studiato le le numerose distorsioni cognitive in cui gli individui cadono quando formulano giudizi probabilistici o prendono decisioni e che si manifestano come violazioni di alcuni assiomi della logica, della teoria della probabilità o della teoria neoclassica delle decisioni. L’evidenza empirica sperimentale di questi studi mostra in particolare che il giudizio umano in condizioni d’incertezza segue certe regole euristiche (regole semplici ed efficienti, basate sull'intuito e sulle circostanze contingenti per risolvere problemi complessi), piuttosto che le leggi della probabilità, come nella teoria economica standard. Per es., si tende a valutare le probabilità degli eventi futuri in base alla propria capacità di immaginare tali eventi, richiamarli alla mente o ricondurli al proprio vissuto (euristica della rappresentatività ed euristica della disponibilità), a credere che ciò che si osserva in piccoli campioni sia rappresentativo della popolazione (legge dei piccoli numeri), ad attribuire un peso eccessivo agli eventi certi rispetto a quelli incerti anche quando questi ultimi presentano un valore atteso maggiore (effetto certezza), a sottovalutare, mal interpretare o trascurare nuove informazioni che contraddicono le ipotesi formulate e ritenute valide in passato (perseveranza delle convinzioni e pregiudizio della conferma), a esagerare il grado in cui le proprie aspettative prima di un dato evento siano coerenti con le proprie convinzioni dopo che l’evento si è verificato (pregiudizio del senno di poi), a sovrastimare, infine, i primi dati che si presentano durante il processo decisionale (effetto ancoraggio). Gli studi di Kahneman e Tversky hanno inoltre permesso di sfidare l’idea neoclassica secondo cui gli individui agiscono sempre ed esclusivamente nel proprio interesse egoistico e che non siano disposti a sacrificarlo per aiutare o danneggiare altre persone; al contrario, hanno evidenziato che le persone sono interessate anche ai processi che conducono a dati risultati (preferenza per l’onestà, la sincerità), a ciò che accade agli altri (rancore, altruismo, reciprocità) e ai condizionamenti sociali (vergogna, senso di colpa, lealtà). Infine, l'economia comportamentale ha mostrato come, anche per date probabilità e preferenze, gli individui possano compiere scelte diverse da quelle previste dalla teoria economica standard, in quanto esse risultano condizionate dalla 'cornice' in cui le alternative vengono presentate (framing effect), dalla situazione contingente in cui l’individuo si trova al momento di prendere la decisione e dalla presenza di alternative anche non rilevanti (dipendenza dal contesto), dalla pressione sociale, dalla forza della persuasione altrui e dallo stato emozionale di chi compie la scelta.
La neuroeconomia. – L’interesse per lo studio dei processi cognitivi in economia si è rinnovato anche grazie agli sviluppi delle neuroscienze e alla possibilità di individuare le aree del cervello corrispondenti a determinate attività, nello sforzo di comprendere le basi neurali della cognizione. Tali studi hanno dato vita alla fine degli anni Novanta alla neuroeconomia, che ha reso possibile la descrizione del comportamento individuale come l’esito di un complesso processo, che discende dall’interazione e dalla comunicazione fra le diverse regioni del cervello, il controllo cognitivo e i circuiti neurali. Essa ha messo in discussione l’assunzione alla base della teoria economica tradizionale, secondo cui ogni scelta è l’esito di un processo integrato e coerente di massimizzazione vincolata dell’utilità. Una delle maggiori scoperte della neuroeconomia riguarda il fatto che il cervello non è un elaboratore omogeneo ma, piuttosto, un sistema modulare. Non tutte le aree cerebrali contribuiscono alla determinazione di ciascun comportamento: esse interagiscono (e talvolta confliggono) in modo complesso quando vengono affrontati problemi diversi. È implicito nella teoria economica tradizionale che ogni scelta sia compiuta in modo deliberato e coerente, confrontando i costi e i benefici delle varie opzioni disponibili. Per quanto la neuroeconomia non metta in discussione il ruolo della deliberazione nei meccanismi di scelta, essa evidenzia che, da un lato, il cervello fa ampio ricorso ad automatismi che operano in modo assai più rapido della deliberazione e spesso senza richiedere impegno o consapevolezza e, dall’altro, che le scelte sono continuamente mutuate dalle emozioni e dai sentimenti. Ogni comportamento individuale è dunque il frutto della combinazione di automatismo e controllo e dell’interazione fra sistemi cognitivi e sistemi affettivo/emozionali.
La teoria computazionale e la complessità. – Parallelamente all’economia sperimentale e comportamentale, un altro filone di pensiero i cui sviluppi hanno comportato l’abbandono del paradigma neoclassico è quello dell’economia computazionale, che ha iniziato ad affermarsi negli anni Ottanta grazie alla disponibilità di calcolatori sempre più potenti e veloci che hanno reso possibile l’utilizzo di tecniche numeriche per la soluzione di modelli teorici e di simulazione caratterizzati da una maggiore complessità e da una più ampia base di dati. Nel corso del decennio successivo, l’economia computazionale ha ampliato il suo campo di applicazione, concentrandosi sempre di più sulla trasposizione di idee derivanti dalla teoria della complessità. Formalmente, un sistema si dice complesso se può essere rappresentato in termini di un grande numero di entità microscopiche, eterogenee e gerarchicamente organizzate, che interagiscono ripetutamente tra loro nel tempo senza possedere una conoscenza completa del mondo in cui si trovano. Un sistema complesso tipicamente si autorganizza dinamicamente e genera proprietà emergenti aggregate che non possono essere dedotte dal comportamento individuale, ovvero non ne possiedono tutte le proprietà. Tale paradigma, che descrive egregiamente i sistemi sociali ed economici, assume un ruolo centrale nella ricerca teorica e applicata dell’economia computazionale basata sugli agenti (ACE, Agent-based computational economics), che tenta di fornire un’alternativa alle tecniche di modellizzazione tradizionali, in campo micro e macroeconomico, mediante lo sviluppo dei cosiddetti modelli ad agenti (agent-based models). Tali modelli si fondano sull’idea che i comportamenti aggregati di un sistema economico (per es., i sentieri di crescita economica) devono essere spiegati dall’interazione nel tempo tra agenti limitatamente razionali, piuttosto che dall’aggregazione di comportamenti iperrazionali; una visione, questa, che ribalta completamente quella tradizionale. Ciò comporta che un modello economico deve essere costruito a partire dai suoi elementi essenziali, relativi al comportamento degli agenti economici (consumatori, imprese, ecc.) e alle strutture delle loro interazioni (mercati, istituzioni, imitazione, apprendimento, ecc.). Il comportamento aggregato del sistema-economia, quindi, viene studiato in questi modelli solo in un secondo momento e sempre come risultato del funzionamento a livello microscopico, senza imporre dall’alto alcun vincolo di coerenza (equilibrio, agente rappresentativo, aspettative razionali, ecc.) come tradizionalmente fatto, invece, nei modelli neoclassici. Inoltre, tale approccio permette una maggiore flessibilità nella scelta delle assunzioni che regolano comportamenti e interazioni, dato che il ricercatore non è più costretto a limitarsi a schemi che garantiscano soluzioni analitiche o numeriche al modello. Ciò implica che il modello può basarsi su presupposti maggiormente in linea con la realtà, desunta da analisi sperimentali o empiriche, le quali invece tendono a rigettare le ipotesi su cui i modelli neoclassici si basano (per es., la razionalità illimitata).
L’econofisica e l’economia evolutiva. – L’econofisica nasce intorno alla metà degli anni Novanta dal tentativo di alcuni fisici di sottoporre a una verifica l’applicazione di nuovi approcci derivanti dalle scienze fisiche ai problemi dell’economia. Un importante campo di ricerca di molti lavori di econofisica è rappresentato dalle distribuzioni basate sulla legge di potenza (una relazione polinomiale con la proprietà di essere invariante rispetto alla scala), lineari nella mappatura dei valori logaritmici delle relazioni tra variabili. Applicata soprattutto all’analisi dei rendimenti nei mercati finanziari (i lavori pionieristici del matematico B. Mandelbrot, risalgono ai primi anni Sessanta), l’econofisica evidenzia come le distribuzioni basate su leggi di potenza siano caratterizzate dalla presenza di eventi più estremi di quelli predetti basandosi su una distribuzione normale gaussiana; in altre parole si osservano curtosi (allontanamento dalla distribuzione normale) o fat tails (curtosi estremamente elevate): ciò significa che episodi ritenuti poco probabili, come una forte caduta degli indici di borsa, accadono con frequenza e intensità maggiori di quanto previsto dai modelli tradizionali. Molti dei modelli su cui gli econonofisici lavorano possono considerarsi variazioni di modelli con agenti eterogenei, in quanto derivano da modelli di meccanica statistica di particelle interagenti. Essi quindi si ricollegano al più ampio approccio basato sul concetto di complessità, che utilizza largamente modelli con agenti eterogenei che interagiscono fra loro. L’econobiologia nasce invece dall’idea che il processo di sviluppo economico sia caratterizzato non da leggi di invarianza, come è presupposto dall’econofisica, ma da fenomeni di mutazione e selezione simili a quelli riscontrabili nella sfera biologica. In termini generali, l’interpretazione degli eventi economici come processi evolutivi è basata sull’ipotesi che i mercati agiscano come veri e propri meccanismi di selezione, in modo simile a questo accade all’ambiente in campo biologico. Tali teorie hanno sempre esercitato un notevole fascino all’interno delle scienze economiche, ed è possibile rintracciare i suoi presupposti fondamentali nelle opere di K. Marx, di A. Marshall e, soprattutto, di J. A. Schumpeter. La maggior parte dei sostenitori dell’economia evolutiva riconosce tuttavia che esistono importanti differenze tra i processi di selezione che si verificano in biologia e quelli tipici del sistema economico. In biologia, secondo le teorie evoluzioniste, un organismo non può trasmettere gli adattamenti acquisiti nel corso del tempo ai propri ‘discendenti’ e le uniche mutazioni trasmissibili sono quelle ereditate in modo genetico. Al contrario, in campo economico, si riconosce, generalmente, che le mutazioni possano essere di tipo ‘lamarckiano’, ossia trasmissibili. L’approccio evolutivo può essere applicato a diversi livelli di analisi, a seconda dell’unità d’indagine considerata. I livelli micro sono focalizzati sulla selezione di singole tecnologie, prodotti o routine organizzative. Si passa, poi, agli studi basati sull’evoluzione della quota di mercato delle imprese in un’industria e infine, a livello macro, si considera la competizione internazionale tra interi paesi.