Crisi della ragione
La revisione critica della nozione di razionalità
L’ingresso nel 21° sec. non ha visto l’elaborazione di nuove proposte riguardo a progetti teorici forti di razionalità filosofica quali erano stati, per es., il modello di razionalità epistemologica del Circolo di Vienna, del neopositivismo logico, del falsificazionismo popperiano, della semantica su base naturalistica di Willard Van Orman Quine, della semantica formale dell’interpretazione radicale di Donald Davidson, e, infine, della teoria referenzialista e realista dei mondi possibili di Saul Kripke.
Lungo un versante diverso le versioni del neopragmatismo americano a opera specialmente di Richard Rorty, Nelson Goodman, Cornel West, Richard Bernstein e altri risultano impegnate in una concezione indebolita di razionalità e in una concezione ‘deflazionista’ della verità.
Emerge anche una revisione della ricerca filosofica, non più destinata a confutare con strategie argomentative lo scetticismo filosofico bensì a ritrovare, in termini dichiaratamente antifondazionalistici, una presenza in una forma di vita (Lebensform, form of life), in un radicamento entro un mondo che non è suscettibile di essere dimostrato contro i dubbi del filosofo scettico, bensì che deve essere accettato (accepted) e riconosciuto (recognized), come variamente asseriscono Stanley Cavell, Barry Stroud e Michael Williams.
L’orizzonte culturale del nuovo secolo dischiude piuttosto lo scenario di una varietà di operazioni teoretiche, destinate a riconsiderare analiticamente le ambizioni dei progetti filosofici forti e sistematici del secolo precedente, alla luce di approcci volti anzitutto a ricalibrare le condizioni di legittimità che ne erano alla base.
L’indagine che ne risulta è di conseguenza quella di un ponderato riesame storico-critico piuttosto che di una rifondazione sistematica relativamente alla nozione di razionalità.
La svolta linguistica: mondo della vita e linguaggio comune
In tale prospettiva d’insieme, si può considerare la revisione critica, che talora diviene un vero e proprio demolition job, condotta oggi nei confronti dell’analisi del linguaggio del secondo Ludwig Wittgenstein e delle scuole del linguaggio ordinario di Oxford e di Cambridge, ossia delle scuole di John L. Austin, Gilbert Ryle, Peter F. Strawson, Paul Grice, Elizabeth Anscombe, John Wisdom, Richard M. Hare, Norman Malcolm. L’analisi del linguaggio quotidiano aveva attaccato come insensati sia l’intuizionismo filosofico della metafisica tradizionale, sia le metodologie rigide e sistematiche del logicismo, dell’atomismo logico di Bertrand Russell così come l’epistemologia del Circolo di Vienna e del neopositivismo logico. Ma è proprio nei confronti del carattere asistematico, empirico, definito contingentemente volta a volta dell’analisi del linguaggio comune a opera delle scuole di Oxford e di Cambridge e dei loro derivati in tutto il mondo anglofono (e non solo) che la filosofia analitica, ossia la filosofia promossa dal linguistic turn, dalla svolta linguistica (secondo la fortunata espressione introdotta da Rorty), rivendicava un nuovo e diverso approccio metodologico fondato invece su un progetto teorico sistematico. Un criterio di razionalità universale e sistematico presiedeva infatti ai programmi destinati a ritrovare una cornice complessiva e unitaria entro cui racchiudere le fioriture delle varie classi di espressioni e proferimenti linguistici nei quali veniva fatto consistere il pensiero stesso, quest’ultimo assunto come indistinguibile dalla codificazione linguistica. Le teorie semantiche di Kripke, David Kaplan, Richard Montague, Davidson, largamente influenzate dalla teoria logico-linguistica di Alfred Tarski, a partire dagli anni Sessanta del 20° sec. avevano perseguito in vario modo lo scopo di restaurare nelle varie aree del linguaggio una metodologia ispirata da un lato a una concezione forte, unitaria e sistematica della razionalità umana, e dall’altro lato a una concezione altrettanto forte e fiduciosa della verità. Sulla base di questi presupposti veniva riscattato il valore insostituibile del predicato ‘vero’ contro le dottrine o concezioni del secondo Wittgenstein, radicate sullo sfondo antropologico di una ‘forma di vita’ e degli analisti di Oxford quali Austin e Strawson, fautori di una teoria della verità in termini di atti linguistici, di atti locutivi, illocutivi e perlocutivi. Austin e Strawson avevano avuto il merito indubbio di illustrare la circostanza che non tutte le espressioni o enunciati linguistici hanno un carattere descrittivo: i proferimenti relativi al battesimo di una nave, di un infante o alla cerimonia nuziale non descrivono ma realizzano (perform) qualcosa. In questo senso, «dire è fare qualcosa». Ma questa performatività si estendeva, secondo Strawson, anche agli enunciati del linguaggio descrittivo e veritativo, al linguaggio aletico, ossia ai candidati al calcolo delle funzioni di verità. In questo senso, con la teoria degli atti linguistici (speech acts), asserire che «Ciò che dice Oscar è vero» è traducibile nel proferimento «Io confermo/concedo/faccio mio/approvo/sottoscrivo ciò che dice Oscar».
Un approccio teorico sistematico di carattere logicizzante, come quello sostenuto recentemente da Scott Soames (2003), cerca invece di dimostrare l’impossibilità di una tale assimilazione, individuando una serie di paradossi che si generano negli enunciati attraverso la sostituzione del predicato ‘vero’ con le espressioni e i termini del vocabolario performativo proprio della dottrina degli speech acts. È stato anzitutto obiettato che il proferimento «Se io prometto di restituirti il libro, tu puoi essere fiducioso che esso ti venga restituito» non ha carattere performativo ma decisamente descrittivo. È stato rilevato contro la dottrina degli speech acts la derivazione di enunciati devianti o paradossali sostituendo al predicato ‘vero’ le espressioni performative quali «io concedo, approvo, sottoscrivo» e simili. Per es., nel linguaggio aletico asseriamo (a) «Se la proposizione che vi sono tre 7 consecutivi nell’espansione di π è vera, allora vi sono tre 7 consecutivi nell’espansione decimale di π»; tradotta nella dottrina degli atti linguistici essa diviene: (b) «Se io confermo/concedo/approvo che vi sono tre 7 consecutivi nell’espansione decimale di π, allora vi sono tre 7 consecutivi nell’espansione decimale di π», che risulterebbe essere un’asserzione dubitabile e non un’analisi adeguata dell’asserzione precedente. Peraltro, la validità di questa analisi non è così facilmente decidibile, nel senso che una riflessione metafilosofica, poggiante sulla dottrina degli atti linguistici, potrebbe riconvertire lo stato della questione: anzitutto perché la dottrina degli atti linguistici dovrebbe restituire i medesimi risultati dell’analisi in termini del predicato ‘vero’? Una concezione costruttivistica della matematica potrebbe costituire uno sfondo di legittimazione dell’analisi di tipo (b).
La crisi della razionalità sistematica
Se una revisione critica radicale dell’analisi del linguaggio comune di Wittgenstein e delle scuole di Oxford e Cambridge si è prodotta in nome delle istanze di una teoria sistematica e cogente a partire dagli ultimi decenni del 20° sec., alle soglie del 21° si è anche verificata una revisione critica di quello che è stato il progetto più avanzato e comprensivo nell’ambito della teoria del significato, ossia il programma di ricerca della teoria dell’interpretazione radicale di Davidson e dei suoi scolari. Tale programma si era segnalato anche per la sua capacità di mediare fra un approccio logico-linguistico formalizzato e specialistico e un approccio più sensibile alle ragioni tradizionali di un discorso filosofico generalizzato.
Il programma di Davidson enfatizzava una concezione potente e fondazionale del predicato ‘vero’. Questo è anche il suo tratto caratteristico e distintivo in una fase storico-culturale in cui la nozione di verità fra concezioni ‘ridondantiste’, ‘deflazioniste’ e ‘minimaliste’ attraversa un’epoca di angustie. Secondo il progetto di Davidson, che si richiamava all’eredità di Quine (messa al bando di significati, intensioni, enunciati analitici, stati modali, stati intenzionali, verità come corrispondenza, empirismo riduzionistico), il punto centrale e più ambizioso era dedurre una teoria del significato, ossia una teoria dell’interpretazione, da una teoria della verità. E in vista di questo scopo Davidson aveva esteso la teoria della verità di Tarski – che il logico polacco aveva limitato ai sistemi formalizzati della logica e della matematica – ai linguaggi naturali. In sostanza la teoria di Tarski introduce una fondamentale distinzione fra un linguaggio oggetto e un metalinguaggio. Infatti impiegare le categorie sematiche – quali verità, senso, significato, referenza, soddisfacimento – in un linguaggio chiuso (come può essere la lingua italiana o inglese che si riferiscono unicamente a sé stesse) ha l’effetto di generare i paradossi insiemistici (per es., la classe delle classi che non appartengono a sé stesse si appartiene o non si appartiene? Se si appartiene allora non si appartiene, se non si appartiene allora si appartiene) e i paradossi semantici (per es., il paradosso di Grelling: «monosillabico» non è monosillabico, «lungo» non è lungo, cioè sono termini eterologici, che non appartengono a sé stessi, ossia x ∉ x). Le categorie semantiche non devono comparire pertanto nel linguaggio oggetto – questo è un requisito fondamentale delle teorie di Tarski, Quine e Davidson. Come Tarski, Davidson esclude una definizione di verità in generale, valida in un linguaggio L variabile. Il predicato ‘vero’ non gode di uno statuto di generalità illimitato in accordo a una presunta struttura universale della razionalità, ma è definito estensionalmente dalla classe degli enunciati che risultano veri in tali linguaggio. Sulle tracce dell’opera di Tarski, la semantica formale di Davidson costituisce una teoria della verità e presuntivamente dell’interpretazione se per ogni espressione enunciativa di un linguaggio L è in grado di generare un teorema della forma «‘s’ è vero se e soltanto se p», dove s è un’espressione del linguaggio oggetto e p è un’espressione parafrastica di s nel metalinguaggio (a destra del bicondizionale materiale «se e soltanto se»). Sulla base della teoria di Davidson verità e interpretazione vengono certificati consecutivamente attraverso una teoria finitaria, ossia mediante un numero finito di passi, e al tempo stesso assiomatizzabile, cioè per mezzo di una rete di assiomi che connettono ciascuna unità subenunciativa di un’asserzione alla rispettiva referenza. Non si tratta però di una teoria della verità e della razionalità in termini di corrispondenza, della tradizionale tesi dell’adaequatio rei et intellectus, che Davidson trovava inintelligibile, quanto piuttosto di un sistema di relazioni che correlano i termini con le entità alle quali si riferiscono.
La teoria di Tarski-Davidson è neutrale, ossia può soddisfare sia una teoria della verità come corrispondenza, oppure come coerenza, sia una teoria epistemica o verificazionista sia una teoria pragmatista, sia una semantica intensionale. Ma l’assunto fondamentale del programma di Davidson era quello di derivare una teoria dell’interpretazione, ossia di derivare i significati degli enunciati dalle loro condizioni di verità. Come a dire, che afferriamo la verità di un enunciato senza conoscere ancora il suo significato, che nelle intenzioni del filosofo americano era derivabile dalla convenzione di Tarski in forza dell’olismo semantico costituito dal sistema di assiomi.
Ma è proprio su questo assunto fondamentale che il programma di Davidson mostra i propri limiti, come viene mostrato in questi anni nel corso di un’ampia revisione critica. Le proposizioni vere di Davidson non hanno proprietà traduttiva e pertanto non sono sufficienti a fondare una teoria dell’interpretazione. La sostitutività di enunciati veri, ossia equivalenti, e la sostitutività di termini coreferenziali consente di generare asserzioni devianti del tipo «‘la neve è bianca’ è vero se e soltanto se l’erba è verde», oppure di formare asserzioni che associano enunciati veri e significati falsi, del tipo «‘la neve è bianca’ è vero se e soltanto se la neve è bianca e le teorie dell’aritmetica del primo ordine sono incomplete». Il punto critico è costituito ancora una volta dall’inderivabilità del senso di un enunciato dalle sue condizioni di verità. E a questo riguardo viene avvertita negli anni di transizione dal vecchio al nuovo secolo una crisi della razionalità universale che coincide con una crisi della nozione di verità, che viene considerata come sopravvalutata in alcuni settori della filosofia analitica. Lo scacco costituito dall’inderivabilità del senso degli enunciati dalla loro verità mette in crisi l’assunto di Davidson secondo il quale non vi sarebbe verità senza traduzione e sarebbero insensate le tesi di Thomas Kuhn e di Paul Feyerabend sull’incommensurabilità delle teorie scientifiche. Ma era proprio nei termini di tale assunto che Davidson aveva lanciato la sua sfida al relativismo epistemologico e allo scetticismo filosofico. Lo stesso Davidson ha successivamente allentato lo statuto formale della propria metodologia introducendo la nozione di passing theories, ossia di ‘teorie occasionali del linguaggio’ che non assumono il linguaggio nei termini di padronanza del linguaggio, di un meccanismo logico perfettamente integrato e universalmente governato da regole rigide, bensì lo consegnano alle pratiche dei parlanti sul campo, on the field, e ai loro tentativi di ottimizzare la loro comunicazione attraverso l’accertamento di porzioni di accordo e di disaccordo. «Il linguaggio non esiste, perlomeno non se il linguaggio è ciò che i filosofi hanno pensato che fosse. Di conseguenza non c’è qualcosa da apprendere o da padroneggiare. Dobbiamo rinunciare all’idea di una struttura ben definita e condivisa padroneggiata dagli utenti del linguaggio e poi applicata ai singoli casi. Dovremmo abbandonare il tentativo di far luce sul modo in cui comunichiamo facendo appello a convenzioni» (D. Davidson, A nice derangement of epitaphs, in Truth and interpretation, ed. E. Lepore, 1989, p. 446).
Teorie della verità
Seguire le tracce della crisi della ragione è così al tempo stesso seguire il destino di quella nozione in angustie che è appunto la nozione di verità nel corso della transizione dal 20° al 21° sec. e che è caratterizzata dalle concezioni ridondantiste (già preannunciate da Gottlob Frege, Alfred J. Ayer, Frank P. Ramsey), da quelle deflazionistiche e da quelle minimaliste. Variamente coniugate fra loro, tali concezioni ridimensionano il ruolo del predicato ‘vero’, negando che sia un predicato o una proprietà naturale delle asserzioni (nel senso in cui l’esser rosso è una proprietà o un predicato di un fiore o di un vestito). Questa crisi della razionalità è da ricondurre al crollo della nozione di verità come corrispondenza fra pensiero-linguaggio da un lato e realtà dall’altro, in quanto era solo sul potente mito di tale corrispondenza che l’esser vero di un enunciato era garantito da un’autorità che trascendeva il linguaggio e il pensiero dei soggetti umani. Grazie a quella corrispondenza gli uomini credevano di poter fare quello che in realtà non possono e non devono fare, ossia «tentare di uscire dalla propria pelle linguistica» (Quine), o affidarsi a «episodi non verbali che autenticano sé stessi» (Wilfrid Sellars), o ancora rifugiarsi, per un bisogno di sicurezza, in una sorta di figura paterna rassicurante (Rorty). Ma appunto come ha decisamente dichiarato Rorty nella sua ultima opera, Truth and progress (1998), sulla verità c’è meno da dire di quanto hanno creduto fino a oggi i filosofi. Il mondo non parla, sono gli uomini che lo fanno parlare per mezzo dei loro vocabolari decisivi.
Su un ridimesionamento della nozione di verità, senza per questo considerarla superflua o ridondante, si basa la recente concezione minimalista della verità, dovuta a Paul Horwich, Soames e altri, i quali, pur non assumendola come un predicato o un genere naturale, nondimeno ne riconoscono la funzione e la legittimità. Anche la concezione minimalista, al pari delle teorie della verità di Tarski, Quine e Davidson, connette la funzione del predicato ‘vero’ alle ineludibili esigenze di quantificazione o di generalizzazione degli enuncati o a quella che Quine definiva l’ascesa semantica (semantic ascent). Come scrive Horwich, «non sembra esserci alcun esempio di affermazioni che richiedono il concetto di verità che non siano manifestazioni della sua funzione generalizzante [...]. In ciascuno di questi casi si consegue un progresso verso formulazioni più chiare, e verso una migliore comprensione di dove risiedano effettivamente i problemi, rendendosi conto che la verità è metafisicamente banale: nulla più che un espediente per la generalizzazione» (Truth, 1990; trad. it. 1994, pp. 185-86). Se da un lato il minimalismo riconosce al predicato della verità il suo contributo alla generalità e dunque all’universalità della ragione, dall’altro esso nega ogni profondità a tale predicato.
Il minimalismo assume il concetto di vero nei termini di un’autoriflessività, ossia l’enunciato p è vero se e soltanto se p. Senza ricorrere all’«ingombrante apparato» della teoria di Tarski, ritenuto incapace di catturare i controfattuali, gli stati intensionali, gli atti intenzionali, i contesti opachi, gli asserti prescrittivi, il minimalismo dichiara di generare una formula semplice e lineare della verità che è neutrale rispetto alle differenti opzioni di una teoria semantica, nel senso che la formula della verità minimalista può tollerare una concezione corrispondentista, coerentista, verificazionista, epistemica, pragmatista, intensionalista o referenzialista delle categorie semantiche. In sintesi, l’assunto del minimalismo consiste in uno schema di equivalenza che consente la generalizzazione degli enunciati senza implicare paradossi insiemistici o semantici: «È vero che p se e solo se p». In base allo schema di equivalenza diremo che un enunciato x appartiene o è riducibile alla teoria minimalista se e soltanto se, per qualche enunciato y, c’è una funzione E* che applicata a y fornisce il valore x; in simboli: (x) (x è un assioma di TM ↔ (∃ y) (x=E* [y])). Attraverso il principio di equivalenza il minimalismo può generare un’infinità di enunciati veri e catturare conseguentemente le diverse intuizioni del concetto di verità rimanendo neutrale rispetto a differenti opzioni epistemiche o ontologiche. «Non solo la concezione minimalista della verità è del tutto neutrale rispetto ai due aspetti centrali del realismo (vale a dire, i problemi della credenza giustificata e della riducibilità empirica), ma lo stesso si può dire di concezioni alternative. Come vedremo adesso, la scelta di una teoria della verità è ortogonale ai temi che hanno a che vedere con il realismo. La teoria della verità può non avere nessuna determinata implicazione per la componente gnoseologica o semantica del problema» (Horwich, Truth, 1990; trad. it. 1994, p. 74).
La crisi del rappresentazionalismo e il neopragmatismo
Se la crisi della ragione classica ha generato, da un lato, la rivalutazione di una razionalità storicizzata, probabilistica, relativistica o addirittura, come vedremo in seguito, scettica e in ogni caso attraversata da rotture epistemologiche e da relazioni di incommensurabilità fra le teorie scientifiche riconducibili alle alternative fra diversi «paradigmi», «versioni del mondo», «schemi di accettabilità razionale», «modelli della scoperta scientifica» (da Goodman a Norwood Russell Hanson, da Kuhn a Yehuda Elkana, da Feyerabend a Michel Foucault), dall’ altro lato ha restituito, alla svolta tra 20° e il 21° sec., nuovo vigore alla concezione neopragmatista della razionalità nei lavori di Rorty, Bernstein, Robert Brandom, Cornel West, Richard Rajchman, oltreché – fatto per nulla trascurabile – nelle strategie pragmatiste di volta in volta adottate da filosofi che non si dichiarano espressamente o compiutamente pragmatisti (quali, per es., Davidson e Hilary Putnam).
Il neopragmatismo americano nella transizione al nuovo secolo rivendica e pone in primo piano l’istanza di una razionalità non più concepita in termini puramente concettuali e intellettuali, bensì radicata in abiti di credenze e di azioni che hanno come sfondo una forma di vita, un contesto antropologico socioculturale in cui i processi del linguaggio, dell’espressione e della comunicazione sono concepiti come manifestazioni di un’arte sociale e non già come fenomeni di un’esperienza privata, in prima persona, del soggetto conoscente della tradizione metafisica. Come ideologia liberale e democratica, il neopragmatismo riscopre e rivendica i valori etico-sociali celebrati da William James fino a John Dewey, ne recupera la matrice naturalistica e consegna la razionalità a una concezione antimetafisica, storicista e antifondazionalista. Riprendendo un tema decisivo e distintivo di James, Rorty attacca la nozione tradizionale di verità come corrispondenza come quella concezione che, per un bisogno di sicurezza e di stabilità, anche sul piano sociale, delinea la realtà come se essa fosse già prestabilita e predefinita e fosse out there (là fuori) per essere scoperta e rappresentata. Di questo atteggiamento è testimonianza significativa la frequenza delle metafore visive fin dalla filosofia antica. Ma bersaglio del neopragmatismo è appunto il rappresentazionalismo, ossia la concezione secondo la quale la conoscenza e la sua verità consisterebbero in una rappresentazione adeguata (adequate representation) del mondo. Concezione che storicamente ha trovato la sua definizione e la sua focalizzazione dal momento in cui René Descartes ha trasformato la filosofia in una epistemologia avente come protagonista un soggetto spettatore di idee chiare e distinte, generando da un lato la tradizione della filosofia razionalistica e dall’altro prestando la strumentazione analitica alla scuola dell’empirismo inglese, a partire da John Locke il quale fonda quello che Sellars definirà «the myth of the immediately given», il mito filosofico del dato immediato come banco di prova della razionalità e della verità. Facendo esplodere quel mito filosofico, sulle tracce dell’opera di Gilbert Ryle The concept of mind (1949), Sellars e poi Rorty hanno sostituito alla razionalità e alla verità come rappresentazioni adeguate della realtà il concetto di giustificazione. Avanzando una concezione linguistico-sociale della consapevolezza in luogo di un concetto di verità astorico, atemporale e apodittico, essi hanno introdotto la nozione di giustificazione, ossia l’attitudine e la capacità di addurre ragioni e motivazioni a favore di un asserto in un contesto argomentativo. Il mito del dato immediato, caratteristico della tradizione empiristica – da Locke a David Hume, George Berkeley, Russell, Ayer fino ai neopositivisti – è dissolto. Rorty e Sellars risolvono la nozione di verità in quella di giustificazione, ossia di asseribilità garantita nello spazio logico del chiedere e del dare ragioni: «Nel caratterizzare un episodio o uno stato come proprio del conoscere, noi non stiamo dando una descrizione empirica di quell’episodio o stato: noi lo stiamo collocando nello spazio logico delle ragioni, della giustificazione e dell’essere in grado di giustificare ciò che si dice» (W. Sellars, Science, perception and reality, 1963, p. 169).
Il linguaggio comune e le teorie scientifiche non vengono confrontate con la realtà, ma si misurano in modi alternativi con un mondo che è previamente articolato dal codice di un linguaggio. In questo senso, il rifiuto del mito filosofico del dato immediato dell’esperienza e la concezione pragmatista delle teorie come strumenti porta a concludere che le teorie non implicano l’esistenza degli oggetti e dei fatti ai quali si riferiscono. La linguisticità dell’esperienza esclude che l’osservazione empirica, la Konstatierung dei neopositivisti viennesi, sia fondata su un genere primitivo di consapevolezza preconcettuale. Se la filosofia analitica di esportazione europea nel corso degli anni Trenta e Quaranta del secolo scorso aveva conquistato un’egemonia indiscussa nella cultura filosofica degli Stati Uniti, relegando il pragmatismo tradizionale a un ruolo marginale, è proprio in forza dell’assorbimento del linguistic turn che il pragmatismo può compiere decisivi avanzamenti nel dibattito sulla razionalità all’affacciarsi del 21° secolo. È in virtù infatti del parametro della linguisticità che il neopragmatismo di Rorty e di Robert Brandom acquisisce nuove valenze sul terreno di questa discussione. Se infatti il pragmatismo tradizionale, da James a Dewey, riconduceva il predicato di verità al risultato utile di un processo, di un’azione o di una procedura, attraverso le opere di Rorty e di Brandom la nozione di utilità si connette alla funzione dinamica e mediatrice dell’inferenza linguistica. In altri termini, attraverso l’articolazione linguistica l’enfasi non è più circoscritta al risultato utile di un’azione, quale che sia ivi compresa l’asserzione, ma è estesa alla funzione prassiologica dell’inferire giustificazioni, motivazioni e ragioni, e della capacità di stabilire nuove, inaudite connessioni tra parole e concetti. Non è più una realtà prestabilita e predefinita che aspetta out there di essere scoperta e portata alla luce a costituire il fondamento della nozione di verità e di razionalità dei filosofi neopragmatisti contemporanei, bensì è il ruolo della credenza (belief) a costituire il valore normativo di ciò che essi riconoscono come verità. Riecheggiando James, Rorty ribadisce che «true is what is good in the way of belief», vero è ciò che è buono, valido dal punto di vista della credenza. La verità cessa di avere implicazioni ontologiche, metafisiche e perfino epistemiche: essa diviene una strategia pragmatica sullo sfondo di valori socialmente condivisi come la solidarietà, intesa dai neopragmatisti non solo nei termini psicologici di empatia e di atteggiamento cooperativo, ma anche in quelli di una condivisione di norme, procedure e scopi; e in questo senso anche la scienza fisico-matematica è un’impresa solidaristica che presuppone – in analogia con l’epistemologia dei paradigmi di Kuhn – la condivisione di obiettivi, valori, costellazioni di concetti, modelli formali, procedure e apparati teorico-sperimentali. Ma, e questo è uno dei punti distintivi del neopragmatismo, la rete e l’articolazione del discorso non riflette, non rispecchia una realtà o un ordine di razionalità prestabiliti. L’esercizio della razionalità può articolarsi in due modi fondamentali secondo Rorty: l’uno è costituito dalle ordinarie pratiche inferenziali fra proposizioni all’interno di un linguaggio condiviso (ossia, la scienza normale di Kuhn che riflette the epistemology of the day), l’altro è costituito dall’invenzione di nuovi vocabolari alternativi (per es., le rivoluzioni scientifiche, un nuovo lessico poetico, una nuova teoria dell’armonia musicale e simili).
La dissoluzione del primato scientifico della filosofia ha altresì portato Rorty a sollevare i testi letterari e poetici a una pari dignità rispetto a quelli filosofici e scientifici. In una conferenza tenuta in Italia nel 2005 il filosofo americano diceva che «al cuore del pragmatismo c’è il rifiuto della teoria della verità come corrispondenza – dell’idea che gli enunciati veri debbano essere rappresentazioni accurate della realtà. Al cuore del romanticismo è la dottrina del primato dell’immaginazione sulla ragione – della tesi che la ragione può soltanto percorrere i sentieri che l’immaginazione ha aperto. Entrambi questi movimenti sono stati reazioni contro l’idea che vi sia qualcosa di non-umano là fuori (out there) con cui gli esseri umani dovrebbero mettersi in contatto. L’effetto di entrambi è stato quello di portare la poesia al centro della cultura – il luogo un tempo occupato dalla teologia e più tardi dalla filosofia». Non c’è solo il pragmatismo di quelle che sono vere e proprie azioni, ossia modificazioni della realtà pratica, ma per Rorty esiste anche un pragmatismo testuale. Si potrebbe dire con Wittgenstein che «le parole e i concetti sono azioni». Di qui l’importanza che Rorty attribuisce alla poesia: fra i tanti esempi il suo commento, ancora inedito, al saggio di Percy Bysshe Shelley, A defence of poetry. La poesia è una matrice generatrice di metafore, live metaphors. Questa concezione della metafora si distingue da quella tradizionale e originariamente aristotelica secondo la quale la metafora sarebbe un discorso figurato sempre suscettibile di essere parafrasato nel linguaggio ordinario di codice.
La live metaphor di Rorty invece è un costrutto nuovo, originario, inaudito che non è vero né falso, ossia non è un buon candidato per il calcolo delle funzioni di verità; un costrutto inoltre che addirittura non ha nemmeno significato in quanto non è decodificabile rispetto al linguaggio ordinario. Ma è proprio attraverso la produzione di metafore vive che gli esseri umani danno espressione e voce alla propria identità personale. Infatti, abbandonata come impraticabile una concezione sostanzialistica e aprioristica dell’io, Rorty ravvisa nella costruzione narrativa la matrice dell’identità personale. È piuttosto la prassi d’uso del vocabolario e della grammatica adottati che stabilisce quello che possiamo poi definire come un ordine possibile della razionalità. Ed è a partire da una prassi effettuata che possiamo risalire ai titoli della razionalità e della verità. Questa concezione concerne il sapere scientifico, le procedure della vita quotidiana, le relazioni sociali, ma anche i processi dell’identità personale. Abbandonato il mito filosofico di un io sostanziale o quello di un io trascendentale che accompagnerebbe secondo Immanuel Kant le nostre rappresentazioni, i neopragmatisti scoprono nella narrazione, nella testualità narrativa la fonte dell’identità personale. Dire quello che si è, è dire quello che ne è stato di noi mentre eravamo alle prese con il problema di definire la nostra identità. Alasdair McIntyre definisce la narrazione la fonte principale del sapere sociale e questa consapevolezza ha prodotto una grande svolta negli studi sulle istituzioni sociali, aziende e organizzazioni produttive (Czarniawska 1997; Gabriel 2000). Ogni narrazione sancisce una nuova nascita dell’individuo, lo stile secondo il quale e nel quale ciascuno esige, in base alla propria narrazione, di essere compreso dagli altri membri della comunità sociale. Ma se non esiste un ordine aprioristico e apodittico di razionalità, come si può spiegare la presenza dell’errore? I neopragmatisti rifiutano di declinare il discorso filosofico in termini di teorie, di costruzioni concettuali sistematiche e in questo senso non v’è errore di carattere filosofico. Così come la verità è un successo della prassi riuscita, così anche l’errore, il falso sono modalità dell’azione. Secondo Rorty la concezione del moto di Aristotele, la dottrina dell’adaequatio rei et intellectus, il foro interno di Descartes, la dottrina dell’intenzionalità di John Searle, e infine, i sense-data di Russell e di Ayer non sono errori filosofici, per la semplice ragione che i loro autori li hanno semplicemente inventati mentre credevano di scoprirli.
L’aspetto più nuovo e originale del neopragmatismo in questi anni è costituito dall’impronta prassiologica che sancisce il primato dell’espressione rispetto alla verità. Questo tratto distintivo trova la sua elaborazione più avanzata nell’opera di R. Brandom, Making it explicit (1994; ma v. anche Brandom 2000), secondo la quale il compito della razionalità consiste fondamentalmente nel portare a un livello di espressione esplicita le connessioni e le inferenze che a livello implicito e anche inconsapevole guidano le pratiche simboliche umane. Non esiste, secondo Brandom, una struttura logica prestabilita e preordinata sottostante ai nostri esercizi di pensiero e di linguaggio. La razionalità si costruisce piuttosto passo passo attraverso una pratica espressiva esercitata nel processo di chiedere e dare ragioni a sostegno delle asserzioni proferite e scambiate fra gli interlocutori. Gli interlocutori sono presi in questo gioco di scambio di ragioni e giustificazioni da un impegno di carattere normativo, deontico consistente nel rispetto del commitment, della responsabilità assunta nei confronti di un proferimento e nell’entitlement, ossia nell’aver titolo competente in sostegno di un dato proferimento. Attraverso la pratica dello scambio di ragioni e giustificazioni, gli interlocutori conseguono un punteggio, uno scorekeeping, rispetto ai proferimenti di cui si dichiarano assertori. Ma appunto ciò che essi devono portare all’esplicitazione non è una struttura logica prefissata e sedimentata quale presunto deposito della razionalità e della verità, bensì relazioni e inferenze materialmente valide di carattere contenutivo per la scoperta ed esplicitazione delle quali la logica risulta essere lo strumento, ma non il fondamento. Di qui il carattere contenutistico e materiale – non logico-formale – delle inferenze implicite. Il pragmatismo razionalistico e inferenziale di Brandom rovescia il modello normale e tradizionale di origine platonica secondo il quale prima si ha una presa sulla verità e poi si spiega l’inferenza, prima ci sono le cose o i loro concetti, ossia i referenti o designata, e poi seguono le inferenze su di essi. Al contrario, Brandom sostiene la priorità dell’inferenza rispetto alla verità, così come asserisce la priorità dell’inferenza rispetto alla referenza. Il punto centrale presentato da Brandom, sulla scorta di Sellars, è che avere un contenuto concettuale è praticare un ruolo nel gioco inferenziale di proferire asserzioni e dare e chiedere ragioni. In questo senso Brandom riconduce l’asserito all’atto dell’asserire, il fatto all’atto del fare. La logica pertanto non è la struttura sottostante alle nostre pratiche e ai nostri abiti di pensiero e di linguaggio, bensì risulta essere lo strumento formale per investigarli nel gioco del dare e chiedere ragioni dei nostri proferimenti, ossia di inferenze materialmente valide. Il processo dell’esplicitazione, del making it explicit, stabilisce la transizione dalla capacità di fare, da una competenza pragmatica, da un know-how, a un sapere, a un know that. Un esempio del primato prassiologico nella concezione della razionalità di Brandom lo si può cogliere nelle forme che egli adduce di sillogismo pratico: «piove e quindi se voglio rimanere asciutto devo prendere l’ombrello». Davidson ha obiettato che l’inferenza è scorretta in quanto non sarebbe valida per chi assumesse la premessa di lasciarsi bagnare dalla pioggia, come Gene Kelly in Singing in the rain. Ma va osservato che l’inferenza risulterebbe scorretta nel presupposto di uno sfondo completo, esaustivo di tutte le premesse possibili, ossia di una versione tradizionale di una razionalità dispiegata e onnicomprensiva. Ma appunto la forza dell’inferenza materialmente valida è quella di stabilire pragmaticamente la connessione di quel sillogismo pratico senza dover assumere che tutte le possibili premesse siano già definite da sempre. «Ma il fatto che l’aggiunta di una premessa incompatibile con il desiderio di restare asciutti infirmerebbe l’inferenza (la tramuterebbe in una cattiva inferenza) non dimostra che questo desiderio svolgesse già da prima il ruolo di premessa implicita: una simile conclusione si renderebbe necessaria solo se il ragionamento in questione fosse monotonico [...]. Ma l’inferenza materiale non è in generale monotonica» (Brandom 2000; trad. it. 2002, p. 91).
L’impronta prassiologica ridimensiona il ruolo della logica formale nel pragmatismo razionalistico di Brandom; la logica non risulta più essere un campo distintivo e specifico di inferenze formali e, in questo capovolgimento di prospettiva, essa risulta invece essere al servizio di un materiale o contenuto non logico-formale. «La logica è piuttosto lo studio dei ruoli inferenziali di parti del lessico che svolgono un ruolo espressivo particolare, quello di codificare in forma esplicita le inferenze implicite nell’uso del vocabolario ordinario, non logico. [...] Il compito della logica è principalmente quello di aiutarci a dire qualcosa sui contenuti concettuali espressi utilizzando il vocabolario non logico, non quello di provare qualcosa sui contenuti concettuali espressi utilizzando il vocabolario logico. Secondo questa concezione, la correttezza formale dell’inferenza, che riguarda essenzialmente il suo vocabolario logico, deriva dalla correttezza materiale dell’inferenza, che riguarda essenzialmente il suo vocabolario non logico, e dev’essere spiegata in questi termini piuttosto che nel senso opposto. Di conseguenza, la logica non è un canone o uno standard di retto ragionamento» (p. 39).
L’espressivismo assume dunque un ruolo prioritario e prevalente rispetto alla procedure delle dimostrazioni logico-formali. Tuttavia l’espressivismo del pragmatismo razionalista implica anche il rifiuto della conoscenza come rappresentazione e della epistemologia e della sematica del rappresentazionalismo filosofico. «Il pragmatismo in materia di norme implicite nell’attività cognitiva ci deriva da tre linee di ricerca indipendenti della prima metà del Novecento: il pragmatismo classico americano, che ha il suo culmine in Dewey, lo Heidegger di Essere e tempo e il Wittgenstein delle Ricerche filosofiche [...] Inoltre, Dewey e James, il primo Heidegger e l’ultimo Wittgenstein si opposero tutti, ciascuno a suo modo, al paradigma semantico della rappresentazione» (pp. 42-43).
L’impronta linguistico-espressivista del pragmatismo razionalista di Brandom genera spiegazioni che prendono il loro avvio non da inferenze relative alle forme degli enunciati, bensì dalle inferenze materiali o di contenuto corrette. L’inferenza non riflette una forma logica prestabilita e prefissata, ma traccia il gesto originario di una connessione tra contenuti. Per inferire qualcosa bisogna fare qualcosa, occorre cioè produrre un’estensione non conservativa del linguaggio. L’esercizio della razionalità non consiste per Sellars, Rorty e Brandom nell’illuminazione di un’intuizione introspettiva cartesiana, bensì nella padronanza pratica (practical mastering) di un certo agire inferenziale. A sua volta, questa padronanza si manifesta in una prassi linguistica, e per questa ragione da James a Dewey, da Sellars a Rorty e Brandom «afferrare un concetto è padroneggiare l’uso di una parola».
Una nuova relazione fra semantica ed epistemologia
Nell’esordio del 21° sec. le istanze ineludibili della linguisticità, della ‘schiusura linguistica’ propria della filosofia ermeneutica o della svolta linguistica, nel caso della filosofia analitica, si intrecciano criticamente in una costellazione di componenti semantiche e di fattori epistemologici che devono restituire una normatività ai processi cognitivi e comunicativi e un controllo sperimentale dei fatti intramondani. Questo è il progetto che viene ora avanzato da Jürgen Habermas e da Karl-Otto Apel. Sottratta all’autosservazione introspettiva di tipo cartesiano, ha osservato Habermas, l’esperienza «viene analizzata nel contesto di verifica di azioni guidata dall’esperienza, dal punto di vista di un attore coinvolto. Il mentalismo viveva del ‘mito del dato’; dopo la svolta linguistica ci è inibita una presa linguisticamente immediata su una realtà interna o esterna. La presunta immediatezza delle impressioni sensoriali non funge più da infallibile istanza d’appello» (Habermas 1999; trad. it. 2001, p. 16). Se Habermas si riconosce nella svolta pragmatica di Rorty e se inoltre respinge come impraticabile la concezione realista della conoscenza fondata sulla corrispondenza fra proposizioni e fatti, nondimeno egli ripropone l’esigenza di una nozione di referenza che giustifichi la circostanza che noi riusciamo a riferirci al medesimo oggetto o al medesimo fatto sia pure attraverso descrizioni e teorie diverse. Queste istanze definiscono la complessità del progetto filosofico di Habermas e di Apel. Se da un lato essi riconoscono la svolta linguistica, dall’altro lato non intendono assumerla come una struttura rigida, prefissata e come tale immodificabile (sia nel caso di Heidegger e della sua dottrina dell’ascolto della voce dell’Essere, sia nel caso di Wittgenstein dello Sprachspiel, del «gioco linguistico»). Al contrario, la pragmatica dell’esperienza e della ricerca sui fatti intramondani ha la facoltà di modificare e perfezionare l’assetto linguistico-concettuale di una cultura. Se la cartina della reazione al tornasole dovesse colorarsi di azzurro, anziché di rosso, questa circostanza modificherebbe il nostro concetto di sostanza acida. In altri termini, non esiste una pragmatica univocamente e asimmetricamente determinata dall’assetto semantico di una cultura, ma c’è uno scambio di azioni e reazioni fra l’assetto semantico e la prassi della ricerca empirica di quella cultura. Pertanto – e questa è precisamente la critica che Habermas e Apel dirigono nei confronti del neopragmatismo di Rorty, Sellars e Brandom e di certa parte della filosofia analitica – l’inevitabile istanza realista immanente alla conoscenza ci impone di oltrepassare il confine della linguisticità. «Comunque ci si immagini la funzione rappresentativa delle asserzioni, come ‘soddisfacimento’ di condizioni di verità oppure come ‘adattarsi’ dei fatti alle proposizioni, si avranno sempre davanti agli occhi immagini di relazioni che vanno oltre il linguaggio» (Habermas 1999; trad. it. 2001, p. 245).
Ma il superamento del confine linguistico, ossia la combinazione di componenti semantiche e di apprendimento epistemico dei fatti intramondani, in conformità al requisito realista ripropone la distinzione fra verità e giustificazione. Se gran parte dell’epistemologia analitica nel corso del 20° sec. aveva identificato la verità con il concetto di giustificazione, ora, all’inizio del 21° sec., Habermas ripropone questa distinzione sulla base del sospetto del fallibilismo che deve accompagnare il compimento di qualsiasi conoscenza. Se la giustificazione è il contesto delle ragioni che possono essere validamente addotte per corroborare un asserto, la verità è invece il valore-limite in considerazione del quale possiamo respingere una giustificazione come illegittima. Si tratta per Habermas di un concetto non epistemico di verità in quanto assolve piuttosto a una normatività di condizioni ideali immanente alla sua pragmatica trascendentale. Non è un concetto epistemico di verità in quanto è una sorta di idea-regolativa di impianto kantiano, quale era stata teorizzata anche da Hilary Putnam nel volume di circa vent’anni prima, Reason, truth and history (1981; trad. it. 1985) al quale Habermas si sente vicino. Nel confronto fra semantica e pragmatica le conoscenze vengono allora interpretate da Habermas come riconoscimenti di delusioni epistemologiche performativamente esperite. «All’accertamento autoriflessivo di una soggettività attiva in foro interno, al di là dello spazio e del tempo, subentra, allora, l’esplicarsi di un sapere che è di natura pratica e mette soggetti capaci di linguaggio e di azione in grado di partecipare a siffatte pratiche superiori e di fornire prestazioni corrispondenti [...]. Nella visuale pragmatista le ‘conoscenze’ risultano dalla rielaborazione intelligente di delusioni esperite performativamente» (Habermas 1999; trad. it. 2001, pp. 15 e 17).
La crisi della traducibilità universale dei linguaggi
Conclusivamente, si può osservare come l’affacciarsi del 21° sec. non presenti nuove proposte teoriche forti, nuovi paradigmi di ricerca, ma piuttosto proponga una sobria linea di contenimento, rielaborazione e revisione di programmi già introdotti nel secolo scorso. Se sul piano della cultura di ispirazione ermeneutica il postmodernismo e il decostruzionismo mostrano di essere avviati verso un processo di dissolvenza, come testimonia anche il revival di una filosofia ontologica che in parte subentra al suo posto e nei suoi stessi fautori e interpreti, su quello della filosofia analitica si constata la crisi dei grandi impianti teoretici ai quali subentra una varietà di modalità riflessive che interessano sia la ricerca teoretica pura sia l’esegesi e la ricostruzione storiografica. È un significativo sintomo di questa situazione culturale la crisi della nozione di verità, una crisi in cui, fra ridondantismo, deflazionismo e minimalismo, si sospende la legittimità di un ordine concettuale universale della razionalità, di un super-ordine di super-concetti, mentre si avalla la presenza di una razionalità scettica. La sequenza e la consistenza delle critiche al programma di Davidson, come abbiamo visto, mettono in dubbio il principio della traducibilità universale dei linguaggi e delle culture diversi riaprendo ed estendendo i margini dell’incommensurabilità delle teorie filosofiche e scientifiche. Soprattutto mettono in evidenza la circostanza che se la traducibilità è possibile, lo è in quanto risulta possibile costruirla con procedure semantiche e pragmatiche, non già alla luce di principi astorici e atemporali. A un’analoga crisi è andata incontro la teoria dei mondi possibili di S. Kripke, che aveva tentato di sostituire a una teoria del significato intensionale una teoria del riferimento diretto, distinguendo la capacità di riferimento di un termine a un oggetto o un’entità (per es. di ‘gatto’) dalla conoscenza di tale oggetto o entità. Quantunque le nostre conoscenze scientifiche dei gatti siano enormemente superiori a quelle degli antichi egizi, costoro non avevano una minore capacità di riferimento nei confronti dei gatti. L’argomento di Kripke aveva una sua efficacia contro la semantica tradizionale di carattere intensionale: quest’ultima ravvisava infatti nel significato (descrizione, definizione, senso, intensione) di una parola la via del riferimento. Ma i controfattuali mettevano in dubbio la semantica intensionale: infatti, se cambiamo il senso, ossia la descrizione di un concetto, come possiamo garantire che stiamo trattando ancora del medesimo oggetto? Se parliamo di Dante che non ha scritto la Divina commedia o che non ha conosciuto Beatrice, stiamo ancora identificando Dante? Bisognava, secondo Kripke, abbandonare i significati come merce inutile e abbracciare la dottrina dei «designatori rigidi», ossia stabilire causalmente nomi come riferimenti diretti degli oggetti (al di fuori di pratiche conoscitive) e poi farli accedere a mondi possibili, in ciascuno dei quali gli oggetti considerati potevano assumere significati e proprietà eventualmente differenti senza perdere la sicurezza del riferimento e senza generare contraddizioni e anomalie. Ma, ecco il problema, la teoria di Kripke non sembra in grado di fronteggiare la dinamica dei concetti scientifici nel senso che la stessa nozione di «designatore rigido» perde la sua legittimità allorquando non possiamo garantire o riconoscere l’identità di un oggetto. Se la massa per Isaac Newton è una cosa, ossia la quantità di materia racchiusa nell’unità di volume, qual è il designatore rigido di essa allorché Ernst Mach definisce la massa come la relazione tra le accelerazioni che si imprimono due corpi reciprocamente? La storia della massa è una storia diversa dalla storia dei gatti e degli egizi.
La stessa pervasività del neopragmatismo, non solo di quello espressamente professato e teorizzato, ma di quello che circola in questi anni in forma implicita e tacita, costituisce la conferma di una crisi della ragione classica quale sistema e repertorio di concetti universali, astorici e atemporali. La prassi è il fattore o l’elemento che viene a saturare quelle lacune, quei salti che nelle inferenze sono lasciati scoperti da una razionalità classica che era stata idealizzata e sublimata, che era assurta a grande, e forse al più grande, mito filosofico. Il 21° sec. nel suo esordio sembra commentare questa situazione di crisi della ragione, riesaminando i blocchi teorici trasmessi come eredità del passato attraverso metodologie e riflessioni che alla contrapposizione forte antepongono un’analisi critica circostanziata e un riesame di ciò che si pretende dalla filosofia. La crisi della razionalità classica viene a implicare una cifra più variegata e complessa dei modi di fare filosofia, coinvolge un’ibridazione e un’osmosi di codici intellettuali e disciplinari eterogenei. Ne sono una prova, per es., in questi anni l’interesse crescente della filosofia nei confronti della poesia e della narrazione o viceversa il ruolo che vengono a svolgere riflessioni di carattere eminentemente filosofico in testi di fisica teorica (Lee Smolin, Julian Barbour, Roger Penrose, Brian Green, Carlo Rovelli) apparsi a partire dal 2000 in un contesto di alternative teoriche che non hanno o non hanno ancora avuto una conferma sperimentale.
Un altro aspetto significativo di tale varietà e complessità è fornito da nuove esegesi storiografiche che appaiono meno dipendenti dalle pratiche istituzionalizzate e canoniche di analisi e di ricerca. In questa direzione una testimonianza significativa è costituita da un gruppo di autorevoli filosofi americani, fra i quali S. Cavell, Michael Kremer, Warren Goldfarb, Cora Diamond, James Conant, Arnold Davidson, i quali assumono il lavoro filosofico come un processo di rigenerazione interiore, di rinascita etica e talora di terapia logico-linguistica. Alcuni di loro hanno contribuito al volume, apparso nel 2000, significativamente intitolato The new Wittgenstein, la cui tesi fondamentale consiste nel ravvisare nel Tractatus logico-philosophicus non già l’analisi di proposizioni – che come tali sarebbero insensate – bensì il raggiungimento di un nuovo atteggiamento interiore, di un nuovo modo di guardare all’esperienza da parte del lettore e perfino dell’autore attraverso proposizioni riconosciute come insensate dal loro stesso autore.
La transizione dalla filosofia analitica – centrata su un’analisi teorica sistematica e fondazionalista del linguaggio e su metodologie canoniche di ricerca – alla filosofia postanalitica, antifondazionalista, antiessenzialista, scevra da canoni rigidi di indagine, comporta un’estensione dei vocabolari filosofici, una cifra analitica più complessa, una loro articolazione lungo argomentazioni che connettono tematiche e istanze tra loro differenti e variegate. Ne sono testimonianza i saggi raccolti in L’immaginazione e la vita morale (2006) di Diamond, la quale attacca severamente lo scolasticismo della tradizione etica proprio della filosofia analitica, che aveva generato il mito filosofico dei valori come se essi fossero racchiusi magicamente in concetti e parole quali ‘bene’, ‘dovere’, ‘virtù’ e simili, quasi che questi termini contenessero ed esprimessero i valori attraverso una suggestione ipnotica. Laddove per Diamond quei concetti e quelle parole devono essere considerati non come etichette di valori, ma come speech organizers, come organizzatori di un discorso che coinvolge in un unico contesto discorsivo processi cognitivi, atteggiamenti valoriali, attitudini pratiche, emozioni, affetti, sentimenti, immaginazione, linguaggio e memoria. L’etica ha un carattere complessivo e la filosofia dell’etica per Diamond, così come per John McDowell, consiste nel restituire agli uomini i concetti che essi hanno perduto, di cui risultano mutilati – in una parola consiste nel ritornare a essere umani.
Bibliografia
B. Czarniawska, Narrating the organization. Dramas of institutional identity, Chicago-London 1997 (trad. it. Torino 2000).
R. Rorty, Truth and progress, Cambridge-New York 1998 (trad. it. Milano 2003).
J. Habermas, Wahrheit und Rechtfertigung. Philosophische Aufsätze, Frankfurt am Main 1999 (trad. it. Roma-Bari 2001).
R. Brandom, Articulating reasons. An introduction to inferentialism, Cambridge (Mass.)-London 2000 (trad. it. Milano 2002).
Y. Gabriel, Storytelling in organizations. Facts, fictions, and fantasies, Oxford 2000.
S. Soames, Philosophical analysis in the twentieth century, Princeton 2003.