La seconda rivoluzione scientifica: introduzione. Filosofia e pratica matematica
Filosofia e pratica matematica
Quando si parla di 'seconda rivoluzione' scientifica si pensa di solito a quanto è avvenuto in fisica con la teoria della relatività e la meccanica quantistica. Ma anche in matematica, come in molti altri campi della scienza, tra gli ultimi decenni dell'Ottocento e la Seconda guerra mondiale è avvenuta una trasformazione radicale, una vera e propria 'rivoluzione', che ha cambiato non solo il linguaggio, ma anche i metodi e gli oggetti stessi d'indagine. Guardando ai mutamenti più profondi che in poco più di mezzo secolo hanno caratterizzato l'evoluzione di questa scienza ci si rende conto in realtà di una duplice 'rivoluzione', da un lato nella 'filosofia' e nei metodi adottati da questa scienza; dall'altro nell'ontologia, nella natura stessa degli enti che costituiscono l'oggetto di ricerca del matematico. Da un lato il ruolo fondamentale assunto dal metodo assiomatico, dall'altro l'emergere del concetto di struttura astratta. Entrambi questi processi hanno origine negli anni Settanta dell'Ottocento e vengono a maturazione nell'immediato secondo dopoguerra.
Nel corso dell'Ottocento lo sviluppo della matematica si era accompagnato a un processo di crescente specializzazione e divisione dei campi di ricerca. Le antiche teorie si erano arricchite di nuovi risultati, teorie interamente nuove si erano costituite, in rapida e autonoma crescita. Al tempo stesso, la ricchezza, l'estensione e la varietà delle branche della matematica avevano posto ai matematici più avvertiti il problema della ricerca di strumenti concettuali in grado di abbracciare gli elementi fondamentali delle varie teorie, di assicurare una comprensione unitaria delle diverse branche della loro scienza. Paradigmatico era il caso della geometria. Alla classica teoria euclidea nel corso del secolo si erano affiancate la geometria proiettiva, le geometrie non euclidee, l'analysis situs, lo studio delle proprietà di spazi a quante si vogliano dimensioni. "La geometria, che pur è unica nella sua sostanza, nel rapido sviluppo cui andò soggetta negli ultimi tempi si è troppo suddivisa in discipline quasi separate, che vanno progredendo alquanto indipendentemente le une dalle altre", scrive Felix Klein (1872, p. 13) nel Programma di Erlangen, motivando l'introduzione di un 'principio generale' secondo il quale organizzare le varie teorie geometriche e "mettere in rilievo ciò che v'ha di comune e di diverso in ricerche intraprese" in contesti e con obiettivi tra loro indipendenti.
Non altrimenti stavano le cose nel campo dell'analisi, dove la classica teoria delle funzioni di variabile reale, dopo i lavori di Georg Cantor e Karl Theodor Wilhelm Weierstrass, si era arricchita di raffinatezze (e patologie) impensabili solo all'inizio del secolo come funzioni continue in nessun punto derivabili, funzioni discontinue in un'infinità di punti eppure integrabili che sfidavano l'intuizione geometrica. A essa si erano affiancate, fino ad assumere una posizione dominante, l'analisi complessa e le teorie interamente nuove come la teoria delle funzioni ellittiche e abeliane, le funzioni modulari e automorfe. E poi ancora gli sviluppi della teoria delle equazioni differenziali e del calcolo delle variazioni, e i nuovi campi della teoria delle forme algebriche (e differenziali) e dei loro invarianti. "Non è imminente per la matematica ciò che da lungo tempo è già accaduto per le altre scienze, cioè di dividersi in sottoscienze i cui esponenti difficilmente si comprendono ancora tra di loro e le cui connessioni perciò si allentano sempre più?" si chiedeva allarmato David Hilbert chiudendo la sua celebre conferenza al Congresso di Parigi del 1900.
Più che certezze, la sua risposta esprimeva un'intima convinzione e un auspicio. "Io credo e mi auguro di no", affermava Hilbert. "A mio parere, la scienza matematica è un tutto indivisibile, un organismo la cui vitalità è condizionata dall'interconnessione delle sue parti". Questa è affidata allo strumento logico comune che sta alla base dei singoli contenuti matematici, all'affinità nel processo di formazione delle idee e alle numerose analogie tra le diverse discipline matematiche. "è nell'essenza della scienza matematica ‒ affermava con forza Hilbert ‒ che ogni suo reale progresso vada di pari passo con l'individuazione di strumenti più penetranti e di metodi più semplici che, al tempo stesso, facilitano la comprensione di teorie precedenti e mettono da parte vecchi e complicati modi di procedere" (Hilbert 1900, p. 161). Quello che Hilbert aveva in mente era il metodo assiomatico, della cui portata ed efficacia egli stesso aveva dato un saggio nei Grundlagen der Geometrie (Fondamenti della geometria, 1899a). Quel metodo doveva diventare la chiave di volta della sua concezione dell'intera matematica.
Le parole di Hilbert trovano conferma non solo nella storia più lontana, ma anche negli sviluppi più recenti della matematica. Nei primi cinquant'anni del XX sec. il processo di crescita delle discipline matematiche si è accentuato al punto che "nessun matematico, neppure consacrandovi tutta la sua attività, sarebbe al giorno d'oggi in grado di seguire questi sviluppi in tutti i loro dettagli" ha scritto Nicolas Bourbaki (1962, p. 36). Se si pensa che le conoscenze matematiche acquisite in quel periodo superano di gran lunga quelle raggiunte nell'intera storia precedente dell'umanità, ci si rende conto della torrenziale crescita di questa scienza.
Ma ci si può domandare ‒ continua Bourbaki ‒ se questa proliferazione esuberante sia lo sviluppo di un organismo vigorosamente strutturato, che acquista ogni giorno maggiore coesione e unità dagli incrementi che riceve o se, al contrario, questo non è che il segno esteriore di una tendenza verso una sempre più accentuata dispersione, dovuta alla natura stessa della matematica, e se questa non stia diventando una torre di Babele di discipline autonome, isolate le une dalle altre, sia nei loro scopi, sia nei loro metodi e persino nel linguaggio. In una parola, al giorno d'oggi c'è una matematica o delle matematiche? (ibidem)
La risposta che dà Bourbaki non è in fondo diversa da quella che aveva fornito a suo tempo Hilbert. È la ribadita convinzione che "l'evoluzione interna della scienza matematica abbia, malgrado le apparenze, rafforzato più che mai l'unità delle sue diverse parti e abbia creato una sorta di nucleo centrale più coerente di quanto non sia mai stato". L'essenziale di quel nucleo, afferma Bourbaki, è il metodo assiomatico che garantisce "l'intellegibilità profonda della matematica". Guidato dal metodo assiomatico, il matematico riconosce nell'universo delle teorie una gerarchia di strutture astratte, che vanno dal semplice al complesso, dal generale al particolare.
Si tratta di una concezione che ha cominciato a delinearsi alla fine dell'Ottocento, e si è affermata, non senza difficoltà e resistenze, come frutto della ricerca di punti di vista e teorie unitarie in grado di abbracciare campi sempre più vasti del sapere matematico. Nella storia della matematica le idee semplici vengono per ultime, ha detto una volta Jacques Hadamard (1865-1963). Così è avvenuto anche per il concetto di struttura. L'affermarsi di una concezione 'strutturale' in matematica può essere considerato come uno degli aspetti che meglio distinguono la concezione moderna di questa scienza da quella 'classica', ancora prevalente fin verso la metà del XIX secolo. È a partire da quell'epoca, infatti, che lo studio di particolari oggetti ‒ numeri, figure, funzioni ‒ lascia sempre più il posto a quello di 'classi' di oggetti, tra i quali intercorrono certe relazioni che godono di opportune proprietà. Il concetto di struttura ha consentito di trattare da un punto di vista simile domini all'apparenza lontani tra loro, raggiungendo così risultati impensabili nella matematica dei numeri e delle grandezze. Le prime a essere considerate sono state le strutture algebriche, a partire da quella di gruppo. Affacciatasi nei pionieristici (e a lungo incompresi) lavori di Évariste Galois (1811-1832) sulle equazioni algebriche negli anni Trenta del XIX sec., la nozione di gruppo si afferma solo con il classico Traité des substitutions (1870) di Camille Jordan (1838-1922), "un libro dai sette sigilli" come ebbe a dire Klein, che nel trattato di Jordan trovò la chiave per la classificazione delle diverse teorie geometriche presentata nel Programma di Erlangen.
Accanto al problema matematico di una comprensione unitaria delle varie teorie geometriche, sollevato da Klein, i nuovi sviluppi della geometria pongono un problema di carattere filosofico. Qual è il rapporto fra geometria e realtà? Nella Kritik der reinenvermunft im Grundrisse (Critica della ragion pura, parte I, sez. I, § 3) Kant aveva teorizzato "la certezza apodittica di tutte le proposizioni fondamentali della geometria" euclidea ossia il fatto che "la geometria è una scienza che determina le proprietà dello spazio sinteticamente, e tuttavia a priori" e dunque che "le proposizioni geometriche sono infatti tutte quante apodittiche, cioè connesse con la coscienza della loro necessità". Con le geometrie non euclidee era venuto meno il ruolo privilegiato che da sempre aveva avuto la geometria euclidea.
Prima ancora che contro la filosofia di Kant, allora largamente dominante, le nuove vedute della scienza geometrica urtano tuttavia contro il senso comune. Se le geometrie non euclidee rappresentano una rivoluzione, come molte volte si è scritto, si tratta di una rivoluzione non tanto in matematica quanto in filosofia; nel modo di concepire i rapporti tra la matematica e la realtà empirica. Intaccano la convinzione profondamente radicata che, per quanto astratta, la matematica trovi in quella fondamento ultimo e giustificazione. Ciò è tanto più vero per la geometria, che Newton e Gauss addirittura annoveravano tra le scienze empiriche. Gli assiomi di Euclide hanno un fondamento nella realtà dello spazio fisico. Qual è il carattere di realtà che si deve attribuire alle proposizioni della geometria di Nikolaj Ivanovič Lobačevskij? O alle speculazioni di Hermann Ernst Grassmann o di Georg Friedrich Bernhardt Riemann sugli spazi a n-dimensioni? Sono semplicemente finzioni matematiche, ardite costruzioni della fantasia creatrice dei geometri senza alcun rapporto con la realtà empirica? E se è così, venendo meno il ricorso all'intuizione spaziale, cosa può garantire la correttezza dei ragionamenti geometrici? Un modello euclideo della nuova geometria di Lobačevskij, in modo da tradurre gli enunciati di quest'ultima in enunciati della familiare geometria di Euclide, è l'originale risposta di Eugenio Beltrami, destinata a segnare una svolta epocale nell'affrontare il problema dei fondamenti.
Quando pubblica il suo Saggio di interpretazione della geometria non euclidea (1868) Beltrami è ben consapevole che i "tentativi di rinnovamento radicale dei principî" della geometria operati da Lobačevskij, János Bolyai e Riemann sembrano destinati a "mutare profondamente tutto l'ordito della classica geometria". A chi si fa scudo dell'autorità di Kant per difendere Euclide, Beltrami contrappone il patrocinio dato alle nuove teorie da "un'autorità imponente e fin qui indisputata" come quella di Gauss, il princeps mathematicorum. Convinto che "la critica profonda dei principî non può mai nuocere alla solidità dell'edificio scientifico", Beltrami assicura gli ancora numerosi detrattori delle nuove geometrie di aver cercato di "trovare un substrato reale a quella dottrina, prima di ammettere per essa la necessità di un nuovo ordine di enti e di concetti". È questo il senso del suo modello. Fornire un 'substrato reale' (cioè euclideo) alle proposizioni della geometria piana di Lobačevskij, che ammettono "un'interpretazione vera e propria, poiché diventano costruibili su una superficie sopra una superficie reale" (la pseudosfera).
Per Beltrami il problema della verità (assoluta) della geometria euclidea, che all'inizio del secolo si era posto per primo Gauss e che un grande logico come Gottlob Frege (1848-1925) ancora agita contro le nuove teorie geometriche (Tav. I), passa in secondo piano rispetto a quello della coerenza (relativa) della geometria non euclidea. Se in quest'ultima ci sono contraddizioni, è convinzione di Beltrami, si devono necessariamente tradurre in quella di Euclide.
Di fatto, l'originalità della proposta convince chi è già convinto, non certo gli oppositori e gli scettici. I critici più attenti mettono in discussione l'esistenza di superfici dappertutto regolari (cioè senza singolarità) come la pseudosfera, e rifiutano di credere che quello proposto da Beltrami costituisca un modello dell'intero piano di Lobačevskij ‒ e a ragione poiché, come mostrerà Hilbert nel 1901, si tratta solo di un modello locale e non globale.
Un approccio globale è dato da Klein nell'articolo Über die sogenannte nicht-euklidische Geometrie (Sulla cosiddetta geometria non-euclidea, 1871). Klein non intende avventurarsi sul terreno delle speculazioni filosofiche originate dai lavori di Lobachevskij, di Riemann o di Hermann von Helmholtz. Egli presenta invece i loro risultati in una nuova maniera intuitiva per favorirne una comprensione chiara e generale. La via che vi conduce passa attraverso la geometria proiettiva e prende le mosse dalla sesta (1859) delle Memoirs upon quantics che Arthur Cayley (1821-1895), pubblica fra il 1854 e il 1878. In quel lavoro Cayley considera l'interpretazione geometrica della teoria delle quantics (forme) e, per mezzo della teoria degli invarianti, illumina i reciproci rapporti tra geometria proiettiva e geometria metrica (euclidea). Egli si limita a considerare la geometria della retta e del piano (corrispondente alla teoria delle forme binarie e ternarie). L'idea fondamentale di Cayley è che per caratterizzare le proprietà metriche di una figura questa non vada considerata 'per sé', ma in connessione con un'altra figura, con una conica che chiama l'Assoluto. In particolare, fissando in maniera opportuna la conica di riferimento, la geometria metrica si rivela essere parte della geometria proiettiva e quest'ultima, conclude Cayley, è tutta la geometria.
Klein fa propria questa impostazione, ed estende i risultati di Cayley dal piano allo spazio. L'Assoluto non è più una conica di riferimento ma una 'quadrica fondamentale', dalla quale dipende la metrica dello spazio. Introducendo una terminologia rimasta in uso, Klein distingue le geometrie non euclidee in 'ellittica' (quando la superficie fondamentale è immaginaria) e 'iperbolica' (quando la superficie fondamentale è reale e non rigata). L'ordinaria geometria euclidea (o 'parabolica') costituisce il caso di transizione, quando la superficie fondamentale degenera in una curva immaginaria piana. Tutte queste geometrie si possono considerare come casi speciali (o sottogeometrie) della geometria proiettiva, che si rivela essere indipendente dal postulato euclideo delle parallele. Ecco perché Klein parla di 'cosiddette' geometrie non euclidee. Nella sua classificazione queste non occupano alcuna particolare posizione. Il loro statuto ontologico non si caratterizza (in negativo) rispetto alla geometria di Euclide ma, più semplicemente (e concretamente), rispetto a una superficie fondamentale di riferimento.
L'anno seguente, nel Programma di Erlangen, Klein presenta il 'modo generale di considerazione' che ha sviluppato in collaborazione con Sophus Lie (1842-1899) e che consiste nel considerare le proprietà geometriche rispetto a gruppi di trasformazioni. Il problema che Klein si pone è il seguente: "È data una varietà e in questa un gruppo di trasformazioni; studiare le forme appartenenti alla varietà per quanto concerne quelle proprietà che non si alterano nelle trasformazioni del gruppo dato" (Klein 1872, p. 17). Dal punto di vista algebrico, il problema si traduce nello sviluppo della teoria degli invarianti rispetto al gruppo di trasformazioni 'aggiunto', come dice Klein, alla varietà e ai suoi sottogruppi e nella conseguente classificazione delle corrispondenti geometrie e sottogeometrie (proiettiva, affine, euclidea e non euclidea e così via). Ai nostri occhi, si tratta di una svolta fondamentale in geometria, che passa tuttavia largamente ignorata agli occhi dei contemporanei.
Negli stessi anni, Lie affronta il problema di costruire la teoria dei gruppi continui di trasformazioni. Il suo punto di partenza è lo studio delle equazioni differenziali e l'obiettivo quello di sviluppare una teoria della loro integrazione (e di quella delle equazioni differenziali alle derivate parziali). Lie si rende conto ben presto di "poter determinare tutti i gruppi continui di trasformazioni in una variabile utilizzando le 'algebre di Lie' di trasformazioni infinitesime a esse associate" (Hawkins 1984, p.446), e dedica tutte le sue energie a questa impresa, mentre l'effettiva costruzione della teoria di Galois delle equazioni differenziali, il problema che egli ha formulato nel 1874, è intrapresa da Charles-Émile Picard (1856-1941) e compiutamente realizzata da Ernest Vessiot (1865-1952). Così, nei primi anni Settanta del XIX sec., nelle mani di Klein e Lie la nozione di gruppo comincia a rivelare la sua fecondità in campi diversi dalla teoria delle equazioni algebriche in cui è stata originariamente formulata.
Dieci anni più tardi, Jules-Henri Poincaré (1854-1912) può affermare che la geometria "non è altro che una storia di gruppi". Nel modello di Beltrami egli trova la chiave per interpretare geometricamente nel semipiano complesso le trasformazioni delle funzioni fuchsiane che ha scoperto; costruisce così il suo celebre modello della geometria di Lobačevskij. Poincaré è al corrente dei lavori di Lie, mentre del Programma di Klein ignora perfino l'esistenza. Del resto, per quasi vent'anni lo stesso Klein non sembra essersi molto impegnato a diffondere le idee contenute in quello scritto. "Come Lie ‒ scrive Poincaré ‒ io credo che la nozione più o meno inconscia di gruppo continuo sia la sola base logica della nostra geometria. Come Helmholtz, credo che l'osservazione dei movimenti nei corpi solidi ne sia l'origine psicologica" (Poincaré 1887, p. 90). Dunque, gli assiomi della geometria euclidea non sono giudizi sintetici a priori, come voleva Kant, né tanto meno analitici, perché "sarebbe impossibile sottrarvisi e fondare alcunché sulla loro negazione". E neppure sono fatti sperimentali, perché altrimenti la geometria "sarebbe sottoposta a un'incessante revisione, non sarebbe affatto una scienza esatta". Se la geometria non è altro che lo studio di un gruppo, allora non ha senso porsi il problema della verità degli assiomi. L'esistenza di un gruppo, dice Poincaré, non è incompatibile con quella di un altro. La scelta non è una questione di verità, è materia di convenzioni e di comodo. E le esperienze con i corpi solidi ci hanno portato a "scegliere il gruppo euclideo non come il solo vero, ma come il più comodo".
Nello stesso anno in cui Klein scrive il suo Programma, appaiono due lavori che segnano una svolta in analisi e sono destinati ad avere un impatto duraturo sull'intera matematica e sulla sua filosofia. A prima vista, gli obiettivi sono diversi. Per Richard Dedekind (1831-1916) si tratta di "scoprire negli elementi dell'aritmetica la vera origine" del calcolo infinitesimale, "acquistando con ciò al tempo stesso una definizione effettiva della continuità". L''essenza della continuità', spiega Dedekind nel suo scritto Stetigkeit und irrationale Zahlen (Continuità e numeri irrazionali, 1872), risiede in un assioma: "Se una ripartizione di tutti i punti della retta in due classi è di tale natura che ogni punto di una delle due classi stia a sinistra di ogni punto dell'altra, allora esiste uno e un sol punto" dal quale tale ripartizione è prodotta. È sotto forma assiomatica che noi pensiamo la continuità della retta. Anche lo spazio esterno, ammesso che abbia una reale esistenza ‒ dice Dedekind ‒ non è necessariamente continuo. L'attribuzione del carattere di continuità allo spazio non è affidata all'esperienza dei sensi, è il risultato di un'operazione del pensiero che avviene conformemente a quell'assioma. Per questa via si giunge a una fondazione puramente aritmetica della continuità, attraverso il concetto di sezione dei numeri razionali e, insieme, alla 'creazione' dei numeri irrazionali.
Per Georg Cantor (1845-1918), cresciuto alla scuola delle raffinatezze analitiche di Weierstrass, si tratta invece di una delicata questione di analisi: dimostrare l'unicità della rappresentazione di una funzione in serie trigonometrica. La prova fornita da Cantor è un exploit analitico che desta l'ammirazione dei matematici. Inoltre, egli mostra che il teorema di unicità continua a essere valido anche in presenza di certi punti 'eccezionali', dove la rappresentazione o la convergenza della serie viene meno. Quanti sono i punti 'eccezionali' ammissibili? Possono essere infiniti, dimostra Cantor, purché distribuiti in maniera opportuna. Per rendere rigorosa la trattazione egli premette una teoria aritmetica dei numeri reali, definiti per mezzo di 'successioni fondamentali', ossia successioni di numeri razionali, che soddisfano la condizione di convergenza di Cauchy. L'insieme di quei numeri soddisfa un assioma di continuità, ed è a questo punto che le strade di Dedekind e di Cantor si incontrano. Cantor prosegue considerando successioni fondamentali dei nuovi numeri e reitera il procedimento n volte, ottenendo così numeri reali di tipo n. "Ma io non riesco a vedere quale vantaggio si tragga dalla definizione, anche puramente astratta, di numeri reali di tipo superiore", obietta Dedekind. Per Cantor quella costruzione ha invece un significato ben preciso, è il primo passo verso lo studio degli insiemi infiniti di punti. Quei numeri infatti si lasciano interpretare in termini di coordinate di punti di insiemi 'derivati' ‒ ossia insiemi dei punti-limite (o dei punti di accumulazione, come si dice oggi) di un dato insieme di punti. Sono di 'prima specie' insiemi il cui derivato n-esimo è l'insieme vuoto; di 'seconda specie' quelli in cui ciò non accade per nessun valore finito di n. Si intravede qui una "generazione dialettica di concetti che conduce sempre più lontano", scrive Cantor pochi anni più tardi, quando si appresta alla creazione dei numeri transfiniti.
Come caratterizzare le diverse infinità? L'insieme dei numeri razionali non è continuo, mentre lo è quello dei numeri reali. Come si può esprimere tutto ciò in termini di proprietà di insiemi infiniti? Il concetto di corrispondenza biunivoca si rivela lo strumento decisivo. È possibile, chiede Cantor a Dedekind, dimostrare che l'insieme dei numeri reali e quello dei numeri naturali sono equipotenti, ossia che si può stabilire una corrispondenza biunivoca tra essi? E tra i punti di superficie e quelli di una linea? Mentre il primo problema trova facilmente una risposta negativa, il secondo è problema ridicolo e assurdo, sentenziano i matematici di Berlino. "Va da sé che due variabili indipendenti non possono lasciarsi ricondurre a una sola". Quando Cantor riesce, tre anni dopo, a stabilire quella corrispondenza non può trattenersi dall'esclamare: "Lo vedo, ma non ci credo!". Il risultato sembra distruggere la convinzione da sempre radicata che la dimensione di uno spazio è univocamente determinata dal numero di coordinate indipendenti, necessarie per individuare un suo punto. Il fatto è che quella corrispondenza è bensì biunivoca, ma discontinua, fa osservare Dedekind, mentre l'invarianza della dimensione è assunta per corrispondenze biunivoche e continue, egli aggiunge congetturando di fatto un profondo teorema di topologia che sarà dimostrato solo trent'anni più tardi da Luitzen Egbertus Jan Brouwer (1881-1966).
Per Cantor, la teoria degli insiemi è in grado di abbracciare in sé l'aritmetica, la teoria delle funzioni e la geometria, portandole a una superiore unità, come scrive all'inizio degli anni Ottanta quando si accinge a costruire, sulla base del concetto di potenza di un insieme, la teoria degli insiemi (e dei numeri) transfiniti. Estendendo il concetto di numero cardinale e ordinale a insiemi arbitrari, costruendo la successione crescente degli alef (ossia di potenze transfinite sempre più grandi) Cantor introduce enti che sono sempre più lontani dall'intuibilità alla quale la filosofia kantiana vincola il discorso matematico. Nelle dimostrazioni le costruzioni esplicite sono spesso sostituite da argomenti per assurdo, come avviene per il teorema secondo il quale la cardinalità dell'insieme dei numeri reali è strettamente maggiore di quella dell'insieme dei numeri naturali, da cui, ancora per assurdo, discende l'esistenza di infiniti numeri reali trascendenti. È una nuova dimostrazione di un teorema già stabilito da Joseph Liouville (1809-1882) nel 1844. Gli argomenti di Cantor sono tuttavia inefficaci per decidere se un singolo numero sia o no trascendente. Solo nel 1873 Charles Hermite riesce a provare che e, la base dei logaritmi, è un numero trascendente e, meno di dieci anni dopo, Ferdinand Lindemann (1852-1939) produce l'analoga dimostrazione per π. Si capisce dunque perché, per molti matematici, l'ardita teoria cantoriana del transfinito sia solo un esercizio logico.
Le dimostrazioni per assurdo si basano infatti sul principio logico del 'terzo escluso' (tertium non datur). Ne consegue che il concetto stesso di esistenza matematica finisce per basarsi in maniera determinante sulla logica pura. "La matematica ‒ dice Cantor ‒ nel suo sviluppo è completamente libera e vincolata soltanto all'evidente condizione che i suoi concetti siano in se non contraddittori, e in relazioni fissate mediante definizioni a concetti esistenti e sicuri" (Cantor 1883, p. 182). Su questa concezione si fonda anche la creazione di nuovi enti numerici. "Non appena un numero soddisfa a queste condizioni esso deve essere considerato esistente e reale in matematica". Così era avvenuto per i numeri razionali, gli irrazionali e i complessi. Così doveva essere per i nuovi numeri transfiniti, che "in un certo senso sono nuove irrazionalità" (Cantor 1887, p.395). Il suo "tentativo matematico-filosofico di una teoria dell'infinito" è accolto con freddezza dai matematici, se non con l'ostilità del suo Doktorvater Leopold Kronecker (1823-1891), relatore della sua tesi di dottorato a Berlino, che nelle sue lettere parla dei numeri transfiniti come di "illusioni e sciocchezze senza fondamento". Per Cantor, invece, senza l'estensione all'infinito del concetto di numero non sarebbe possibile fare "il benché minimo passo in avanti nella teoria degli insiemi".
Cantor scrive queste cose nel quinto di una serie di sei articoli dal titolo comune Über die unendliche lineare Punktmannigfaltigkeiten (Sulle molteplicità lineari infinite di punti), apparsi tra il 1879 e il 1884, in cui raccoglie i risultati elaborati in un decennio: il concetto di insieme derivato, di potenza di un insieme, e poi lo studio degli insiemi infiniti densi, degli insiemi chiusi, degli insiemi perfetti, il concetto di interno di un insieme, insomma il fitto intreccio di nozioni che sono diventate lo strumento indispensabile nella comprensione della topologia della retta e la premessa alla moderna analisi. Ulisse Dini ne mostra per primo la fecondità in Fondamenti per la teorica delle funzioni di variabili reali (1878).
Nel 1895 Cantor pubblica una presentazione sistematica dei fondamenti della teoria degli insiemi transfiniti. È il punto di approdo delle sue ricerche e, al tempo stesso, l'atto di nascita della teoria degli insiemi astratti. Un insieme è definito come "una riunione in un tutto M di oggetti distinti e ben definiti della nostra intuizione e del nostro pensiero" e la sua potenza (o numero cardinale) è "quel concetto generale che, per mezzo della nostra attiva facoltà di pensare, si deduce dall'insieme M, facendo astrazione dalla natura dei suoi diversi elementi e dall'ordine in cui sono dati" (Cantor 1895, p. 282). Gli insiemi non sono dunque definiti da condizioni algebriche o analitiche, sono collezioni arbitrarie di oggetti astratti riunite in un tutto da un atto di pensiero, sono espressioni della libera creatività teorizzata da Cantor, convinto che l'essenza della matematica risiede nella sua libertà.
Prima ancora che Jordan pubblichi il suo Traité, alla fine degli anni Cinquanta a Gottinga Dedekind tiene dei corsi sulla teoria di Galois. Quelle pionieristiche lezioni rimangono tuttavia manoscritte e non esercitano di fatto alcuna influenza. Dedekind presenta solo nel 1894 le idee fondamentali, che appaiono a stampa nell'XI Supplement alla quarta edizione delle Vorlesungen über Zahlentheorie (Lezioni sulla teoria dei numeri) di Peter Gustav Lejeune Dirichlet, curate dallo stesso Dedekind. A partire dalla prima edizione del 1863, Dedekind ha arricchito le Vorlesungen di Dirichlet di supplementi su diversi argomenti. L'XI Supplement, che amplia una precedente versione del 1871 e occupa circa un terzo dell'intero volume, è destinato a esercitare una influenza enorme sull'algebra moderna. Dedekind ha contribuito come forse nessun altro all'affermarsi della moderna concezione 'strutturale' dell'algebra e dell'intera matematica. Emmy Noether, che di quella concezione è stata la principale interprete negli anni Venti del XX sec., a ogni occasione era solita dire: "questo c'è già in Dedekind", ricorda il suo allievo Bartel Leedert van der Waerden.
Fin dall'epoca delle sue lezioni sulla teoria di Galois, Dedekind ha maturato la convinzione che lo studio delle proprietà algebriche dei numeri si debba fondare su un concetto che egli denota col termine corpo (Körper), con ciò intendendo "ogni sistema di infiniti numeri reali o complessi che sia in sé chiuso e completo in modo che l'addizione, la sottrazione, la moltiplicazione e la divisione di due qualunque di questi numeri dia sempre come risultato un numero dello stesso sistema" (Dedekind 1871, p. 224). Dedekind ha in vista lo studio di particolari corpi numerici commutativi (o campi, come si dice oggi in matematica) ottenuti estendendo il campo dei razionali con l'aggiunta di numeri algebrici, per i quali definisce un teorema di fattorizzazione analogo a quello dei numeri naturali. Allo scopo si serve del concetto di ideale (così chiamato per sottolineare il legame con i numeri ideali introdotti a suo tempo da Ernst Eduard Kummer). Dato un corpo K ‒ dice Dedekind ‒ la teoria dei numeri contenuti in I, vale a dire tutti i numeri interi del corpo K, si basa sul concetto di ideale, cioè, un sistema A di infiniti numeri contenuti in I che soddisfa alle due condizioni "I. La somma e la differenza di due qualunque numeri di A sono numeri appartenenti ad A; II. Ogni prodotto di un numero di A e di un numero di I è ancora un numero di A" (ibidem, p. 251). Definito il prodotto di due ideali, è chiaro cosa significa A divide B: esiste un ideale C tale che B=AC. Come avviene per i numeri naturali, si possono definire gli ideali primi e dimostrare il teorema che ogni ideale può essere scomposto in maniera (essenzialmente) unica nel prodotto di ideali primi, che è una evidente estensione dell'analogo teorema per i numeri naturali.
Nel 1882, in un fondamentale lavoro scritto con Heinrich Martin Weber (1842-1913), Dedekind estende i concetti di corpo e ideale (e le loro proprietà) alle funzioni algebriche di una variabile. L'obiettivo è di fondare la teoria di quelle funzioni, che "è uno dei principali risultati di Riemann, da un punto di vista semplice e al tempo stesso rigoroso e completamente generale". Il loro lavoro culmina nella nozione di superficie di Riemann definita in maniera astratta.
Indipendentemente da Dedekind, il concetto di campo si era rivelato di importanza cruciale nei lavori di Kronecker sulla teoria delle equazioni algebriche. Gran parte dei suoi risultati di teoria dei numeri rimasero inediti fino al 1881, quando furono pubblicati in un'ampia memoria che, nelle sue intenzioni, doveva fornire un fondamento aritmetico rigoroso oltre che alla teoria dei numeri, anche alla teoria delle funzioni algebriche (e alla geometria algebrica). La "vasta costruzione algebrico-geometrica" vagheggiata per primo da Kronecker, ha scritto Jean Dieudonné (1974, I, p. 59), "ha avuto un inizio di realizzazione solamente nella nostra epoca con la teoria degli schemi". Le memorie di Dedekind-Weber e Kronecker, continua Dieudonné, hanno segnato l'origine di una tendenza che "doveva esercitare l'influenza più profonda sulla nascita dei concetti della geometria algebrica moderna".
Per quanto analoghi siano i loro risultati, diversi sono il linguaggio e le motivazioni, e opposte le concezioni della matematica. Dedekind alimenta in maniera consapevole la tendenza verso l'assiomatizzazione delle teorie; Kronecker ragiona in termini estensionali e richiede che i nuovi concetti siano definiti in termini costruttivi. Per van der Waerden, "Dedekind pensa in maniera più concettuale, nel senso dell'odierna algebra astratta"; Kronecker "attribuisce molto più valore alle esplicite prescrizioni di calcolo". Weber si ispira alle concezioni di Dedekind nel proseguire lo studio dei campi astratti, che non sono però intesi come domini di numeri (algebrici, reali o complessi), come pensava Dedekind, bensì "come strutture formali del tutto prive di ogni riferimento a una qualunque interpretazione numerica degli elementi usati" (Weber 1893, p. 521). È il punto di vista che diventerà dominante in algebra a partire dagli anni Trenta del XX secolo.
La concezione esistenziale degli oggetti matematici, che sta alla base dei lavori di Dedekind e Cantor, si traduce nella pratica matematica del giovane Hilbert, quando nel 1890 dimostra il fondamentale teorema della base, cioè il fatto che, data un'infinità di forme in n variabili e di grado qualunque, a coefficienti in un dato dominio di razionalità, esiste sempre una base finita tale che ogni forma si può scrivere come combinazione lineare di elementi della base a coefficienti nel dominio. "Questa non è matematica, è teologia!" si racconta esclamasse Paul Gordan (1837-1912), chiamato 're degli invarianti', che aveva riempito pagine e pagine delle più prestigiose riviste matematiche con estenuanti calcoli per il computo effettivo di invarianti delle forme. Secondo Hilbert, invece, "il valore delle dimostrazioni esistenziali consiste proprio nel fatto che rendono superflua la singola costruzione", ed evidenziano solo ciò che è essenziale. "Brevità ed economia sono la raison d'être delle dimostrazioni esistenziali". Di più, "proibire enunciati esistenziali equivale a rinunciare affatto alla scienza della matematica" afferma perentorio Hilbert. Questo lavoro misura sul terreno della pratica la fecondità di una concezione non costruttiva degli enti matematici, e annuncia quale sarebbe stata la sua posizione nel dibattito sui fondamenti e la filosofia della matematica che doveva svilupparsi intorno alla fine del secolo.
"Dio aritmetizza sempre", scrive Dedekind nel 1888 adattando il celebre aforisma platonico alla 'filosofia' cui egli si era ispirato nel concepire la continuità. Se i concetti fondamentali dell'analisi, i numeri e le funzioni, perdono il riferimento naturale alla geometria e, come insegna Weierstrass, la garanzia del rigore dell'intero edificio analitico è affidata a un crescente processo di 'aritmetizzazione', allora il problema della fondazione rigorosa della stessa aritmetica diviene questione del massimo interesse, che negli anni Ottanta impegna matematici e logici da punti di vista e prospettive diverse. L'articolo Über den Zahlbegriff (Sul concetto di numero, 1887) rende esplicito il programma di riduzionismo radicale che da tempo sostiene Kronecker. "Un giorno ‒ egli auspica ‒ si riuscirà ad 'aritmetizzare' "l'intero contenuto" di discipline come l'algebra e l'analisi, "cioè a fondarle unicamente e soltanto sul concetto di numero, preso nel suo senso più stretto"(Kronecker 1887, p. 338), il numero naturale. La successione dei numeri naturali è il solo tipo di infinito (potenziale) ammissibile in matematica, sostiene Kronecker, che rifiuta di riconoscere carattere di esistenza alle infinità attuali, siano esse i numeri irrazionali o, a maggior ragione, i numeri transfiniti di Cantor. "La cosiddetta esistenza delle radici reali irrazionali delle equazioni algebriche è fondata unicamente e soltanto sull'esistenza di intervalli" a estremi razionali, in cui un opportuno polinomio a coefficienti interi cambia di segno (solo una volta). Tutto quello che serve nel calcolo, dice Kronecker, è la possibilità di isolare tali intervalli, e per farlo bastano i numeri razionali. Anche se in linea di principio "ogni proposizione di algebra o di analisi superiore, per quanto lontana, si lascia esprimere come un teorema sui numeri naturali", gli obietta Dedekind (1888, p. xi) non c'è nulla di meritorio nel realizzare effettivamente tale faticosa riduzione e "nel non voler ammettere e usare nient'altro che i numeri naturali". È una posizione che preclude la creazione e l'introduzione di nuovi concetti, che hanno consentito i più grandi e fecondi progressi in matematica.
Nel contemporaneo lavoro Zählen und Messen, erkenntnisstheoretisch betrachtet (Contare e misurare, dal punto di vista della teoria della conoscenza, 1887) Hermann von Helmholtz (1821-1894) sostiene invece che l'aritmetica è "un metodo fondato su fatti puramente psicologici, il quale insegna ad applicare in modo coerente un sistema di segni (ovvero i numeri)" (1877, p. 711). Se per Kronecker i numeri naturali "ce li ha dati il buon Dio" ‒ come racconta un aneddoto tante volte ripetuto ‒ per Helmholtz trovano invece fondamento in circostanze empiriche. Il fondamento della successione dei numeri è dato dall'"ordinamento nella serie temporale" che costituisce "la forma ineludibile della nostra intuizione interna". E tuttavia, le proposizioni aritmetiche non sono date a priori, come pretendeva Kant, ma devono "essere provate o confutate dall'esperienza". Di fatto, obietta Cantor, nella loro reazione all'idealismo kantiano Kronecker e Helmholtz hanno richiamato in vita l'antico scetticismo di Sesto Empirico per conferirgli inaspettata attualità. Come altrimenti definire la loro concezione, secondo cui "i numeri devono essere in primo luogo 'segni', non tuttavia segni per concetti che si riferiscono a insiemi, ma segni per numerare oggetti singoli nel processo soggettivo del contare"? (Cantor 1887, p. 382). Contrariamente a quanto sostengono Kronecker e Helmholtz, i concetti aritmetici sono indipendenti dalle nozioni o dalle intuizioni di spazio e di tempo, afferma Dedekind nell'opuscolo Was sind und was sollen die Zahlen? (Cosa sono e cosa devono essere i numeri?; 1888). L'aritmetica è "quella parte della logica che tratta della teoria dei numeri" e questi ultimi "sono libere creazioni del pensiero umano". Si possono definire a partire dallo studio di 'cose', cioè 'oggetti del nostro pensiero', riunite in sistemi (o aggregati, insiemi, totalità) che a loro volta possono essere concepiti come oggetti del pensiero, completamente determinati dall'essere una data cosa elemento o no di un sistema, dice Dedekind anticipando la definizione di insieme che darà Cantor. Il nucleo del suo lavoro è l'indagine sui concetti di sistema finito e infinito. Capovolgendo una concezione da sempre radicata, Dedekind definisce il finito come negazione dell'infinito ‒ "un sistema si dice infinito se è simile a [cioè in corrispondenza biunivoca con] una sua parte propria; in caso contrario si dice finito" ‒ e poi dimostra il teorema che "esistono sistemi infiniti" a partire dalla totalità infinita del "mondo dei miei pensieri". Da quel teorema discende l'esistenza del sistema infinito dei numeri, caratterizzato da opportune condizioni. Queste, nella sostanza, coincidono con gli assiomi che Giuseppe Peano (1858-1932) ha ottenuto in maniera indipendente e pubblica nell'Arithmetices principia, nova metodo exposita (1889). Il 'nuovo metodo' di cui si serve Peano è la scrittura simbolica (o 'ideografia') da lui elaborata, "atta a rappresentare tutte le idee di Logica". Quel linguaggio 'ideografico' gli permette di indicare con segni "tutte le idee che si presentano nei principî dell'aritmetica" e di caratterizzarli in maniera assiomatica a partire dai concetti primitivi di numero, successivo, classe e unità.
"La concezione secondo la quale l'aritmetica non è che una logica sviluppata, che una più rigorosa fondazione delle leggi aritmetiche riconduce a leggi puramente logiche e solo a esse, sembra oggi guadagnare sempre nuovi sostenitori" scrive compiaciuto Frege nel 1891. Del resto, è la concezione che egli ha sostenuto con vigore nell'opuscolo Die Grundlagen der Arithmetik (I fondamenti dell'aritmetica, 1884) e che orienta tutta la sua ricerca logico-matematica. Una ricerca iniziata nel 1879 con la pubblicazione della Begriffsschrift (Ideografia), ossia una lingua per concetti, un "linguaggio in formule del pensiero puro, a imitazione di quello aritmetico" come dice il sottotitolo di quell'opuscolo, e culminata nel 1903, quando appare il secondo volume dei Grundgesetze der Arithmetik (I principî dell'aritmetica; il primo volume era stato pubblicato nel 1893).
La Begriffsschrrift di Frege, che nella storia della logica è stata paragonata per importanza agli Analitici primi di Aristotele, segna la nascita della moderna logica matematica. Quello che Frege ha in mente, infatti, non è "un puro calculus ratiocinator, ma una lingua characteristica nel senso di Leibniz". Alla logica egli affida il doppio ruolo di strumento necessario per la soluzione rigorosa e definitiva del problema dei fondamenti dell'aritmetica e, al contempo, di teoria a cui ricondurre la stessa aritmetica (e più in generale la matematica).
Secondo il 'programma logicista' delineato da Frege, infatti, si tratta di definire in termini puramente logici i concetti dell'aritmetica, a cominciare da quello di numero naturale, e di derivare 'senza lacune' le verità aritmetiche da principî logici, mediante metodi di deduzione completamente esplicitati. Come decidere se una certa proposizione costituisce o meno una verità matematica? "La prima cosa importante ‒ dice Frege ‒ è di trovare una dimostrazione della proposizione che la riconduca alle verità-base. Allorquando, nel percorrere questa via, si fa esclusivamente uso delle leggi logiche generali e di qualche definizione precisa, diremo che si tratta di una verità analitica" (Frege 1884, p. 224).
In questo senso, dunque, per Frege le proposizioni aritmetiche sono analitiche. Ecco perché accusa Kant di aver sottovalutato i giudizi analitici. In un giudizio analitico sono contenute tutte le sue conseguenze "come la pianta nel seme, non come una trave nella casa", spiega Frege con efficace metafora. Da Kant prende poi decisamente le distanze quando, nell'opera Die Grundlagen der Arithmetik, mostra come si possa dare una definizione del concetto di numero naturale in termini puramente logici e come "anche un ragionamento come quello per passare da n a n+1 [cioè il principio di induzione] in apparenza caratteristico per la matematica, riposa su leggi logiche generali e non necessita di alcuna legge speciale del pensiero associativo" (ibidem, p. 214). La sua validità è affidata a definizioni logiche. In ciò risiede in sostanza il nucleo teorico del suo lavoro.
Per Poincaré, al contrario, il principio di induzione ha natura di giudizio sintetico a priori come affermava Kant. È 'irriducibile alla logica' e, anzi, offre l'esempio più convincente dell'impraticabilità delle tesi dei logicisti, che egli fa oggetto dei suoi sarcasmi (Tav. II).
Pur con toni meno pungenti, la critica di Poincaré non risparmia neppure Hilbert, colpevole ai suoi occhi di "aver ricondotto tutti i ragionamenti geometrici a una forma puramente meccanica" con i suoi Grundlagen der Geometrie. Questo scritto è paradigmatico della nuova concezione del metodo assiomatico di cui Hilbert è fautore. Gli enti primitivi ‒ gli 'oggetti' dei sistemi di cui si occupa la geometria ‒ non sono definiti. Fra essi intercorrono certe relazioni, la cui "descrizione esatta e completa, ai fini matematici" è affidata agli assiomi, afferma Hilbert. "Con ciò si ascrive agli assiomi qualcosa che è compito delle definizioni", gli obietta Frege, accusandolo di creare confusione fra definizioni e assiomi. Ostinatamente 'euclideo', Frege è convinto che gli assiomi della geometria siano enunciati veri, la cui conoscenza "scaturisce da una fonte conoscitiva di natura extralogica, che potremmo chiamare intuizione spaziale". Ecco perché non c'è alcun bisogno di dimostrare la loro non contraddittorietà. "Il fatto che gli assiomi sono veri assicura di per sé che non si contraddicono tra loro".
Hilbert pensa esattamente il contrario. "Ogni teoria è solo un telaio, uno schema di concetti unitamente alle loro mutue relazioni necessarie", e può essere applicato a "infiniti sistemi di enti fondamentali", i quali possono venir pensati in modo arbitrario. "Se assiomi arbitrariamente stabiliti non sono in contraddizione, con tutte le loro conseguenze, allora essi sono veri, allora esistono gli enti definiti per mezzo di quegli assiomi. Questo è per me il criterio della verità e dell'esistenza". È il criterio all'opera nei Grundlagen der Geometrie. Come ha insegnato Beltrami, Hilbert costruisce modelli per provare l'indipendenza e la coerenza (relativa) degli assiomi. In particolare, l'ordinaria geometria cartesiana delle coordinate costituisce il modello naturale della geometria euclidea. Il problema della dimostrazione della coerenza degli assiomi geometrici si traduce così nell'analogo problema per il sistema degli assiomi dei numeri reali, e dunque, in ultima analisi, degli assiomi dell'aritmetica. Il problema fondamentale del 'programma formalista' hilbertiano è già posto. Infatti, come spiega nella sua conferenza di Parigi, se la non-contraddittorietà degli assiomi della geometria euclidea è riconducibile a quella degli assiomi dell'aritmetica dei numeri reali, nel senso che "ogni contraddizione nelle deduzioni dagli assiomi geometrici deve essere riconoscibile nell'aritmetica" dei numeri reali, "si rende necessario un metodo diretto per la dimostrazione della non-contraddittorietà degli assiomi dell'aritmetica".
La cosiddetta ipotesi del continuo di Cantor apre l'elenco di problemi 'per le generazioni future' che Hilbert decide di fare oggetto della sua conferenza al Congresso dei matematici di Parigi. "Ogni sistema infinito di numeri reali, cioè ogni insieme infinito di numeri (o di punti) è equivalente all'insieme di tutti i numeri interi naturali 1, 2, 3, … oppure è equivalente all'insieme di tutti i numeri reali, e di conseguenza al continuo" (Hilbert 1900, p. 70). La chiave della dimostrazione poteva forse venire dall'affermazione di Cantor che ogni insieme infinito poteva essere ben ordinato. L'insieme dei numeri reali, nell'ordinamento naturale, non è di certo un insieme ben ordinato. Si può tuttavia, chiede Hilbert, trovare per quell'insieme un altro ordinamento, di modo che ogni suo sottoinsieme abbia un primo elemento? In altre parole, si può trovare un buon ordinamento per il continuo?
La questione posta da Hilbert si intreccia ben presto con la più generale questione dei fondamenti della teoria cantoriana e della praticabilità del programma logicista di Frege. Nel 1902, infatti, una lettera di Bertrand Russell (1872-1970) comunica al logico tedesco una 'difficoltà' in cui si è imbattuto nello studio dei Grundgesetze di Frege. È la scoperta dell'antinomia di Russell della classe di tutte le classi che non appartengono a sé stesse, che discende dall'assioma di comprensione ‒ l'assioma che afferma che due concetti hanno la stessa estensione se e solo se sotto di essi cadono gli stessi concetti ‒ e di fatto, come si rende conto Frege, mette in discussione la possibilità di una fondazione logica dell'aritmetica. Né è motivo di conforto sapere che la critica colpisce del pari tutti coloro che, come Dedekind e Cantor, hanno fatto ricorso a estensioni di concetti (classi o insiemi) per fondare la matematica.
La scoperta di Russell, che inaugura la 'crisi dei fondamenti' della matematica, non mette tuttavia in crisi l'attività concreta del matematico, che nel suo lavoro ha a che fare con insiemi (anche infiniti) di oggetti ben determinati. La teoria degli insiemi di Cantor si rivela anzi uno strumento decisivo per lo sviluppo dell'analisi. Dopo i suoi pionieristici lavori sugli insiemi di punti, le profonde connessioni tra la teoria della misura degli insiemi e l'integrazione sono state indagate da Peano e da Jordan. Le loro definizioni non si applicano tuttavia a molti insiemi di grande interesse come, per esempio, l'insieme dei punti razionali di un intervallo. La nozione di misura introdotta da Émile Borel (1871-1956) non solo rende misurabili quegli insiemi, ma fornisce a Henri-Léon Lebesgue (1875-1941) il punto di partenza per la sua tesi (1902) in cui presenta una nuova teoria dell'integrazione. La teoria degli insiemi costituisce anche il fondamento teorico della classificazione delle funzioni di variabile reale presentata da René-Louis Baire (1847-1932) nella sua tesi (1899).
Lo stesso Hilbert non sembra appassionarsi molto alle discussioni sui fondamenti. Dopo il Congresso di Parigi la sua attenzione si è interamente rivolta alla costruzione sistematica della teoria delle equazioni integrali, che ai suoi occhi possiede una grande portata unitaria per l'intera matematica. La tesi di Lebesgue, i lavori di Hilbert sulle equazioni integrali lineari e la tesi (1906) di Maurice-René Fréchet (1878-1973) sugli spazi metrici sono i catalizzatori del rapido processo che, in una diecina d'anni, porta alla nascita della moderna analisi funzionale. La tesi di Fréchet ha un'enorme importanza non solo per l'analisi funzionale ma anche per la topologia, il cui atto di nascita come disciplina autonoma è dato dalla pubblicazione dei Grundzüge der Mengenlehre (Fondamenti della teoria degli insiemi, 1914) di Felix Hausdorff (1868-1942). "La teoria degli insiemi è il fondamento dell'intera matematica", dichiara Hausdorff. Sul "fondamento di questo fondamento", tuttavia, dopo la crisi provocata dalla scoperta delle antinomie "non è stata ancora raggiunta una completa unità". Perciò, con un atteggiamento pragmatico che sarà da allora largamente adottato nella pratica dei matematici, egli si limita alla "teoria degli insiemi naïve, tenendo però effettivamente presenti quelle limitazioni che precludono la via ai paradossi".
Dopo quella scoperta da Russell, antinomie e paradossi sembrano sbucare da ogni parte ‒ l'antinomia di Cantor del massimo cardinale, quella di Cesare Burali-Forti del massimo ordinale, l'antinomia di Jules Richard e la variante del paradosso del mentitore scoperta da Andrew C. Berry. Il fiorire di paradossi fa discutere filosofi, logici e matematici. Come fa discutere la dimostrazione data da Ernst Zermelo (1871-1953) che ogni insieme può essere ben ordinato, da cui discende sia il fatto che il cardinale di ogni insieme infinito è un alef, sia la confrontabilità dei cardinali. La dimostrazione è di natura esistenziale, ma quello che fa discutere è il metodo usato. Zermelo postula infatti per un insieme qualunque M l'esistenza di una funzione ('di scelta') che associa, a ogni sottoinsieme (non vuoto) S di M, un elemento di S stesso. Il principio afferma l'esistenza dell'insieme di scelta ma non fornisce strumenti per individuarne gli elementi.
La legittimità di procedure fondate su infinite scelte arbitrarie, già contestata a suo tempo da Peano, diviene oggetto di un fitto dibattito. Secondo Borel si può ammettere al più un'infinità numerabile di scelte, mentre Hadamard ritiene che non vi sia differenza essenziale fra un'infinità numerabile e una più che numerabile di scelte. Baire pensa che "tutto si deve ricondurre al finito" come diceva Kronecker. Anche a Lebesgue il ragionamento di Zermelo appare "troppo poco kroneckeriano, per attribuirgli un senso". La convinzione della funzione insostituibile dell'intuizione in matematica li accomuna a Poincaré, che in quegli anni conduce un'aperta battaglia contro le tesi di logicisti e 'cantoriani'. La relazione Sur l'avenir des mathématiques tenuta al Congresso di Roma (1908) gli offre l'occasione per delineare il suo punto di vista e, insieme, rispondere alle tesi presentate da Hilbert otto anni prima al Congresso di Parigi.
Hilbert aveva detto che la dinamica fondamentale dello sviluppo della matematica risiedeva nella continua interazione tra libere creazioni della ragione e conoscenza dei fenomeni della Natura. "Su questi sempre reiterati scambi tra ragione ed esperienza riposano, mi sembra, le numerose e sorprendenti analogie e quell'armonia apparentemente prestabilita che il matematico tante volte percepisce nelle questioni, i metodi e i concetti dei diversi campi della scienza". Anche per Poincaré la matematica ha una natura duplice, confina da una parte con la filosofia, dall'altra con la fisica. "È per queste due vicine di casa che lavoriamo", dice Poincaré, e per questo motivo "abbiamo sempre visto, e sempre vedremo, i matematici camminare in due direzioni opposte". È certo utile che la matematica rifletta su se stessa, sono di sicura utilità le speculazioni sui fondamenti, lo studio dei postulati e delle geometrie insolite. Ma non c'è dubbio che sia "sul fronte opposto, sul fronte della natura, che dobbiamo concentrare il grosso del nostro esercito". La prospettiva indicata da Poincaré va in direzione opposta a quella seguita da logicisti e formalisti, ai quali riserva i paragrafi conclusivi della sua conferenza (Tav. III).
"In matematica non c'è alcun Ignorabimus!", aveva dichiarato Hilbert, spinto da una illimitata fiducia nelle capacità della ragione umana a enunciare come una sorta di legge generale del nostro pensiero, a stabilire come un assioma, che qualunque problema matematico deve essere suscettibile di soluzione. "Non esistono più problemi risolti e problemi irrisolti" sostiene invece Poincaré. "Ci sono soltanto problemi più o meno risolti, a seconda che la loro soluzione sia data da una serie più o meno rapidamente convergente o sia governata da una legge più o meno armoniosa". Come accadeva con il problema dei tre corpi, con il quale Poincaré si misurava da oltre quindici anni, dopo essersi imbattuto in un fenomeno inaspettato, che oggi con un apparente ossimoro è chiamato 'caos deterministico'.
Paradossi e contraddizioni hanno fatto del problema dei fondamenti un "bel caso patologico", dice Poincaré. E come spesso avviene di fronte a questi casi, i 'medici' propongono terapie diverse, a seconda delle scuole di appartenenza. Russell è convinto che si possa ricostruire l'intero edificio della matematica su basi logiche mantenendosi al riparo dalle antinomie. Zermelo, l'allievo di Hilbert, vede una cura convincente ed efficace nella concezione del metodo assiomatico proposta dal maestro. Una terapia assai più drastica è già stata proposta da Dirk Brouwer. Nella sua tesi Over de Grondslagen der Wiskunde (Sui fondamenti della matematica, 1907) si è opposto alle tesi logiciste e al programma formalista di Hilbert, teorizzando un intuizionismo ben più radicale del costruttivismo di Poincaré. Sono le tre tendenze che dominano il dibattito sui fondamenti fino agli anni Trenta.
Russell ha individuato un tratto comune a tutte le antinomie, nel procedimento di autoriferimento o riflessività su cui si basa l'antinomia da lui scoperta, e in un articolo del 1908 delinea la propria strategia, in cui è riconoscibile l'influenza delle posizioni predicativiste di Poincaré. Tuttavia, Russell non va alla ricerca di contenuti intuitivi extralogici per le teorie matematiche, come suggeriva Poincaré per il principio di induzione. Riprendendo e aggiornando il programma di Frege alla luce delle nuove scoperte, Russell elabora un nuovo sistema logico ‒ la teoria dei tipi 'ramificata' ‒ con il quale pensa di poter riformulare in maniera sicura l'intero corpo della matematica sulla base di pochi assiomi e alcuni concetti primitivi. Il programma prende corpo nei Principia mathematica (1910-1913), la monumentale opera in tre volumi che egli scrive con Alfred North Whitehead (1861-1947).
La teoria dei tipi ramificata consente di organizzare gli enti logici (enunciati, funzioni enunciative e così via) in una disposizione gerarchica secondo tipi e ordini, dai più semplici ai più complessi, che in effetti evita le antinomie note, ma va incontro a seri inconvenienti. Per esempio, ha osservato Casari (1964, p. 148), nella teoria ramificata dei tipi non si può parlare di numeri reali che soddisfano a una data condizione, ma sempre e solo di numeri reali di un dato ordine che soddisfano a quella condizione. Un inconveniente non da poco per il matematico. Per porvi rimedio, Russell e Whitehead fanno ricorso a un assioma ad hoc, l'assioma di riducibilità, che ha in sostanza la funzione di rendere inefficace la ramificazione dei tipi in ordini. Per quanto plausibile, e secondo Russell necessario per la realizzazione del programma, questo assioma ha uno statuto logico problematico. Un'accurata analisi delle antinomie, e la loro classificazione in antinomie 'logiche' (come quella di Russell) e 'semantiche' (come quella di Richard o del mentitore) permette negli anni Venti a Frank P. Ramsey (1903-1930) e Leon Chwistek (1884-1944) di costruire una teoria dei tipi semplici, che elimina il ricorso al controverso assioma ma ha lo stesso valore teorico dell'originario sistema di Russell e Whitehead.
Per evitare il costituirsi di insiemi 'troppo grandi', come l'insieme di tutti gli insiemi o l'insieme di tutti i numeri ordinali che ingenerano antinomie, l'idea di Zermelo è invece di sostituire l'incondizionato assioma di comprensione di Frege con un assioma di 'separazione' di portata più limitata, che assicuri la possibilità, per un qualunque insieme dato, di isolare un sottoinsieme, i cui elementi soddisfano una proprietà 'definita'. Nell'articolo Untersuchungen über die Grundlagen der Mengenlehre (Ricerche sui fondamenti della teoria degli insiemi, 1908) Zermelo parte dalla considerazione di "un dominio di individui, tra cui ci sono gli insiemi" che costituiscono gli 'oggetti' della teoria, e sono caratterizzati dagli assiomi. In particolare, l'assioma di separazione fornisce per così dire "un sostituto per la definizione generale di insieme, ormai indifendibile", che ha dato Cantor nel 1895, e d'altra parte pone il sistema al riparo da antinomie. Infatti, scrive Zermelo, "per mezzo di questo assioma non possono mai essere definiti indipendentemente degli insiemi, ma devono essere sempre separati solo come sottoinsiemi di insiemi dati" (Zermelo 1908b, p. 264). Se nel suo sistema le antinomie note svaniscono, la questione essenziale della coerenza degli assiomi (che comprendono anche il discusso assioma di scelta) resta invece da dimostrare rigorosamente. Problematica si rivela anche la nozione di 'proprietà definita', nonostante le avvertenze di Zermelo per specificare cosa significhi 'definito'. La questione della definibilità, così come quella della logica da utilizzare (del primo ordine o del secondo ordine?) sarà oggetto di lunghe discussioni negli anni Venti, con la ripresa delle ricerche sull'assiomatizzazione della teoria degli insiemi da parte di Abraham Fraenkel (1891-1965) e Thoralf Skolem (1887-1963).
Le critiche di Poincaré non avevano "toccato il cuore della questione, che sta molto più in profondità, nella confusione tra l'atto della costruzione matematica e il linguaggio della matematica", aveva scritto Brouwer nella sua tesi. La 'logistica' di Peano e Russell, infatti, non era altro che "una 'scienza empirica' che si applica alla matematica" mentre invece quest'ultima "si sviluppa da una sola intuizione fondamentale a priori", affermava Brouwer riconoscendo, con Poincaré, una matrice kantiana al proprio intuizionismo. "Il fenomeno fondamentale della matematica", egli scrive nel 1913 in Intuitionism and formalism, è "l'intuizione della pura duo-unità, che crea non solo i numeri uno e due, ma anche tutti i numeri ordinali finiti".
La critica al formalismo hilbertiano diviene ancor più esplicita nel 1918, quando Brouwer pubblica un ampio lavoro sulla fondazione della teoria degli insiemi indipendente dal principio del terzo escluso. Secondo tale principio ogni supposizione è o vera o falsa, tertium non datur. In matematica, dice Brouwer, ciò significa che o si può esibire una costruzione che conferma la supposizione, oppure si perviene all'impossibilità di continuare la costruzione. Dunque, la questione della validità di quel principio "è equivalente alla questione 'se possano esistere problemi matematici insolubili'. E non c'è uno straccio di dimostrazione per questa convinzione" che Hilbert ha ripetutamente manifestato, conclude Brouwer. Essendo i principî dei formalisti insostenibili, "non c'è da meravigliarsi che una gran parte dei loro risultati venga meno alla luce di una critica più precisa".
Il rifiuto del principio del terzo escluso ha infatti conseguenze devastanti per l'intero edificio della matematica classica. Oltre alla teoria cantoriana del transfinito, dal punto di vista intuizionistico perdono di senso le dimostrazioni di esistenza fondate su un ragionamento per assurdo, e la gran parte dell'analisi, dai classici teoremi di Weierstrass ai più recenti sviluppi della teoria delle funzioni Lebesgue-misurabili. Per non limitarsi alla critica ma dar corpo alla sua proposta, Brouwer si impegna a fondo nella creazione di una teoria intuizionistica degli insiemi così come nella dimostrazione di teoremi classici di analisi nella loro versione intuizionistica.
Per Brouwer la matematica è il risultato di un atto mentale indipendente dal linguaggio. La lingua formalizzata della matematica al più può servire a comunicare costruzioni mentali analoghe in individui diversi. Da qui il suo scetticismo verso i sistemi formali di logica intuizionista. Nel 1930 i lavori di Arend Heyting (1898-1980) sulle regole formali della logica intuizionista permettono tuttavia ai logici delle diverse scuole di trovare un terreno di confronto e rappresentano il punto di partenza di una serie di ricerche che ben presto porta a risultati significativi e, per molti versi, inaspettati.
Gli argomenti di Brouwer sembrano convincere anche Hermann Weyl (1885-1955), che nel suo Das Kontinuum. Kritische Untersuchungen über die Grundlagen der Analysis (Il continuo. Ricerche critiche sui fondamenti dell'analisi, 1918) dichiara che una parte essenziale dell'edificio dell'analisi è 'costruita sulla sabbia' e si rende necessaria una sua revisione radicale, anche a costo di sacrificarne parti consistenti. Collocandosi in una posizione intermedia fra l'intuizionismo e il formalismo hilbertiano, Weyl riconosce un ruolo essenziale al metodo assiomatico, ma ritiene che gli assiomi di una teoria siano giudizi che "vengono riconosciuti come veri per intuizione immediata".
"Nell'eccitazione degli anni del primo dopoguerra", Weyl non esita a scrivere che le tesi di Brouwer annunciano una rivoluzione in matematica. Quando si rende conto che anche il suo miglior allievo si è lasciato affascinare dalle tesi intuizioniste, Hilbert decide che è giunto il momento di impegnarsi a fondo per risolvere una volta per tutte la controversa questione dei fondamenti. "Brouwer non è, come pensa Weyl, la rivoluzione", ribatte deciso Hilbert, "ma solo la ripetizione con mezzi antiquati di un tentativo di putsch" come quello di Kronecker, "che a suo tempo, pur condotto in modo più energico, fallì completamente e che ora è destinato fin da principio al fallimento". Il metodo assiomatico, come ha ribadito nella conferenza Axiomatisches Denken (Pensiero assiomatico) del 1917 (Tav. IV), è lo strumento per la realizzazione del programma che aveva già delineato con chiarezza fin dal 1904, intervenendo al Congresso dei matematici a Heidelberg.
"Considerare la dimostrazione stessa come un oggetto matematico", aveva proposto allora. È la chiave di volta della Beweistheorie (teoria della dimostrazione) che Hilbert elabora negli anni Venti, insieme alla rigorosa distinzione tra matematica e metamatematica. L'obiettivo del programma hilbertiano è di ricondurre i concetti e i procedimenti di carattere infinitario all'interno di una prospettiva finitistica sicura ed effettivamente controllabile. Hilbert è "più esatto sia di Kronecker sia di Brouwer" riconosce Weyl. È "strettamente formalista in matematica, strettamente intuizionista in metamatematica" (in Reid 1970, p. 240). La realizzazione del programma, in cui si impegnano Hilbert e la sua scuola a Gottinga, sembra avviata al successo, e nel 1927 John von Neumann (1903-1957) riesce a dimostrare che una certa parte dell'aritmetica del primo ordine è non contraddittoria.
Un aperto confronto tra le diverse 'scuole' (formalista, intuizionista e logicista) si tiene nel 1930 a Königsberg, la patria di Kant. La cosa più interessante di quel convegno però è la breve comunicazione (Tav. V) di un giovane logico viennese, Kurt Gödel (1906-1978), che passa quasi inosservata ma ha effetti devastanti sulle sorti del programma hilbertiano. Gödel ha appena dimostrato infatti che tutti i sistemi formali della matematica, abbastanza potenti da comprendere l'aritmetica dei numeri naturali, contengono proposizioni formalmente indecidibili. E la proposizione che esprime la non contraddittorietà del sistema è proprio una di queste.
Con il lavoro di Gödel si chiude la grande stagione dei dibattiti sui fondamenti, che hanno impegnato i più grandi matematici nei primi trent'anni del secolo. Al tempo stesso, dopo il fiorire negli anni Venti della scuola polacca e della scuola di Gottinga, si apre una nuova stagione per la logica, inaugurata da una serie di lavori dello stesso Gödel. In particolare, nel 1933 egli mostra che l'intuizionismo costituisce 'una genuina restrizione' della matematica classica solo per l'analisi o la teoria degli insiemi, "e queste restrizioni sono il risultato non della negazione del tertium non datur, ma piuttosto della proibizione di concetti impredicativi", auspicata da Poincaré. Nel 1940 egli dimostra che l'assioma di scelta e l'ipotesi del continuo di Cantor "sono coerenti con gli altri assiomi della teoria degli insiemi, se questi sono coerenti".
Tuttavia, gli imponenti sviluppi della logica sono sempre più materia di specialisti, e sempre più lontani dalla pratica dei matematici impegnati nella ricerca. Da questo punto di vista, è paradigmatico l'atteggiamento tenuto da van der Waerden in Moderne Algebra (1930-31), vero e proprio manifesto del nuovo mondo concettuale dell'algebra, frutto dell'indirizzo astratto, formale e assiomatico seguito da Emmy Noether e dalla scuola di Gottinga. Egli introduce le strutture algebriche di gruppo, anello, campo e così via, assumendo come primitivo il concetto di insieme, si serve del sistema assiomatico di Zermelo e Fraenkel, ma dichiara di non voler entrare "nelle difficoltà inerenti i fondamenti", preferendo un punto di vista naïf che tuttavia evita le definizioni circolari, fonti di paradossi. È lo stesso atteggiamento pragmatico adottato a suo tempo da Hausdorff e da Fréchet, e negli anni Trenta da Bourbaki, per il quale la logica e la teoria degli insiemi sono ormai sistematizzate in modo da rispondere a tutti i bisogni del matematico, e "i paradossi che avevano terrorizzato i contemporanei di Cantor" sono ormai pseudo-problemi di cui non mette conto occuparsi.
Il caso dell'algebra è esemplare della tendenza che si afferma in quegli anni nei campi più diversi della matematica, dalla topologia all'analisi, alla teoria della probabilità, risultato di un lungo e complesso processo di astrazione, generalizzazione e assiomatizzazione delle teorie, che fa della matematica moderna una "rete di strutture nascoste", come ha affermato una volta Saunders Mac Lane e come mostrano i fascicoli degli Eléments de mathématique, che Bourbaki pubblica a partire dal 1939. La concezione strutturale bourbakista privilegia la matematica pura e, in particolare, campi come l'algebra commutativa, la geometria e la topologia algebrica o la teoria dei numeri. Dominante in matematica dagli anni Quaranta a tutti gli anni Sessanta, l'influenza di Bourbaki comincia ad affievolirsi con lo sviluppo crescente di parti della matematica, soprattutto legate alle applicazioni, che non si lasciano trattare in termini di strutture, fino a svanire con l'affacciarsi prepotente dei calcolatori sulla scena matematica.