Il contributo è tratto da Storia della civiltà europea a cura di Umberto Eco, edizione in 75 ebook
La matematica del Novecento è stata paragonata nel 1951 da Hermann Weyl al delta del Nilo le cui acque si estendono in ogni direzione; forse questa immagine fluviale rimane ancora la più appropriata. Una ricognizione, per quanto rapida e parziale, all’interno della matematica novecentesca ci permette di evidenziare alcune caratteristiche salienti del suo straordinario sviluppo: la specializzazione, la tendenza all’unificazione, l’applicabilità.
Lo sviluppo della matematica tra specializzazione, unificazione e applicabilità
Nelle sue linee essenziali lo sviluppo della matematica del Novecento è contraddistinto da tre aspetti. Due, complementari se non speculari, appartengono alla sua “politica interna”: la specializzazione e l’unificazione; l’altro è tipicamente di “politica estera”: l’applicabilità, o ciò che il fisico Eugene Wigner ha chiamato l“irragionevole efficacia della matematica”. Da un lato, come diretta conseguenza del grado di sofisticazione e della profondità di penetrazione dei suoi metodi, tecniche e strumenti, l’universo culturale della matematica si evolve suddividendosi in una sterminata varietà di sottodiscipline, che ritagliano un pubblico di esperti sempre più ristretto. Naturalmente, molte delle nuove discipline non nascono per generazione spontanea, ma si aggregano attorno a concetti finalmente esplicitati o isolati già segretamente attivi nella matematica dell’Ottocento, che, come il borghese gentiluomo di Molière, parla in prosa senza saperlo. Addirittura alcune di queste nuove discipline possono essere viste come il prodotto dei cambiamenti rivoluzionari dell’Ottocento. Un esempio è costituito dalla nascita della topologia: una volta stabilita l’esistenza di diverse maniere di misurare geometricamente il mondo, diventa importante indagare quali proprietà dello spazio sono indipendenti dalla misurazione.
Dall’altro lato, la matematica del Novecento è attraversata dalla tendenza a riannodare i fili, collegando o connettendo fra loro aree disciplinari che sembrano lontane o eterogenee. Questo carattere unitario della matematica è bene sottolineato dalla figura emblematica del secolo, David Hilbert: “la matematica è un tutto indivisibile, un organismo la cui vitalità è condizionata da un’armoniosa interconnessione delle sue parti”. Queste parole sono una sorta di formula battesimale perché pronunciate da Hilbert l’8 agosto del 1900 al II congresso internazionale dei matematici di Parigi, nella conferenza intitolata Sur les problèms futurs des mathématiques (I futuri problemi dei matematici), passata alla storia per l’elenco di 23 problemi aperti da affrontare per il nuovo secolo.
Quanto all’aspetto dell’applicabilità, che non va disgiunto da un potere esplicativo, il Novecento ha mostrato non solo che nessun ambito extramatematico è al riparo dall’influenza della matematica, indispensabile per la comprensione di fenomeni fisici, biologici, linguistici, economici, sociali, tecnologici, ma anche che nessun campo della matematica è immune dall’essere potenzialmente applicabile. Così una delle caratteristiche della matematica del Novecento è la distinzione tra una parte “pura” e una parte “applicata”, allo stesso tempo le categorie del puro e dell’applicato non sono rigide, ma temporalmente qualificate: molti settori della matematica che qualche decennio fa erano applicativamente inerti oggi non lo sono più. È esemplare al riguardo il caso della geometria algebrica, che ha svariate applicazioni nella teoria del controllo e dell’ottimizzazione, nella bioinformatica e nella geometria computazionale.
Matematica pura: la teoria assiomatica degli insiemi
Agli inizi del Novecento la scoperta dei paradossi nella teoria degli insiemi è avvertita come una vera e propria crisi. Responsabile dei paradossi è il principio di comprensione che fa identificare un insieme come l’estensione di una proprietà. Fortemente influenzato dall’assiomatizzazione hilbertiana della geometria euclidea, nel 1908 Ernst Zermelo costruisce una teoria assiomatica degli insiemi, rielaborata nel 1922 da Abraham A. Fraenkel. Oggi la teoria degli insiemi di Zermelo-Frankel (ZF) costituisce una sorta di idioma universale per la matematica in grado di produrre una descrizione uniforme e compatta di una ricca varietà di strutture: per esempio, un problema circa la stabilità delle soluzioni di un sistema di equazioni differenziali è traducibile in un problema che riguarda la geometria di certi insiemi di punti (superfici).
Oltre che da preoccupazioni fondazionali, Zermelo è motivato anche dall’intenzione di esplicitare quelle assunzioni di esistenza soggiacenti al suo teorema di buon ordinamento del 1904, inseguito a lungo da Georg Cantor e che aveva incontrato diverse opposizioni. Gli assiomi di ZF includono l’assioma di estensionalità, dell’insieme vuoto, di separazione, della coppia (non ordinata), dell’unione, dell’insieme potenza, dell’infinito, del rimpiazzamento (dovuto a Fraenkel), di regolarità. A partire dall’insieme vuoto, denotato con Ø, si itera l’applicazione dell’insieme potenza ottenendo infiniti insiemi:
{Ø}; {Ø,{Ø }}; {Ø,, {Ø,{Ø }}, Ø}}.
L’assioma più controverso di ZF è l’assioma di scelta (AC), profondamente diverso dagli altri, perché non è indirizzato alla costruzione effettiva di un insieme, ma si limita a garantirne l’esistenza: sia A un insieme qualsiasi di insiemi non vuoti a due a due disgiunti, esiste un insieme C che contiene esattamente un elemento per ogni insieme B di A. Per esempio, in topologia AC consente di dimostrare sia che uno spazio vettoriale ammette una base sia il teorema di Tychonoff (1930), secondo cui il prodotto di una qualsiasi famiglia di spazi compatti è uno spazio compatto.
Tuttavia AC ha conseguenze che urtano la nostra intuizione. Nel 1924 Alfred Tarski e Stefan Banach dimostrano che tra le conseguenze di AC c’è il fatto che una sfera dello spazio a tre dimensioni può essere suddivisa in un numero finito di parti con le quali si può ricomporre una sfera di raggio doppio. La coerenza di AC e dell’ipotesi del continuo relativamente a ZF è stata dimostrata da Kurt Gödel nel 1938 e nel 1963 Paul J. Cohen ne ha mostrato l’indipendenza, ottenendo, come afferma Gödel, “il più importante risultato in teoria degli insiemi dopo la sua assiomatizzazione”.
La teoria delle categorie
La teoria della categorie può essere identificata come un nuovo, più versatile punto di vista dal quale la matematica può essere osservata, radicalmente differente da quello della teoria degli insiemi per cui gli oggetti matematici sono collezioni di elementi individuali.
La teoria delle categorie considera infatti un oggetto matematico come una sorta di “scatola nera” la cui struttura è completamente determinata dalle funzioni che esistono tra di esso e altri oggetti. Formalmente, una categoria C consiste in una collezione di oggetti A, B C,… e una collezione di frecce (morfismi) tra di essi f: A→B; intuitivamente, gli oggetti possono essere considerati insiemi dotati di qualche struttura e le frecce come funzioni che la preservano.
La nascita della teoria delle categorie si può far risalire all’articolo General theory of natural equivalences (Teoria generale delle equivalenze naturali), pubblicato nel 1945 da Samuel Eilenberg e da Saunders MacLane. La nozione generale di aggiunzione si deve a Daniel Kan nel 1958: anche se il concetto era già familiare all’interno di svariate teorie matematiche come la teoria delle equazioni differenziali e la teoria degli operatori su uno spazio di Hilbert; l’isolamento e la spiegazione di questo concetto è forse il contributo più profondo apportato dalla teoria delle categorie alla matematica. Alla fine degli anni Cinquanta, Alexander Grothendieck percepisce la possibile influenza della teoria delle categorie per una fondazione della topologia geometrica, e in particolare introduce la categoria di tutti gli schemi, specifici spazi localmente anellati, che generalizzano la nozione di varietà algebrica.
La teoria della misura e dell’integrazione
Nel 1902 compare sugli “Annali di Matematiche” la dissertazione dottorale del matematico francese Henri Lebesgue, Intégrale, longeur, aire (Integrali, lunghezze, superficie), che segna una svolta determinante nella teoria dell’integrazione e, in generale, nell’analisi moderna, estendendo il concetto d’integrale riemanniano. Lebesgue introduce una nozione di misura sulla retta reale che diventerà nota come misura di Lebesgue, contraddistinta dall’additività numerabile: la misura dell’unione di un’infinità numerabile di insiemi disgiunti è la somma delle misure degli insiemi. Rispetto a quello di Gottinga Bernhard Riemann, il metodo di integrazione di Lebesgue non solo si applica a una classe molto più ampia di funzioni, ma rende possibile lo scambio dell’ordine di integrazione. La possibilità di scambiare l’ordine di integrazione in un integrale doppio è mostrata la prima volta da Guido Fubini nel 1907, contribuendo all’affermazione del nuovo metodo di Lebesgue. Nello stesso anno, Ernst Fischer e Frigyes Riesz, studiando le serie di Fourier integrabili, dimostrano indipendentemente un risultato che assicura alla nuova teoria dell’integrazione un posto permanente nello sviluppo dell’analisi funzionale: ogni particolare spazio di Hilbert separabile di dimensione infinita è isomorfo allo spazio delle funzioni (definite su intervallo) per le quali l’integrale di Lebesgue del loro quadrato è finito.
Due anni prima, ma servendosi del discusso assioma di scelta, Giuseppe Vitali aveva dimostrato l’esistenza di sottoinsiemi della retta reale non misurabili secondo Lebesgue. Nel 1910 Lebesgue estende la sua teoria dell’integrazione agli spazi euclidei n-dimensionali e una sistemazione dei suoi risultati è presentata da Otton M. Nikodym nel 1930.
La topologia degli insiemi di punti e l’analisi funzionale
La prima metà del Novecento è caratterizzata da una dilagante influenza di metodi e tecniche topologici in svariate branche della matematica e nella logica, a seguito della definitiva affermazione della nozione di spazio topologico. Nel 1906 Maurice Fréchet presenta nella sua tesi la nozione generale di spazio metrico e di compattezza e, in particolare, mostra come è possibile estendere agli spazi metrici la concezione cantoriana dei sottoinsiemi aperti e chiusi. Nel 1914 i Grundzüge der Mengenlehre (Lineamenti della teoria degli insiemi) di Felix Hausdorff costituiscono l’atto di nascita della moderna topologia generale come disciplina dotata di una fisionomia e di una funzione sue proprie. Hausdorff sceglie di partire, motivando la sua scelta, dalla nozione di intorno di un punto, fissata da quattro assiomi, per poi definire la nozione di spazio topologico e la nozione di continuità di funzioni a valore reale. La nozione di spazio topologico diventa così il contesto più promettente per lo studio delle funzioni a valore reale. Proprio sulla base della nozione di intorno, l’anno prima Hermann Weyl nel classico Die Idee der Riemannschen Fläche (L’idea della superficie di Riemann) era riuscito a edificare la teoria delle superfici di Riemann. Se i primi contributi alla topologia degli insiemi di punti hanno essenzialmente una motivazione geometrica dettata dallo studio dei sottoinsiemi dello spazio euclideo, la prima importante applicazione di tecniche topologiche allo studio di spazi di origine algebrica ha luogo negli anni Trenta. Nel 1933 Marshall H. Stone perviene al teorema di rappresentazione per le algebre di Boole (pubblicato nel 1936) per cui ogni algebra di Boole è isomorfa a una particolare algebra di insiemi. La rappresentazione è genuinamente topologica perché identifica ogni algebra di Boole con la famiglia dei sottoinsiemi chiusi e aperti (clopen) di uno spazio di Hausdorff compatto totalmente sconnesso.
I concetti topologici si intrecciano intimamente anche con l’analisi funzionale, uno dei settori più tipici della matematica del Novecento: tra i compiti principali dell’analisi funzionale – termine introdotto da Paul Lévy nel 1922 – c’è l’organizzazione di classi di funzioni in spazi topologici. Nell’ambito della teoria delle equazioni integrali a cui Hilbert si dedica tra il 1904 e il 1910 nascono gli spazi di Hilbert. Negli anni Venti, Banach introduce la nozione di norma (funzione distanza) e definisce una nuova classe di spazi che coniuga la nozione di spazio metrico e quella di spazio vettoriale: uno spazio di Banach è uno spazio vettoriale normato completo. Uno spazio di Hilbert può essere definito come un caso particolare di spazio di Banach, anche se l’ortogonalità lo inserisce in una diversa cornice concettuale rendendolo uno strumento insostituibile in meccanica quantistica. Sebbene esempi concreti di spazi di Hilbert fossero parte della pratica matematica, la prima trattazione assiomatica degli spazi di Hilbert astratti è del 1928 a opera di John von Neumann, di cui esce nel 1932 la monografia Mathematische Grundlagen der Quantenmechanik (I fondamenti matematici della meccanica quantistica). Nello stesso anno Marshall H. Stone pubblica il monumentale Linear Transformations in Hilbert Space, destinato a diventare per almeno due decenni una pietra angolare nella teoria degli spazi hilbertiani.
La topologia algebrica
“Il Novecento” – ha scritto il matematico Jean Dieudonné – “resterà nella storia della matematica come il secolo della topologia.” Nella memoria del 1895, Analysis situs, Jules-Henri Poincaré mette a disposizione della topologia algebrica del nuovo secolo la definizione di varietà di n-dimensioni, la nozione di omeomorfismo, e quella di omologia, attraverso la quale sono definibili i numeri di Betti di una varietà e che, più in generale, può essere intesa come un strumento per ottenere informazioni in merito a uno spazio topologico. Per altro, dell’acuta sensibilità topologica di Poincaré c’è una traccia evidente nel suo celebre Sur le problème des trois corps (1890). Nel 1904 Poincaré congettura che una varietà di dimensione 3 semplicemente connessa è omeomorfa a una sfera di dimensione 3, S³. L’originale congettura di Poincaré è ancora oggi indecisa, ma ne è stata data una versione generalizzata per varietà di dimensione n e sfere Sn, che è stata parzialmente risolta: una risposta positiva per la dimensione n > 4 è stata data da Stephan Smale nel 1961, mentre il caso n = 4 è stato risolto da Michael H. Freedman nel 1982.
Tra il 1910 e 1913 l’olandese Luitzen Egbertus Jan Brouwer , inaugura lo studio di proprietà topologiche di funzioni continue e introduce la teoria del grado topologico, che consente di dimostrare teoremi non banali sugli spazi di dimensione finita. In particolare, egli ottiene alcuni risultati fondamentali tra cui il teorema del punto fisso per le applicazioni tra sfere, per cui una funzione continua da Sn in sé ammette (almeno) un punto fisso. Questo teorema e le sue estensioni avranno svariate applicazioni in geometria, analisi, teoria dei giochi, informatica. Per quanto la definizione di omotopia tra due funzioni continue si trovi esplicitata in un articolo di Brouwer nel 1912, l’inizio vero e proprio della teoria dell’omotopia si può far risalire al 1935 quando il polacco Witold Hurewitz definisce gruppi di omotopia superiori di una varietà topologica e mostra la loro connessione con gruppi di omologia, emersi dal tentativo d’introdurre una teoria dell’omologia per spazi qualunque. In questo modo la teoria dell’omotopia si trasforma in un approccio essenzialmente geometrico alla classificazione di spazi topologici. Nella sua tesi del 1951 il francese Jean Serre riesce a calcolare esplicitamente i gruppi di omotopia delle sfere.
Geometria algebrica
Tra la fine dell’Ottocento e gli anni Dieci del nuovo secolo, la grande scuola italiana – guidata da Guido Castelnuovo, Federico Enriques e Francesco Severi – porta a compimento la classificazione delle superfici algebriche e offre una descrizione completa di svariate famiglie di curve: caratteristica e limite della scuola italiana è una sorta di autarchia geometrica a detrimento di metodi meno intuitivi ma più rigorosi come quelli analitici o algebrici.
Un approccio diverso è elaborato negli anni Venti da Emmy Noether che delinea una sorta di manuale di traduzione per passare da nozioni algebriche (anelli noetheriani) a nozioni geometriche. È proprio un allievo di Castelnuovo, Oscar Zariski, trasferitosi negli Stati Uniti, a spostare col volume Algebraic Surfaces del 1935, il baricentro della geometria algebrica dalla geometria all’algebra, guardando in direzione delle idee della Noether, di Wolfgang Krull e di Salomon Lefschetz. Negli anni Quaranta, riprendendo questa impostazione anellare gli studi di André Weil culminano nel volume fondamentale Foundations of algebraic geometry del 1946, dove viene proposta una definizione rigorosa del concetto di varietà algebrica, di dimensione e di punto generico (che la scuola geometrica italiana aveva spesso usato imprecisamente).
Algebra astratta
In senso stretto, l’approccio assiomatico all’algebra non è un’invenzione del Novecento perché è già presente in un lavoro di teoria dei gruppi di Arthur Cayley del 1854. Anche Giuseppe Peano nel 1888 aveva presentato una definizione assiomatica di spazio lineare astratto. Tuttavia l’assiomatizzazione dell’algebra all’inizio del secolo riceve un nuovo impulso dalla scoperta nel 1902 della ridondanza negli assiomi della geometria di Hilbert da parte di Eliamkim H. Moore. Nel 1903 Leonard E. Dickson sviluppa nuovi assiomi per un campo e nei primi del Novecento Josef Kürschák inaugura la teoria delle valutazioni con la motivazione di dare una base rigorosa alla teoria del campo dei numeri p-adici, scoperto nel 1897 da Kurt Hensel.
La nascita dell’algebra moderna è però convenzionalmente identificata nelle 142 pagine della memoria di Ernst Steinitz, Algebraische Theorie der Korper (Teoria algebrica dei campi) del 1910. In essa Steinitz, influenzato da Hensel, sviluppa la nozione di campo primo, di estensione separabile, di grado di trascendenza e dimostra che ogni campo ammette un’estensione algebricamente chiusa. La nozione di campo – introdotta da Richard Dedekind nell’ambito della teoria dei numeri complessi – è ora considerata come una struttura consistente di un insieme di elementi in cui la congettura è la più ovvia attività matematica. Le nozioni di ideale sinistro e di ideale destro per un’algebra erano state definite da Poincaré nel 1903 in uno studio dedicato alle soluzioni algebriche di equazioni differenziali. Queste nozioni vengono però riscoperte da Henry M. Wedderburn nella stessa memoria del 1907, On Hypercomplex numbers, in cui dimostra che ogni algebra semisemplice di dimensione finita su un campo è somma diretta di algebre complete di matrici su corpi. Lo studio degli ideali sinistro e destro prosegue negli anni Venti con Emmy Noether e i risultati principali di questa nuova impostazione algebrica sono raccolti sistematicamente nel volume di Bartel Leendert van der Waerden del 1930, dal titolo eloquente di Modern Algebra.
La teoria dei numeri
Alcuni problemi che Hilbert ha presentato nella sua conferenza di Parigi riguardano la teoria dei numeri. Il settimo problema di Hilbert riguarda i numeri trascendenti ed estende una congettura di Leonhard Euler. Nel 1929 Aleksandr Gelfond (1906-1968) dà una prima soluzione parziale alla congettura, dimostrando la trascendenza di ep; nel 1934 lo stesso Gelfond e indipendentemente Thorald Schneider dimostrano interamente la congettura di Hilbert.
L’ottavo problema di Hilbert riguardava la correttezza della congettura di Riemann. Nel 1859 Bernhard Riemann aveva messo in luce, rispetto alla distribuzione dei numeri primi, la rilevanza del comportamento della funzione di variabile complessa.
Godfrey Harold Hardy nel 1914 dimostra che la funzione zeta ha infiniti zeri sulla retta critica e nel 1942 Atle Selberg riesce a stimare la densità media degli zero non banali su questa retta.
A partire dagli anni Cinquanta e in particolare dai lavori pionieristici di Alan Turing, l’uso dei calcolatori ha permesso di verificare l’ipotesi di Riemann per valori numerici sempre più elevati. Nella seconda metà degli anni Quaranta, André Weil dimostra che l’ipotesi di Riemann è vera per i campi di funzioni algebriche di una variabile su un campo finito. Rielaborando l’idea che era stata di Emil Artin di espandere la teoria della funzione zeta, egli definisce la funzioni zeta per spazi di dimensione qualunque su un campo finito, formulando congetture che generalizzano l’ipotesi di Riemann, concernenti il numero di soluzioni di sistemi di congruenze polinomiali. Le congetture di Weil sono state dimostrate da Pierre Deligne nel 1973, mettendo a frutto la teoria degli schemi di Grothendieck.
L’ultimo teorema di Fermat
È noto che Pierre de Fermat intorno al 1638, in margine all’edizione di Bachet dell’Arithmetica di Diofanto, scrive di avere dimostrato l’insolubilità di una cruciale equazione ma di non avere spazio per inserire la dimostrazione.
Per circa 350 anni i matematici hanno accettato l’affermazione di Fermat, senza tuttavia riuscire a trovare la dimostrazione che il grande matematico francese diceva di aver elaborato. Nella conferenza di Parigi, Hilbert cita questa congettura come esempio di problema fecondo, avendo ispirato la teoria degli ideali di Eduard Kummer avendo così favorito l’emergere della teoria dei campi dei numeri algebrici. Un passo decisivo verso la dimostrazione della congettura di Fermat è stato compiuto nel 1986 quando Kenneth Ribet ha dimostrato che la congettura è a sua volta una conseguenza della congettura di Taniyama-Shimura (T-S), che mette in comunicazione due aree di ricerca apparentemente separate: la teoria algebrica delle curve ellittiche e la teoria analitica delle forme modulari. T-S afferma che per ogni curva ellittica esiste una forma modulare con la stessa L-serie (una particolare funzione analitica associata a numeri primi), sebbene per dimostrare la congettura di Fermat sia richiesto qualcosa di meno, cioè la dimostrazione T-S solo relativamente alle curve ellittiche semistabili. Nel 1994 Andrew Wiles forniva la prova che questa versione più debole della congettura di T-S era sufficiente a dimostrare l’ultimo teorema di Fermat. La dimostrazione di Wiles può essere considerata come un’implementazione del gigantesco programma tracciato da Robert Langlands che riguarda l’unificazione della teoria dei numeri, la geometria algebrica e l’analisi complessa.
Matematica applicata: la teoria della probabilità
Il sesto problema di Hilbert concerneva la possibilità di una trattazione assiomatica della teoria della probabilità (nonché della meccanica), le cui origini si possono fare risalire alla prima metà del Seicento. Nel 1933 appaiano i Grundbegriffe del Wahrscheinlichkeitsrechnung (Concetti fondamentali delle probabilità) del russo Andrej Nikoloaevic Kolmogorov, monografia nella quale confluiscono la tendenza all’assiomatizzazione propria della matematica del Novecento (“la teoria della probabilità – scrive l’autore – può e deve essere derivata a partire da assiomi, esattamente come la geometria o l’algebra”), e i contributi della teoria della misura e dell’integrazione sviluppati nella prima parte del secolo.
Sempre negli anni Trenta, Bruno de Finetti sviluppa un diverso approccio matematico alla probabilità, identificata come grado di affidabilità, che ne enfatizza la dimensione soggettiva.
La teoria dei giochi
La teoria dei giochi studia situazioni di competizione e di cooperazione da una prospettiva matematica. Il primo teorema, apparentemente banale, fu dimostrato da Zermelo nel 1912, applicando la teoria degli insiemi al gioco degli scacchi: date n scacchiere e n coppie di giocatori, se ogni giocatore è perfetto (ossia fa sempre le mosse migliori data la configurazione della scacchiera), allora tutti gli n risultati delle partite saranno uguali (ci sarà quindi una medesima configurazione finale della scacchiera). Nel 1928 von Neumann dimostra il teorema del minimax, fondamentale per la teoria dei giochi, secondo il quale ogni gioco finito a somma costante possiede almeno un punto di equilibrio di minimax in strategie pure o miste. L’originaria dimostrazione di von Neumann ha una natura essenzialmente topologica, ma questo teorema si lascia dimostrare in una pluralità di maniere: con metodi topologici (sfruttando il teorema del punto fisso), con metodi di analisi convessa, (teoremi di separazione), oppure con metodi algebrici.
Nel 1944 vede la luce il trattato fondatore della teoria dei giochi che lega la nascente teoria all’economia matematica: Theory of Games and Economic Behaviour, di von Neumann e Oskar Morgestern. Nel 1951 John F. Nash, usando il teorema del punto fisso di Kakutani, dimostra il teorema relativo all’equilibrio non cooperativo di un gioco a somma variabile che si può considerare come la generalizzazione del minimax.
Dimostrazioni assistite: che cos’è una prova?
Nel 1976, Kenneth Appel e Wolfang Haken annunciano la dimostrazione con l’uso di un computer della celebre congettura dei quattro colori (pubblicata l’anno dopo): una mappa qualsiasi può essere colorata con al massimo quattro colori in modo tale che Paesi adiacenti siano colorati differentemente. Questo problema di matematica combinatoria era stato sottoposto nel 1852 da uno studente di matematica ad Augustus De Morgan che l’aveva a sua volta smistato alla comunità matematica: nel 1878 Cayley aveva proposto il problema alla London Mathematical Society e un anno dopo Arthur B. Kempe aveva presentato una dimostrazione ingegnosa ma incompleta della congettura. Nel 1913 George Birkhoff aveva rielaborato l’argomento di Kempe e dimostrato la congettura per tutte le mappe che comportano meno di 26 regioni da colorare. Si può dire che buona parte della teoria dei grafi, le cui radici affondano nel celebre problema dei ponti di Konigsberg che Euler pone e risolve intorno al 1735, si sviluppi avendo questa congettura in mente. Di scarsa importanza per i cartografi, questo teorema si è rivelato importante per la riflessione sulla natura della dimostrazione matematica: nella dimostrazione di Appel e Haken 1200 ore di tempo-macchina sono necessarie per analizzare più di un migliaio di configurazioni possibili. Secondo alcuni autori accettare la dimostrazione del teorema dei quattro colori comporta modificare o allargare il nostro senso di dimostrazione, per altri autori, più convincenti, la macchina è invece programmata per seguire gli stessi metodi di dimostrazione tradizionali.