Archivi autore: Lorenzo Venieri

La crisi dei fondamenti: Possiamo fidarci della matematica?

Nel nostro tentativo di ripercorrere le tappe che hanno portato alla moderna concezione della matematica e della logica ci siamo fermati alla lettera di Russell al povero Frege, che ha visto crollare davanti ai propri occhi il lavoro di una vita. Era riuscito ad erigere un monumento grandioso alla potenza espressiva della pura logica, un palazzo curato nei minimi particolari, che però poggiava le proprie fondamenta sul paradosso.

In quegli stessi anni inoltre i lavori di Cantor stavano prendendo piede nella comunità matematica, e i suoi risultati estremamente controintuitivi non facevano altro che aumentare la preoccupazione riguardo i metodi utilizzati dalla matematica. Come possiamo essere certi che le dimostrazioni siano corrette se non abbiamo nemmeno una definizione univoca di cosa sia una dimostrazione? Come possiamo dunque fidarci della matematica?

Ed ora, proprio quando si sentiva maggiormente il bisogno di una formalizzazione dei metodi matematici, l’ennesimo paradosso salta fuori e manda all’aria il più grande tentativo di formalizzazione nella storia della matematica.

Una battaglia grandiosa e decisiva

Ben dieci anni prima di ricevere la devastante lettera di Russell, lo stesso Frege, commentando i lavori di Cantor sul transfinito, scriveva:

Alla fine, infatti, l’infinito rifiuterà di lasciarsi escludere dall’aritmetica … Possiamo dunque prevedere che questo problema costituirà lo scenario di una battaglia grandiosa e decisiva”.

Non poteva certo immaginare che la prima vittima di questa battaglia sarebbe stata proprio la sua Ideografia. È evidente infatti come il metodo diagonale di Cantor sia stato di ispirazione per la costruzione dell’insieme paradossale di Russell: l’insieme di tutti gli insiemi che non hanno se stessi come elemento.

La lettera di Russell mise nero su bianco che l’allora concezione sui fondamenti della matematica poggiava su principi contraddittori. Non sorprende quindi che i più grandi matematici dell’epoca iniziarono ad interessarsi al problema, scendendo in campo in diverse fazioni nella battaglia grandiosa e decisiva pronosticata da Frege.

I logicisti

Bertrand Russell e Alfred North Whitehead

Una di queste fazioni fu quella dei logicisti. Questi, proprio come Frege, sostenevano con convinzione che la matematica discende dalla logica.

Uno dei massimi esponenti di questo lato del campo di battaglia fu proprio colui che aveva appena sferrato un colpo quasi mortale alla corrente logicista: Bertrand Russell.

Russell infatti credeva che i problemi riscontrati con l’Ideografia fossero peculiari della costruzione di Frege e non inerenti nell’approccio logicista. Tentò quindi di rimediare ai danni che provocò la scoperta del suo paradosso, elaborando con il suo ex professore a Cambridge Alfred North Whitehead, i tre volumi dei Principia Mathematica.

Secondo Russell il problema al cuore del paradosso era l’autoriferimento, che dunque andava evitato in tutti i modi. Per questo elaborò la teoria dei tipi: nella costruzione dei Principia Mathematica ogni oggetto, ogni proposizione, ogni insieme, ha un proprio livello, e ogni oggetto non può riferirsi ad oggetti di livello pari o superiore al proprio. In questo modo, per esempio, l’insieme A non può avere come elemento l’insieme A. Non può esserci alcun “insieme di tutti gli insiemi”, che dovrebbe contenere se stesso. Non può esserci una proposizione che afferma “Questa proposizione è falsa”…

Con questa costruzione estremamente cauta e vincolante Russell sperava di evitare paradossi come quello enunciato nella lettera a Frege.

Vedremo però che l’autoriferimento sarà un nemico molto più difficile da sconfiggere di quel che Russell credeva. Riuscirà infatti a celarsi tra le maglie strette della costruzione dei Principia Mathematica senza essere smascherato fino a diversi anni dopo, quando, nel 1931, proprio facendo uso dell’autoriferimento nascosto nell’opera di Russell e Whitehead, una delle più grandi menti dello scorso secolo dimostrò il risultato più sconvolgente nella storia della matematica. Ma andiamo con calma, ci arriveremo.

Gli intuizionisti

Sul lato opposto del campo di battaglia era schierata la fazione degli intuizionisti. Contrariamente ai logicisti, questi credevano che la sola logica non avrebbe mai potuto comprendere tutti i ragionamenti matematici, che non si basano sulla logica, bensì sull’intuizione. Per loro la matematica è un’attività costruttiva che precede la logica, che invece è solo descrittiva.

Tra le fila degli intuizionisti possiamo trovare grandi matematici dell’epoca come Leopold Kronecker, acerrimo oppositore di Cantor, Henri Poincaré, Hermann Weyl, e Luitzen Brouwer, il fondatore vero e proprio dell’intuizionismo.

Da sinistra a destra: L. Kronecker, H. Poincarè, H. Weyl, L. Brouwer

Per loro il concetto di “esistenza” in matematica era stato travisato ormai da tempo, ed era stato questo a portare ai risultati controintuitivi di Cantor: per dire che una qualche entità esiste in matematica occorre esporre un metodo costruttivo per trovarla, non basta dimostrare che la sua non-esistenza porta a contraddizioni. In questo modo l’intuizionismo rifiutava il ruolo del principio del terzo escluso in matematica, il principio logico su cui si basano le dimostrazioni per assurdo.

Il grande David Hilbert, che trovava assurde le pretese del costruttivismo, commentò a riguardo:

Privare un matematico della possibilità di fare dimostrazioni per assurdo sarebbe come fare combattere un pugile con le mani legate dietro la schiena.

O anche, durante una sua lezione:

“Sono certo che tra i presenti in aula c’è sicuramente qualcuno che ha in testa meno capelli di tutti gli altri, e il fatto che io non abbia un modo ovvio di individuarlo non nega la sua esistenza”.

L’approccio formalista

David Hilbert

Le ultime citazioni ci fanno capire quanto Hilbert fosse critico nei confronti dell’approccio intuizionista. La sua concezione della matematica era del tutto diversa. Per Hilbert la matematica è pura forma e non ha, ne ha la pretesa di avere, alcun significato fisico. La matematica non si intuisce, si crea.

Proprio per questo le caratteristiche fondamentali da ricercare in un sistema formale non sono l’evidenza degli assiomi o la costruttività delle dimostrazioni, bensì la coerenza e la completezza del formalismo adottato.

Facciamo il punto della situazione. Frege aveva costruito un sistema formale in grado di rappresentare gli usuali ragionamenti matematici come manipolazione di simboli. Aveva posto alla base della sua costruzione i due assiomi che abbiamo visto essere responsabili dell’antinomia di Russell: il principio di comprensione e il principio di astrazione. Sembravano evidenti a prima vista, e questo è un punto fondamentale: se anche partendo da due principi evidenti si giunge a contraddizione, che speranza c’è di fondare la matematica su basi solide?

Ecco che viene fuori la prima caratteristica fondamentale che un sistema formale deve avere, la coerenza: non deve essere contraddittorio. Non basta che gli assiomi siano evidenti, occorre che non sia possibile derivare da essi, seguendo le regole fissate, sia una formula $A$ sia la sua negazione non-$A$.

Ora, tra tutti i possibili sistemi formali non contraddittori, ce ne serve uno in grado di rappresentare la matematica, o almeno l’aritmetica (i lavori di Dedekind e Peano avevano già mostrato che dall’aritmetica è possibile ricavare il resto della matematica), ci serve dunque che sia completo: se una proprietà è vera in matematica, deve essere possibile raggiungere, a partire dagli assiomi del nostro sistema formale, la formula corrispondente a quella proprietà.

Piccola nota: la completezza è sempre una nozione relativa all’insieme dei ragionamenti che vogliamo rappresentare nel nostro sistema formale. Per esempio la logica del primo ordine è completa nel senso che ogni formula logicamente valida è raggiungibile a partire dagli assiomi seguendo le regole di inferenza. Ovviamente le formule logicamente valide sono un sottoinsieme delle formule vere nell’aritmetica. Prendiamo ad esempio la formula “$\forall x \exists y , y>x$”. Questa è vera nella struttura dei numeri naturali, ma possiamo trovare tantissime strutture numeriche in cui non è vera, per esempio un qualunque insieme finito dotato dell’usuale relazione d’ordine $>$, quindi non è una formula logicamente valida.

Un sistema formale coerente e completo

Ora si pone il problema di trovare un tale sistema formale, che sia allo stesso tempo non contraddittorio e completo. Prima di tutto, ne esiste uno?

Certo che esiste! Basta prendere il sistema che ha per assiomi tutte le formule vere nell’aritmetica e nessuna regola di inferenza. Bene, abbiamo risolto tutti i nostri problemi? Abbiamo trovato finalmente dei fondamenti solidi per la matematica? Sfortunatamente no. Con un tale sistema, per quanto completo e coerente, non saremmo in grado né di trovare risultati nuovi, né di verificare se un risultato sia vero o meno.

Se vogliamo fare matematica ci serve un’ulteriore vincolo per il sistema: la decidibilità. Deve esistere una procedura effettiva in grado di decidere se una dimostrazione data sia corretta o meno.

Ecco dunque il Programma di Hilbert: trovare un sistema formale coerente, completo e decidibile.

Ricordate il sogno di Leibniz? Eccolo di nuovo, due secoli dopo. Certo, Leibniz sognava un sistema completo rispetto a tutto lo scibile umano, mentre Hilbert si sarebbe accontentato di comprendere anche solo la matematica, ma l’idea fondamentale è sempre la stessa.

Ora non rimane che cercare questa moderna characteristica universalis.

Da dove nascono le considerazioni di Hilbert?

Il primo risultato che rese famoso Hilbert fu la dimostrazione della congettura di Gordan, un problema della teoria degli invarianti algebrici. La dimostrazione di Hilbert all’epoca destò molto scalpore perché si trattava di una dimostrazione non costruttiva: sfruttando un risultato molto più generale e profondo, oggi noto come Teorema della base di Hilbert, dimostrò che ipotizzando falsa la congettura di Gordan si sarebbe generata una contraddizione.

Kronecker, fermo costruttivista, era un personaggio molto influente nella matematica tedesca e per questo le critiche alla dimostrazione di Hilbert non tardarono ad arrivare. Lo stesso Gordan, quando lesse per la prima volta la dimostrazione di Hilbert esclamò: “Questa non è matematica, è teologia!”. Poco tempo dopo allora Hilbert presentò una nuova dimostrazione, stavolta pienamente costruttiva. La prima dimostrazione rimaneva però un’emblema della potenza del pensiero astratto e spalancò una finestra sulla matematica del nuovo secolo.

Anni dopo, quando l’utilità del metodo di Hilbert fu universalmente riconosciuta, anche Gordan fece un passo indietro e disse pubblicamente: “Debbo ammettere che anche la teologia ha i suoi pregi.”

I fondamenti della geometria

Nel 1898 Hilbert tenne all’università di Gottinga un corso di geometria euclidea. Geometria euclidea? Ma non è un argomento troppo semplice per un corso universitario? Dopotutto oggi, così come allora, si studia alle scuole secondarie.

Ma Hilbert aveva in mente un modo del tutto nuovo di approcciare la geometria. Nel suo corso ne avrebbe esposto una nuova assiomatizzazione in modo da renderla una disciplina pienamente formale, in cui l’intuizione non avrebbe avuto più alcuno spazio.

Gli Elementi di Euclide è stata una delle opere più importanti della storia della matematica. In essa il matematico greco, a partire dai famosi cinque postulati sviluppava tutte le proposizioni ed i teoremi della geometria elementare che ci hanno insegnato a scuola. Un’opera maestosa, che dalla sua prima stesura nel IV secolo a.C. fino ad Hilbert, a inizio ‘900, fu usata per l’insegnamento della geometria, resistendo a più di due millenni di storia.

Si scoprì però che gli assiomi di Euclide non erano in realtà sufficienti a dedurre tutte le proposizioni che Euclide faceva discendere da essi, si potrebbe dire che non erano completi. Il primo ad accorgersene fu il vecchio Leibniz, che abbiamo già incontrato.

Già la prima proposizione del primo libro degli Elementi di Euclide infatti non discende direttamente dai 5 assiomi. Essa spiega come “Sopra una data retta finita (segmento), costruire un triangolo equilatero”.


Euclide prescrive di tracciare gli archi AC e BC, di centro rispettivamente A e B e ampiezza AB. Il punto in cui i due archi si intersecano sarà equidistante dai punti A e B, sarà quindi un vertice del triangolo equilatero ABC.

Ma come possiamo essere sicuri che i due archi di cerchio si incontrino? Sembra evidente, ma noi stiamo cercando di fondare la matematica sul puro formalismo, proprio perché non vogliamo che l’intuito, che più volte ci ha ingannato, continui a intrufolarsi nelle nostre deduzioni.

Come recita una famosa citazione di Hilbert, la geometria dovrebbe funzionare ugualmente se ai termini “piano”, “retta” e “punto” sostituissimo “tavoli”, “sedie” e “boccali di birra”, a patto che le relazioni tra questi oggetti siano quelle descritte dagli assiomi.

Ebbene, nessun assioma assicura che due archi, o anche due rette, se non sono parallele, debbano per forza incontrarsi in un punto. Dalla necessità di esplicitare questo fatto si formulò un nuovo assioma: l’assioma di continuità della retta.

Pian piano si scoprì che questa non fu l’unica dimenticanza di Euclide.

L’opera di Hilbert aveva lo scopo proprio di trovare tutti gli assiomi necessari a costruire la geometria descritta da Euclide.

La grande novità in questo lavoro è che Hilbert fu il primo a porsi il problema di come dimostrare la completezza e la coerenza del suo sistema di assiomi.

Riuscì nell’impresa di dimostrare che il suo sistema era coerente. Per farlo ebbe l’idea di applicare i metodi della matematica al suo sistema. Capì che per analizzare le dimostrazioni matematiche sarebbe stata necessaria una metamatematica: una teoria della dimostrazione.

(Dimostrarne anche la completezza era un problema più delicato: nel 1951 il logico polacco Alfred Tarski riuscì a dimostrare la completezza di una versione della geometria euclidea)

L’idea fondamentale della dimostrazione di coerenza della geometria fu quella di ridurre il problema alla consistenza della teoria dei numeri reali, che a sua volta poggiava le basi sull’aritmetica. In questo modo se l’aritmetica è consistente, allora deve esserlo necessariamente anche la geometria.

Ora però il problema si è spostato: chi ci dice che l’aritmetica non sia contraddittoria?

Dalla necessità di rispondere a questa domanda nacque il Programma di Hilbert, di cui abbiamo parlato qualche riga più su.

In matematica non ci sono ignorabimus

Hilbert era più che certo del fatto che il suo programma avrebbe avuto successo, si trattava solo di capire quanto tempo sarebbe stato necessario a trovare il sistema formale giusto.

Dopotutto il trovare un tale sistema significherebbe avere una prova di qualcosa che sembra essere del tutto naturale: in matematica non esistono domande senza risposta.

Chiunque si sia mai appassionato alla matematica deve sicuramente parte di questa passione a questa certezza che si instilla in noi ogni volta che incontriamo una nuova dimostrazione.

Douglas Hofstadter, autore di Gödel, Escher, Bach: un’Eterna Ghirlanda Brillante, chiama questa certezza “Il credo del matematico”, che si compone di due proposizioni:

$A$ è vero perché esiste una dimostrazione di $A$

$A$ è vero e quindi esiste una dimostrazione di $A$

Il sistema decidibile, coerente e completo del Programma di Hilbert avrebbe dato la prova definitiva che per ogni affermazione nel campo della matematica sarebbe stato possibile trovare una dimostrazione di essa o una dimostrazione della sua negazione.

Sono ormai passate alla storia le parole di Hilbert con cui mise in luce questo fatto:

Come esempio del modo in cui le questioni fondamentali possono essere trattate [nella teoria della dimostrazione], vorrei scegliere la tesi che ogni problema matematico può essere risolto. Ne siamo tutti convinti. Dopotutto, una delle cose che ci attraggono maggiormente quando ci dedichiamo a un problema matematico è precisamente che, dentro di noi, sentiamo sempre il richiamo: ecco il problema, cerca la soluzione; puoi trovarla col puro pensiero, perché in matematica non ci sono ignorabimus. Ora, certamente la mia teoria della dimostrazione non può specificare un metodo generale per risolvere ogni problema matematico, ciò non esiste. Ma la dimostrazione che l’assunzione della risolvibilità di ogni problema matematico è coerente cade interamente entro l’ambito della nostra teoria.

Wir müssen wissen, wir werden wissen

L’8 settembre 1930 a Königsberg, in occasione del suo pensionamento, Hilbert venne insignito della cittadinanza onoraria della sua città natale. Durante la cerimonia pronunciò un famoso discorso, pieno di ottimismo, che si concludeva così:

Una volta il filosofo Comte, volendo menzionare un problema insolubile, disse che la scienza non sarebbe mai riuscita a conoscere a fondo il segreto della composizione chimica dei corpi celesti, ma alcuni anni più tardi questo problema fu risolto mediante l’analisi spettrale di Kirchhoff e Bunsen. Il vero motivo per cui Comte non riuscì a trovare un problema insolubile sta, a mio parere, nel fatto che non esiste alcun problema insolubile. Al posto dello stolto ignorabimus, il nostro motto è invece wir müssen wissen, wir werden wissen, “dobbiamo sapere, sapremo”.

Le potenti parole finali furono incise sulla tomba di Hilbert a Gottinga. Paradossalmente però, le aveva pronunciate il giorno dopo, e nello stesso luogo, in cui un giovane matematico, Kurt Gödel, aveva annunciato al mondo il suo sconcertante teorema di incompletezza, che sarà il protagonista del prossimo articolo: in qualunque sistema formale contenente l’aritmetica ci sono proposizioni indecidibili, che non possono essere né dimostrate, né refutate.

Era la fine per il Programma di Hilbert e per il “credo del matematico”.

Per saperne di più

Questo capitolo della storia della matematica è estremamente affascinante e densissimo di avvenimenti, dispute, idee… sarebbe impossibile dire tutto in un articolo.

Se vi interessa l’argomento consiglio qualche risorsa su cui approfondire:

Gottlob Frege: la matematica diventa logica?

Nell’ultimo articolo della nostra serie abbiamo visto come George Boole riuscì a trattare la logica come un ramo della matematica. In questo modo fu finalmente possibile applicare la potenza dei metodi matematici a questa importantissima materia di studio, che fino ad allora apparteneva più che altro alla filosofia.

Viene naturale allora chiedersi se, viceversa, la matematica possa essere espressa unicamente mediante la logica, senza dunque far ricorso a ragionamenti “intuitivi”.

Sarebbe una scoperta strabiliante: significherebbe aver trovato finalmente il calculus ratiocinator sognato da Leibniz! Significherebbe essere in grado, data una qualsiasi domanda matematica ben formata, di dare una risposta affermativa o negativa senza alcun dubbio, esibendo come dimostrazione i passaggi logici che ci hanno portato a dare quella risposta!

Non sorprende dunque che dopo Boole furono diversi i tentativi in questa direzione.

Il più importante tra questi fu senza dubbio il sistema logico presentato da Gottlob Frege (1848-1925).

L’Ideografia di Frege

Con Boole si era scoperto che sarebbe stato possibile sviluppare la logica con i normali metodi matematici, ma tra questi è compreso, ovviamente, il ragionamento logico. Questa circolarità nell’usare la logica per sviluppare la logica stessa, per Frege era inaccettabile.

Il suo lavoro fu quello di cercare di dimostrare che tutta la matematica poteva essere basata sulla logica. Per farlo doveva trovare il modo di sviluppare la logica senza usare il ragionamento logico stesso.

A tal proposito Frege pubblicò nel 1879 un libretto di meno di cento pagine intitolato Begriffsschrift, termine coniato da lui stesso unendo i vocaboli tedeschi begriff, “concetto”, e schrift, “scrittura”, tradotto storicamente in italiano come Ideografia.

Al suo interno presentava la sua soluzione al problema della circolarità della logica: un linguaggio artificiale con regole grammaticali (sintattiche) estremamente precise.

La sintassi formale

Sviluppato questo linguaggio formale sarebbe stato possibile elaborare le deduzioni logiche come operazioni puramente meccaniche: le regole di inferenza.

Vediamone un esempio:

Siano $A$ e $B$ due qualsiasi enunciati della Begriffsschrift, se sono asseriti sia $A$ sia $(A § B)$, si asserirà automaticamente $B$.

Notiamo che non è affatto importante conoscere il significato del simbolo $§$!

Probabilmente i lettori più attenti avranno riconosciuto in questa regola di inferenza il modus ponens, e avranno quindi interpretato $§$ come “$\implies$”, ma non è assolutamente necessario farlo per poter applicare questa regola sintattica ogni volta che ci troveremo di fronte alle asserzioni $A$ e $(A § B)$ per ricavare $B$.

Fu proprio questa l’intuizione di Frege! Riuscì a trovare il modo di sostituire l’intuizione con delle ferree regole di sintassi.

Il suo linguaggio formale potrebbe essere considerato l’antenato di tutti gli odierni linguaggi di programmazione.

Il sistema logico sviluppato da Frege è quello che oggi viene insegnato nei primi anni dei corsi di matematica, informatica e filosofia come logica del primo ordine.

Vediamo quali sono i passi avanti rispetto ai sistemi logici precedenti.

Il problema della generalità multipla

Uno dei grandi problemi che Frege riuscì a fronteggiare fu quello della generalità multipla. Prima di lui la logica riusciva ad esprimere agevolmente i connettivi e, o, se…allora e non.

I problemi si presentavano quando occorreva maneggiare i quantificatori tutti e qualche, che nella logica tradizionale potevano essere descritti solo in modo molto artificioso.

Per esempio, è intuitivo che dall’enunciato “Qualche gatto è temuto da tutti i topi” segua logicamente “Tutti i topi temono un qualche gatto”.

La logica aristotelica, ma anche quella sviluppata da Boole, permetteva di esprimere essenzialmente solo quattro tipi di proposizioni:

  • Tutti gli $A$ sono $B$
  • Qualche $A$ è $B$
  • Nessun $A$ è $B$
  • Qualche $A$ non è $B$

Ognuna di queste contiene al massimo un quantificatore. Come possiamo dunque esprimere gli enunciati dei gatti e dei topi che presentano entrambi due quantificatori? (Tutti e qualche)

Il massimo che la logica tradizionale poteva fare era di incorporare il secondo quantificatore all’interno del secondo termine, in modo da ottenere, ad esempio “Qualche (gatto) è (temuto da tutti i topi)”, in modo da rispettare lo schema “Qualche A è B”.

Sembra parecchio scomodo vero? Non solo, non era nemmeno funzionale!

Vediamo infatti come sarebbe stata scritta la seconda proposizione, che dovrebbe essere una conseguenza logica della prima: “Tutti (i topi) temono (un qualche gatto)”. Volendo parafrasarla per rispettare lo schema “Tutti gli $A$ sono $B$” potremmo scrivere “Tutti (i topi) sono (intimoriti da un qualche gatto)”.

Abbiamo sostanzialmente due espressioni totalmente scollegate: “Qualche $A$ è $B$” e “Tutti gli $C$ sono $D$”. Non c’è alcun modo per mostrare meccanicamente che la seconda sia una conseguenza della prima.

Funzione-Argomento

Questi problemi secondo Frege erano imputabili al fatto che la logica aristotelica fosse basata sulla dicotomia soggetto-predicato. Per superare questo ostacolo propose di sostituirla con la dicotomia funzione-argomento, che riprende dalla matematica.

Analizziamo per esempio l’enunciato “$2+3=5$”.

Possiamo vedere l’espressione “$2+3$” come una funzione binaria “( )+( )” che associa ai due argomenti inseriti all’interno delle parentesi tonde la loro somma.

Analogamente, possiamo vedere l’enunciato “$2+3=5$” come una funzione a tre argomenti “( )+( )=( )”. Tale funzione, una volta saturata, restituirà un valore di verità ($V$ o $F$). Se saturiamo la funzione con i termini “$2$”,”$3$”,”$5$” restituirà $Vero$, se invece la saturiamo con “$2$”,”$3$”,”$8$” restituirà $Falso$.

I quantificatori

Per essere in grado di esprimere le nostre due proposizioni sui gatti e topi però ci manca ancora qualcosa. Dobbiamo trovare il modo di esprimere “tutti” e “qualche” in un modo non ambiguo e che ci permetta di maneggiare con efficacia i nostri enunciati.

L’idea di Frege fu quella dei quantificatori: il quantificatore universale $\boldsymbol{\forall}$, “tutti”, ed il quantificatore esistenziale $\boldsymbol{\exists}$, “esiste”.

Torniamo quindi al nostro enunciato: “Qualche gatto è temuto da tutti i topi”.

Se proviamo ora a tradurlo nella notazione di Frege scopriamo che non solo siamo finalmente in grado di farlo, ma che addirittura il linguaggio ideato da Frege è più espressivo e preciso del nostro! Dobbiamo infatti metterci d’accordo su cosa intendiamo con la nostra frase. Per come è scritta in italiano può avere due interpretazioni:

  • Ogni topo teme un qualche gatto:

$\forall t.(Topo(t) \implies \exists g.(Gatto(g) \land Teme(t,g)))$

  • Esiste un gatto che è temuto da tutti i topi:

$\exists g.(Gatto(g) \land \forall t.(Topo(t) \implies Teme(t,g)))$

Dove:

  • $Topo(x)$ è la funzione che restituisce $Vero$ se l’argomento $x$ è un topo
  • $Gatto(x)$ è la funzione che restituisce $Vero$ se l’argomento $x$ è un gatto
  • $Teme(x,y)$ è la funzione che restituisce $Vero$ se $x$ teme $y$

Nell’articolo su Boole avevamo accennato al fatto che la sua logica non fosse in grado di esprimere enunciati del tipo “Tutti gli $X$ sono $Y$ o $Z$”.

Proviamo ora ad esprimere una proposizione di questa forma, per esempio “Tutti i numeri sono pari o dispari”. Per il sistema di Frege non c’è nessun problema:

$\forall n.(Numero(n) \implies (Pari(n) \lor Dispari(n))).$

Ad onor del vero la notazione presentata da Frege era diversa e più scomoda dal punto di vista tipografico, quella che usiamo oggi è la notazione utilizzata nei lavori di Russell e Peano, sviluppata a partire dalle idee di Frege.

L’Ideografia e il sogno di Leibniz

La logica di Frege fu un progresso immenso rispetto alla logica di Boole.

Finalmente si aveva a disposizione un linguaggio formale in grado di abbracciare tutti i ragionamenti utilizzati normalmente dalla matematica.

Finalmente dato un insieme di premesse sarebbe stato possibile raggiungere, prima o poi, tutte le conseguenze logiche di quelle premesse, semplicemente applicando meccanicamente le regole di inferenza. Sembrava proprio finalmente realizzato il sogno di Leibniz, o quasi…

Ma come quasi? Cosa manca per sedersi a un tavolo e dire “Calcoliamo!” per decidere se un qualunque enunciato è vero o falso?

Ebbene, il problema sta proprio in quel “prima o poi”. Partendo dalle premesse e combinandole con le regole di inferenza è possibile tentare di raggiungere una determinata conclusione, ma se dopo qualche ora, qualche giorno, qualche anno non riuscissimo a raggiungerla? Forse semplicemente la conclusione desiderata non discende dalle premesse iniziali, o forse ci siamo fermati troppo presto nel cercare di raggiungerla. Non possiamo saperlo.

Questo è un problema molto profondo, alla base della teoria della calcolabilità, e degli sconcertanti risultati di Kurt Gӧdel, i teoremi di incompletezza. Ci torneremo nei prossimi articoli.

La lettera di Russell

Per Frege la logica era solo il primo passo verso il suo obiettivo finale di rifondare tutta la matematica.

Per farlo, doveva iniziare dai fondamenti dell’aritmetica, che Dedekind e Peano avevano dimostrato essere alla base di tutta la matematica. Pubblicò a tal proposito i due volumi de I Principi dell’Aritmetica in cui, sfruttando il linguaggio formale sviluppato nell’Ideografia, si proponeva di costruire, a partire da determinati assiomi, i numeri naturali e le loro proprietà.

Nel giugno del 1902, mentre il secondo volume era ancora in stampa, arriva a Frege una lettera da parte del trentenne Bertrand Russell, filosofo e matematico inglese.

Russell dice di “trovarsi completamente d’accordo su tutti i punti essenziali” ma anche che “c’è un solo punto in cui ho trovato una difficoltà” (potete trovare il testo integrale della lettera sulla pagina wikipedia dedicata a Frege).

Sfortunatamente non si trattava di una difficoltà di Russell, né di un punto non essenziale. Frege lo capì subito e si precipitò ad aggiungere al secondo volume, che era proprio in quel momento in stampa, un’appendice in cui presentava il problema esposto nella lettera, che iniziava con queste parole:

“Per uno scienziato non c’è niente di peggio che veder crollare i fondamenti del suo lavoro proprio quando questo è stato appena completato. Io sono stato messo in tale situazione da una lettera del signor Bertrand Russell”.

Diversi anni dopo, lo stesso Russell, scrisse di questo gesto di grande integrità intellettuale:

“Fu una cosa quasi sovrumana, una dimostrazione significativa di ciò di cui sono capaci gli uomini se è al lavoro creativo e alla conoscenza che si dedicano, e non all’impresa, tanto più grossolana, di emergere e farsi conoscere”.

L’antinomia di Russell

Ma perché la lettera di Russell scosse così profondamente il lavoro di Frege?

Abbiamo detto che Frege si proponeva di definire i numeri naturali in termini puramente logici, e ci riuscì partendo dalla teoria degli insiemi, sfruttando il concetto di corrispondenza biunivoca. Se sei curioso dei dettagli, l’articolo LA MATEMATICA CONTA: STORIA DEI PRIMI NUMERI presenta la costruzione dei numeri naturali di Russell, molto simile a quella di Frege.

La teoria degli insiemi poggiava su assiomi che a prima vista sembravano intuitivi e abbastanza innocui, ma uno di essi era in realtà un lupo travestito da agnello.

Si tratta del Principio di Astrazione, che essenzialmente afferma:

“Per ogni proprietà esiste l’insieme degli oggetti che soddisfano quella proprietà”.

Per esempio, data la proprietà “essere un numero primo” esiste l’insieme corrispondente dei numeri primi.

Ebbene, Russell si chiese cosa accadrebbe se costruissimo l’insieme corrispondente alla proprietà di non appartenere a se stessi. Cioè l’insieme $R=\{x | x \notin x\}$.

Se R appartenesse a se stesso, allora dovendo rispettare la proprietà che determina l’insieme, non dovrebbe appartenere a se stesso. Se invece R non appartenesse a se stesso, allora rispettando la proprietà, dovrebbe appartenere a se stesso. $R \in R \iff R \notin R$

Siamo caduti dunque in una contraddizione: un tale insieme non può esistere, mentre l’Assioma di astrazione ci garantiva la sua esistenza. (Potete trovare l’antinomia di Russell nella sua versione divulgativa: Il barbiere di Russell)

Se una dimostrazione matematica porta ad una contraddizione, significa che almeno una delle premesse da cui parte è falsa, questo è il principio alla base delle dimostrazioni per assurdo.

Ma la contraddizione esposta da Russell mostrava che erano insostenibili gli stessi assiomi su cui era fondata la costruzione di Frege.

Frege stesso commentò:

“Qui non è in causa il mio metodo di fondazione in particolare, ma la possibilità di una fondazione logica dell’aritmetica in generale.”

Si aprì così la crisi dei fondamenti della matematica, di cui vedremo gli sviluppi nei prossimi articoli.

George Boole: la logica diventa matematica

Nell’ultimo articolo abbiamo parlato del sogno di Leibniz: costruire una lingua dotata di regole di manipolazione grammaticale in grado di mettere in luce automaticamente le relazioni logiche esistenti tra le proposizioni.

Dopo la sua morte nel 1716, l’interesse degli intellettuali di tutta Europa si concentrò sugli altri innumerevoli apporti che Leibniz diede ai più disparati campi del sapere. Per molto tempo però, la sua idea di una Caratteristica Universale, sembrava destinata a perdersi.

A inizio ‘Ottocento, l’Inghilterra era rimasta notevolmente indietro nello sviluppo della matematica rispetto al resto d’Europa. La controversia tra Newton e Leibniz sulla priorità nell’invenzione del calcolo infinitesimale aveva portato i matematici inglesi ad un isolazionismo intellettuale che costò caro alla matematica d’oltremanica. Eppure fu proprio lì che si ebbe il più grande balzo in avanti verso il sogno di Leibniz.

Nasce l’algebra astratta

La svolta nella matematica inglese coincise con la fondazione nel 1815 a Cambridge dell’Analytical Society, di cui facevano parte tre giovani matematici: l’algebrista George Peacock, l’astronomo John Herschel e Charles Babbage, rimasto alla storia per le sue macchine calcolatrici.

La società aveva come scopo la riforma dell’insegnamento, anche attraverso l’adozione della notazione del calcolo differenziale più comoda (quella di Leibniz) usata nell’Europa continentale.

Proprio Peacock con il suo Treatise on Algebra (1830) fu tra i primi a tentare di dare all’algebra una struttura logica paragonabile a quella data alla geometria dagli Elementi di Euclide. Si inizia a sviluppare così l’algebra simbolica.

Cosa succede se definiamo delle operazioni generiche che rispettano alcune proprietà (per esempio la commutatività, associatività o distributività)? Quali proprietà possiede un insieme su cui sono definite tali operazioni? Queste sono le domande che affascinavano gli algebristi inglesi in quegli anni.

Pian piano ci si accorse che non era necessario attribuire nessun significato specifico alle lettere usate né ai simboli delle operazioni. Una volta sviluppata un’algebra simbolica con le sue regole essa può diventare la grammatica di centinaia di algebre differenti dotate di significati specifici.

A partire da queste considerazioni nacquero i quaternioni di Hamilton, la teoria dell’estensione lineare di Grassmann, le matrici di Cayley, la teoria dei gruppi, degli anelli, dei campi e tantissime altre pietre preziose dell’algebra moderna, di cui sicuramente parleremo in articoli futuri.

Tra tutte queste forme di algebra, una in particolare fu talmente rivoluzionaria da sconfinare nel campo della logica, creando effettivamente il ponte tra la logica e la matematica: l’algebra di Boole.

L’algebra di Boole

Boole trovò effettivamente un modo di aritmetizzare la logica, rendendo possibile analizzare le proposizioni logiche attraverso gli strumenti della matematica.

La logica fino a quel momento coincideva sostanzialmente con la logica aristotelica e studiava enunciati del tipo: “tutti i mammiferi sono animali”, “nessun gatto abbaia”, “alcune persone sanno nuotare”. Boole comprese che ai fini del ragionamento logico, l’aspetto significativo di parole come mammifero, gatto o persone è la classe (o collezione) di tutti gli oggetti descritti da quella parola (la classe dei mammiferi, la classe dei gatti, la classe delle persone).

Indicava quindi le classi mediante lettere, per esempio $m$ per la classe dei mammiferi.

Sull’insieme di tutte le classi definisce allora delle operazioni:

  • prodotto: date due classi $x$ e $y$, la classe $xy$ è la classe formata da tutti gli oggetti che appartengono tanto alla classe $x$ quanto alla classe $y$. In senso moderno è l’intersezione tra gli insiemi $x$ e $y$.
  • somma: date due classi $x$ e $y$, la classe $x+y$ è la classe formata da tutti gli oggetti presenti in $x$ o in $y$. Oggi è detta unione tra $x$ e $y$.

Ora che abbiamo definito delle operazioni sui nostri elementi (che sono le classi) possiamo chiederci quali proprietà soddisfino. È facile verificare che le cinque proprietà fondamentali dell’aritmetica vengono rispettate:

  • commutativa della somma: $x+y=y+x$
  • commutativa del prodotto: $xy=yx$
  • associativa della somma: $x+(y+z)=(x+y)+z$
  • associativa del prodotto: $x(yz)=(xy)z$
  • distributiva del prodotto rispetto all’addizione: $x(y+z)=xy+xz$

Non tutte le regole dell’algebra ordinaria però continuano a essere valide, per esempio:

  • $x+x=x$: l’unione tra la classe $x$ e se stessa non può che essere $x$ stessa
  • $xx=x$: l’intersezione tra la classe $x$ e se stessa è $x$ stessa

Fu proprio la seconda di queste due particolari proprietà a suggerire a Boole un’idea geniale!

L’equazione $x^2=x$ possiede, nell’algebra ordinaria, soltanto due soluzioni: $x=0$ e $x=1$.

Fu così che Boole arrivò a concepire che l’algebra della logica non è altro che l’algebra ordinaria limitata a due soli valori, 0 e 1. (Ecco che torna in gioco il sistema binario tanto caro a Leibniz)

Solo che per dare senso a questa conclusione era necessario interpretare i simboli 0 e 1 non come numeri, bensì come classi!

Vediamo in che modo: 0 nell’algebra ordinaria è l’elemento assorbente del prodotto (per ogni numero $x$, $0x=0$), mentre 1 è l’elemento neutro del prodotto ($1x=x$).

Se vogliamo mantenere le stesse proprietà nell’algebra delle classi, affinché $0x$ sia uguale a 0 per ogni classe $x$ basta interpretare 0 come la classe a cui non appartiene nessun elemento. Analogamente $1x$ sarà invece uguale a $x$ per ogni classe $x$ se interpretiamo 1 come la classe che contiene qualunque oggetto.

In termini moderni diremmo che 0 è l’insieme vuoto e 1 l’insieme universo.

Ci rimane soltanto da dare un significato all’operazione inversa della somma per poter sfruttare molte delle procedure che eseguiamo nell’algebra ordinaria. Definiamo quindi la differenza $x-y$ come la classe degli oggetti che stanno in $x$ ma non in $y$. (Osserviamo che come nell’algebra ordinaria, per la sottrazione non vale la proprietà commutativa: $x-y$ è diverso da $y-x$)

Giocando con l’equazione fondamentale $x^2=x$, scrivendola nella forma $x^2-x=0$ e raccogliendo a fattor comune, Boole ottenne l’identità $x(1-x)=0$, che espressa a parole sarebbe “l’intersezione tra $x$ e il suo complementare è l’insieme vuoto” cioè “nessun oggetto può tanto appartenere quanto non appartenere ad una classe $x$”.

Per Boole fu un risultato davvero entusiasmante: a partire dalle sue semplici regole algebriche aveva riscoperto l’importantissimo principio di non contraddizione che Aristotele descriveva come l’assioma fondamentale di tutta la filosofia “È impossibile che la stessa proprietà appartenga e non appartenga alla stessa cosa”.

La logica aristotelica

A quei tempi la logica non aveva fatto grandi passi in avanti rispetto ai risultati ottenuti da Aristotele ben due millenni prima, sembrava quasi che la logica aristotelica godesse di una certa immunità nei confronti delle imperfezioni e del progresso che invece minacciano qualsiasi altra teoria scientifica.

La logica di Aristotele si occupava di particolari deduzioni logiche, i cosiddetti sillogismi: da due proposizioni dette premesse si può dedurre, a volte, un’altra proposizione, detta conclusione.

Non tutte le proposizioni sono analizzabili dalla logica aristotelica, devono poter essere esprimibili da enunciati di una di queste quattro forme:

  • Tutti gli $X$ sono $Y$
  • Nessun $X$ è un $Y$
  • Alcuni $X$ sono $Y$
  • Alcuni $X$ non sono $Y$

Vediamo un esempio di sillogismo: Tutti gli $X$ sono $Y$, Tutti gli $Y$ sono $Z$ $\implies$ Tutti gli $X$ sono $Z$.

Dire che un sillogismo è valido significa che sostituendo alle variabili $X$, $Y$, $Z$ proprietà qualsiasi, se le premesse sono vere sarà vera anche la conclusione. Il sillogismo dell’esempio precedente è valido, vediamolo con un esempio di sostituzione:

Tutti i cani ($X$) sono mammiferi ($Y$), Tutti i mammiferi ($Y$) sono vertebrati ($Z$) $\implies$ Tutti i cani ($X$) sono vertebrati ($Z$)

Naturalmente non tutti i sillogismi sono validi, per esempio “Tutti gli $X$ sono $Y$, Tutti gli $X$ sono $Z$ $\implies$ Tutti gli $Y$ sono $Z$”.

Lewis Carroll, maestro di giochi di parole, nel suo romanzo Sylvie e Bruno scriveva che in un “sillygism” (da silly, “ridicolo”, in assonanza con syllogism) a partire da due “prim Misses” (da miss, “fallire, sbagliare”, in assonanza con premises) si deduce una “delusion” (assonanza con conclusion).

Diagramma di “The Game of Logic”

I problemi della logica appassionarono molto Carroll (Charles L. Dodgson) matematico e scrittore dell’epoca, famoso per i suoi romanzi sulle avventure di Alice nel Paese delle Meraviglie, che si divertiva molto a giocare con i sillogismi. Il suo Logica Fantastica, una raccolta di sillogismi assurdi ne è un esempio.

Scrisse perfino un libro (The Game of Logic) in cui mostrava come la logica aristotelica potesse essere trasformata in un semplice e interessante gioco, utilizzando un diagramma apposito e nove gettoni.

L’analisi della logica di Boole

Abbiamo già visto che l’algebra di Boole è in grado di esprimere il principio di non contraddizione aristotelico, vediamo ora che è in grado di esprimere qualsiasi sillogismo!

Prendiamo ad esempio “Tutti gli $X$ sono $Y$”. Significa che non c’è niente che appartiene alla classe $X$ che non appartenga alla classe $Y$. Nel linguaggio dell’algebra di Boole: $X(1-Y)=0$ o, equivalentemente, $X=XY$. Allo stesso modo “Tutti gli $Y$ sono $Z$” si può scrivere come $Y=YZ$.

Usando queste equazioni otteniamo $X=XY=X(YZ)=(XY)Z=XZ$, cioè la conclusione desiderata: “Tutti gli $X$ sono $Z$”.

Per un sillogismo non valido, per esempio “Tutti gli $X$ sono $Y$, Tutti gli $X$ sono $Z$ $\implies$ Tutti gli $Y$ sono $Z$” non c’è modo di usare le premesse $X=XY$ e $X=XZ$ per ottenere $Y=YZ$.

Algebricamente, la dimostrazione di validità di un sillogismo, è analoga all’eliminazione di una variabile da un sistema di due equazioni in tre variabili.

Non tutti i ragionamenti logici però sono di tipo sillogistico. La vera forza dell’algebra di Boole è che la sua potenza espressiva non si limita alla logica aristotelica, ma si spinge ancora oltre!

Gran parte del ragionamento ordinario si basa su quelle che Boole chiamava proposizioni secondarie, cioè proposizioni che esprimono relazioni fra altre proposizioni.

Si accorse che la stessa algebra che funzionava per le classi avrebbe funzionato anche per studiare proposizioni di questo tipo. Per dire che una proposizione $X$ è vera basta porre a sistema l’equazione $X=1$, analogamente, se $X$ è falsa, poniamo $X=0$. Se due proposizioni $X$ e $Y$ sono entrambe vere scriveremo $XY=1$.

Ma più importante di tutte è l’asserzione “Se $X$, allora $Y$” che può essere rappresentata dall’equazione $X(1-Y)=0$.

Vediamo perché: “Se $X$ allora $Y$” significa, nella nostra notazione, “Se $X=1$ allora $Y=1$”. Se nell’equazione $X(1-Y)=0$ sostituiamo la nostra premessa ($X=1$) otteniamo $1(1-Y)=0$, che è verificata se e solo se $1-Y=0$, cioè quando $Y=1$.

Boole e il sogno di Leibniz

La potenza espressiva del sistema logico di Boole andava molto più in là di quello di Aristotele, ciò nonostante, rimaneva decisamente al di qua di ciò che sarebbe stato necessario per realizzare il sogno di Leibniz.

Per esempio la logica di Boole non è in grado di manipolare con sufficiente espressività enunciati del tipo “Tutti gli $X$ sono $Y$ o Z”, non permettendo alcun ragionamento che possa distinguere la classe $Y$ dalla classe Z. Nel prossimo articolo vedremo come Gottlob Frege riuscì a sviluppare un sistema logico in grado di esprimere anche questi ragionamenti più sottili.

Effettivamente però l’algebra di Boole è il primo esempio di linguaggio che permette di stabilire, per mezzo di calcoli simbolici, quali suoi enunciati sono veri e quali falsi, nel pieno spirito del calculus ratiocinator del sogno di Leibniz.

La grande conquista di George Boole fu quella di dimostrare definitivamente che la logica poteva essere trattata come un ramo della matematica, dando origine alla logica matematica.

Ma l’algebra di Boole è molto di più! Abbiamo visto come l’1 e lo 0 possono rappresentare il vero e il falso, ma allora se rappresentiamo l’1 e lo 0 con, ad esempio, il passaggio o meno di corrente in un cavo elettrico, utilizzando esattamente le stesse leggi logiche e matematiche del sistema di Boole possiamo costruire la teoria dei circuiti elettrici. Questo permette di ridurre non soltanto la logica, ma anche l’elettronica, al linguaggio della matematica, permettendo di sviluppare, circa un secolo più tardi, i primi calcolatori elettronici.

Dopo di Boole queste discipline hanno avuto uno sviluppo ininterrotto fino ai giorni nostri, a cui daremo un’occhiata nei prossimi articoli.

Per approfondire

Quella presentata in questo articolo è una trattazione storica e divulgativa: oggi il concetto di algebra booleana è stato formalizzato con tutto il rigore che la matematica richiede.

Formalmente si dice Algebra di Boole un qualunque reticolo distributivo complementato $< K, \cdot, +, \neg >$

In parole povere è un insieme $K$, detto supporto, (ad esempio $K= \{0,1\} $) dotato di tre operazioni (il prodotto logico $\cdot$, la somma logica $+$ e la complementazione (o negazione) $\neg$) che rispettano determinate proprietà.

A chi volesse saperne di più consiglio la pagina su Wikipedia Algebra di Boole, molto approfondita, o la serie di video a riguardo di YouSciences Academy: Algebra di Boole e funzioni booleane

Per approfondimenti riguardo la biografia di Boole, e tutto lo sviluppo della logica fino ai primi calcolatori elettronici, consiglio ancora una volta il libro Il calcolatore universale di Martin Davis.

Il sogno di Leibniz: la caratteristica universale

Gottfried Wilhelm von Leibniz (1646-1716) è stato un matematico, ingegnere, filosofo, teologo, linguista, diplomatico, giurista, storico… Il suo genio universale ha lasciato tracce del suo passaggio in ogni campo del sapere di cui si è interessato.

Per parlare della sua opera anche solo in uno di questi campi servirebbe ben più di un articolo. 

A noi appassionati di matematica il nome di Leibniz riporta alla mente subito derivate e integrali, famosa è la disputa tra lui e Newton sulla paternità del calcolo infinitesimale. Ci sarebbe tantissimo da dire anche su questo, ma non è l’argomento di oggi. 

In questo articolo parleremo di un’idea, un’idea che grazie al suo sviluppo ci ha regalato la logica, il calcolo automatico e l’informatica moderna.

Prima ti proseguire ti ricordo che sul blog ci sono già altri articoli dedicati ai grandi matematici, eccone alcuni:

Gauss: il principe dei matematici.

Poincaré: l’ultimo universalista.

Leibniz e l’importanza di una buona notazione

Chi ha già avuto a che fare col calcolo differenziale ricorderà sicuramente le diverse notazioni che si possono usare per indicare la differenziazione. Una tra queste è stata inventata proprio da Leibniz, fu lui a introdurre i simboli ∫ per l’integrazione e d per la derivazione. 

Questa notazione è estremamente intuitiva: la regola di Leibniz per il prodotto si dimostra banalmente usando la sua notazione ($d(fg) = (f+df) (g+dg) – fg = f(dg) + g(df) + (df)(dg) = f(dg) + g(df) $, poiché $(df)(dg)$ è infinitesimo di ordine inferiore), la stessa cosa accade per la tecnica di integrazione nota come metodo di sostituzione, usando la notazione di Leibniz è praticamente automatica. 

Emblematico della comodità della notazione di Leibniz è il fatto che ancora oggi venga usata (fuori dalle facoltà di matematica 😉 ) in modo spesso improprio, per giustificare passaggi che altrimenti richiederebbero derivazioni formali più impegnative. Leibniz fece uso sistematico degli infinitesimi, numeri positivi più piccoli di qualsiasi numero reale positivo. Fin dalla loro introduzione venne contestata la legittimità di tali grandezze, ed in effetti all’inizio del XX secolo tutti i matematici riconoscevano che l’uso degli infinitesimi non aveva giustificazione. Nel 1966 Abraham Robinson introdusse l’Analisi Non-standard, riabilitando l’utilizzo degli infinitesimi, definendoli in modo rigoroso sfruttando i rivoluzionari risultati della logica del ‘900.

Questa semplicità di utilizzo non è un caso! Leibniz passò anni a perfezionare la sua notazione. Era convinto dell’importanza di scegliere simboli adatti e trovare regole che ne governassero la manipolazione

In un certo senso è proprio questa l’idea di Leibniz: la sua notazione per il calcolo differenziale in qualche modo si prende carico di gran parte del lavoro, perché possiede già nelle sue regole di manipolazione il significato di ciò che rappresenta. 

Leibniz sognava qualcosa di analogo per l’intera conoscenza umana: un linguaggio artificiale universale, con regole grammaticali che mettessero in luce tutte relazioni logiche esistenti tra le proposizioni. 

Una volta costruito questo linguaggio, sarebbe stato possibile lasciare a delle macchine il compito di dedurre tutte le verità semplicemente sbrigando i calcoli, lasciando libera di dedicarsi al pensiero creativo la mente umana.

«È assurdo impiegare gli uomini di intelligenza eccellente per fare calcoli che potrebbero essere affidati a chiunque se si usassero delle macchine.»

G.W. Leibniz

L’Ars Magna di Llull

Quest’idea in realtà nacque in Leibniz molto prima degli anni in cui sviluppò il calcolo differenziale. Probabilmente risale alla sua gioventù, durante i suoi studi di diritto. Affascinato dalla logica aristotelica, per una mente logica come la sua era assurdo pensare che delle questioni giuridiche, per quanto intricate, non potessero avere una risoluzione univoca. Nell’idea di Leibniz, una volta sviluppato il suo linguaggio, “quando sorga una controversia, non ci sarà più necessità di discussione tra due filosofi di quella che c’è tra due calcolatori. Sarà sufficiente prendere una penna, sedersi al tavolo e dirsi l’un l’altro: calcoliamo!”

Secondo Leibniz, il primo passo verso un alfabeto del pensiero umano doveva essere l’enumerare tutte le possibili combinazioni dei concetti di base di cui il pensiero umano si compone. Questa convinzione lo portò a studiare, da autodidatta perchè stava ancora conseguendo il dottorato in legge, il calcolo combinatorio.

 Nei suoi studi si imbattè nell’opera di Ramon Llull (1232-1315): l’Ars Magna. Llull fu un filosofo, teologo e missionario maiorchino. Nella sua attività di missionario Llull cercò di convertire al cristianesimo gli ebrei e gli arabi. Per questa ragione studiò a fondo la loro cultura e la struttura delle loro lingue, e ne fu influenzato in modo evidente nella creazione della sua filosofia. Per esempio il sistema di numerazione ebraico usa come cifre gli stessi caratteri usati per le parole. In questo modo ogni parola può essere letta anche come un numero, ed è su questa ambivalenza che è nata la Gematria (l’esegesi biblica basata sul valore numerico delle parole). La cultura ebraica è intrisa di collegamenti con i numeri. Basti pensare alla Cabala o allo stesso Talmud, uno dei libri sacri dell’ebraismo, dove un passaggio afferma che combinando lettere dotate di valore numerico, è possibile costruire la struttura del mondo.

L’Ars Magna (1308) ha come obiettivo quello di conoscere Dio, e per farlo sviluppa la prima forma di logica combinatoria. Llull mette in relazione l’alfabeto agli attributi di Dio. Associa alla lettera A Dio stesso, la B alla bontà, la C alla grandezza e così via. Ora per conoscere tutti i possibili attributi di Dio basta combinare a due a due tutte le lettere. Questo procedimento può essere del tutto meccanico, non c’è bisogno di una mente umana per elencare tutte le combinazioni di lettere.


Nella figura è rappresentato un cerchio suddiviso in 9 settori. Sotto ogni lettera compaiono un aggettivo e un sostantivo. Ogni settore è unito agli altri otto per rappresentare tutte le possibili combinazioni che si possono ottenere ruotando il cerchio.

Leibniz rimase molto colpito da quest’opera anche se ne fu molto critico, per lui quella esposta da Llull era “solo l’ombra della vera arte combinatoria”. 

Nel 1666, come seconda tesi di dottorato in filosofia e legge, presentò la Dissertatio de arte combinatoria, nella quale elabora le idee di Llull: partendo dall’alfabeto, attraverso permutazioni e combinazioni, è possibile ottenere qualsiasi proposizione. Partendo da un “alfabeto” di concetti basilari è possibile ottenere qualsiasi verità che discenda da quei concetti. 

Leibniz in questo modo presentava una logica nuova rispetto a quella dei filosofi classici: attraverso l’arte combinatoria la logica poteva essere utilizzata non solo per determinare la validità dei ragionamenti, ma anche a inventare e scoprire meccanicamente nuove verità.

La macchina aritmetica

Leibniz però non poteva accontentarsi di un metodo teorico per meccanicizzare la logica: non dimentichiamoci che all’epoca non esistevano quelle che oggi chiameremmo calcolatrici. La cosa che più si avvicinava ad una macchina calcolatrice automatica era la pascalina, progettata nel 1642 dal fisico, matematico e filosofo francese Blaise Pascal, che però era in grado di eseguire solo addizioni e sottrazioni. 

Per questo Leibniz inventò la sua macchina aritmetica, in grado di effettuare le quattro operazioni aritmetiche elementari. La macchina funzionava grazie alla “ruota di Leibniz”, un meccanismo molto ingegnoso che fino al ‘900 è stato ancora usato nelle macchine calcolatrici. Questa invenzione gli permise di essere ammesso alla Royal Society nel 1673 e quindi di entrare a far parte dei maggiori circoli intellettuali dell’epoca.

Leibniz inoltre continuò a perfezionare la sua macchina per tutta la sua vita, anni più tardi cercò anche di progettarne una in grado di effettuare operazioni nel sistema binario, ma rinunciò a costruirla per il numero troppo elevato di cilindri necessari al suo funzionamento.

Il sistema binario e gli esagrammi cinesi

Leibniz era estremamente interessato alle lingue: oltre al tedesco, sua lingua nativa, conosceva il latino, il greco, il francese e l’italiano. Era convinto che esistesse un linguaggio originale dal quale nacquero tutti gli idiomi esistenti e che dovesse esserci traccia di quella lingua in tutte quelle attuali. 

Leibniz era affascinato anche dalla scrittura cinese. La riteneva un ottimo esempio della sua idea di caratteristica universale. Nella terminologia di Leibniz una caratteristica era un sistema simbolico in cui ogni simbolo rappresenta un’idea, e dotato di regole di manipolazione specifiche. 

La scrittura cinese è articolata in modo molto diverso dalla nostra. È composta da caratteri di vario tipo:

  • ideogrammi (rappresentazioni di idee e concetti astratti, ad esempio: 上 (shàng, sopra) e 下 (xià, sotto))
  • pittogrammi (rappresentazioni per mezzo di disegni, ad esempio: 月 (yuè, luna) e 山 (shān, montagna))
  • composti fonetici (in cui è presente un componente fonetico che da un suono particolare al componente radicale, attribuendogli un significato diverso)
  • composti logici (unione di due caratteri che mantengono il loro significato per crearne uno nuovo)

Sono questi ultimi i più affascinanti dal punto di vista della caratteristica universale di Leibniz, rispettano in modo incredibile l’idea che Leibniz aveva di caratteristica! 

Vediamo alcuni esempi:

  • 家 (jiā, casa): rappresentato da un maiale (豕) sotto a un tetto (宀)
  • 明 (míng, luminoso): rappresentato dai due oggetti più luminosi in natura, il sole (日) e la luna (月)
  • 看 (kàn, guardare): qual è il gesto istintivo quando guardiamo un oggetto lontano, magari in una giornata particolarmente luminosa? Mettiamo una mano (手) sopra gli occhi (目), in modo da ripararli per guardare meglio

Per altre curiosità sulla lingua cinese consiglio di dare un’occhiata al sito Inchiostro Virtuale, estremamente interessante.

Ma non è questo l’unico motivo per cui Leibniz si interessò alla cultura cinese. 

Spesso faceva riferimento all’aritmetica e all’algebra come esempi di discipline che dimostrano l’importanza di un buon simbolismo riferendosi anche ai vantaggi che avevano le cifre arabe rispetto ai numeri romani per effettuare i calcoli. 

Quando scoprì la notazione binaria, rimase colpito dalla sua essenzialità. Leibniz vedeva in questo sistema un’analogia con la creazione partendo dal nulla. All’inizio era il nulla, lo 0, e il primo giorno c’era solo Dio, l’1. Dopo 7 giorni, dato che il 7 in binario è 111, esisteva già tutto, e non c’era nessuno zero. 

Joachim Bouvet, missionario in Cina che si trovava in permesso a Parigi nel 1697, venuto a conoscenza dell’interesse di Leibniz per il sistema binario e la cultura cinese, richiamò la sua attenzione sugli esagrammi dell’I Ching.

I 64 esagrammi

L’I Ching o Libro dei mutamenti è un antico trattato cinese che serviva per fare predizioni, come una specie di oracolo, scritto dal sovrano Fu Hsi intorno al 2400 a.C.

Si basa su una serie di simboli, formati da linee continue e discontinue, raggruppati in trigrammi. Se si uniscono a due a due tutti gli 8 trigrammi possibili otteniamo i 64 esagrammi possibili, formati da 6 linee. È immediato vedere, se consideriamo la linea spezzata come lo zero e quella continua come l’uno, come questa sia una possibile rappresentazione dei numeri da 0 a 63 in notazione binaria.

Utilizzando il sistema binario le regole che governano le operazioni diventano semplicissime! Basta sapere che $1+1=10$ e tutte le moltiplicazioni diventano automatiche. Per dividere un numero per un altro è praticamente sufficiente osservare quale dei due numeri è il  più piccolo. Molte proprietà inoltre diventano evidenti in questa notazione, per esempio, per raddoppiare un numero, basta aggiungere uno zero a destra.

Leibniz, per quanto fosse affascinato da questo sistema, riconosceva però che non sarebbe stato pratico usarlo per i calcoli quotidiani. Già per numeri relativamente piccoli effettuare operazioni in notazione binaria, pur non richiedendo quasi alcun dispendio cognitivo, richiede un enorme numero di passaggi.

La vera potenza del sistema binario è che è facilmente automatizzabile: basta ricordare pochissime regole per essere in grado di effettuare tutti i calcoli. Non è un caso che oggi sia alla base di tutta l’informatica: i computer lavorano con questo sistema e tutto ciò che passa attraverso un supporto digitale, come le immagini, l’audio, i video…è trasformato in una serie di uno e zero.

Riguardo a questo aspetto dell’argomento non posso che consigliare a tutti gli interessati di matematica la lettura del libro “Le due teste del tiranno” di Marco Malvaldi, in particolare del capitolo 2 “Quanto fa Mela Verde per TremalNaik?” nel quale il Funes di Borges è preso come spunto per parlare dell’idea di Leibniz e molto di più: cosa significa pensare.

Lo sviluppo del sogno di Leibniz

Per quanto Leibniz fosse convinto dell’importanza della caratteristica universale, fece pochi passi avanti nel realizzarla. Nel 1678 nello scritto Lingua Generalis, introdusse l’idea di rappresentare i concetti di base attraverso numeri primi e le proposizioni che si deducono da questi attraverso il prodotto di quei numeri primi.

Abbandonò questa idea dopo qualche tempo, considerandola troppo complicata e adottò un altro schema. Nel nuovo approccio riprendeva il metodo della divisione della logica aristotelica per ridurre tutti i concetti ai loro elementi più semplici. A questo scopo secondo Leibniz era necessario redarre un enciclopedia dell’intera conoscenza umana. Arrivò anche a scrivere un’introduzione per tale enciclopedia e a proporre un calcolo logico volto alla caratteristica universale. Questo calcolo logico presentava già alcuni aspetti che faranno parte dell’algebra della logica che Boole svilupperà circa un secolo e mezzo dopo.

Nel corso dei prossimi articoli vedremo come il sogno di Leibniz si è evoluto fino ai giorni nostri attraverso le scoperte delle grandi menti che si sono susseguite nello studio della logica.

Per approfondire

Una splendida trattazione della storia dell’informatica, che parte proprio dal sogno di Leibniz e racconta le conquiste logiche che ne hanno permesso lo sviluppo, la si può trovare nel libro Il calcolatore universale di Martin Davis.

Su youtube è presente una playlist di podcast del professor Odifreddi, che ripercorre la storia della logica dall’antichità fino ai giorni nostri. Vite da logico

GEORG CANTOR: Quanto è infinito l’infinito?


L’infinito! Nessun altro problema ha mai scosso così profondamente lo spirito umano; nessuna altra idea ha stimolato così proficuamente il suo intelletto; e tuttavia nessun altro concetto ha maggior bisogno di chiarificazione che quello di infinito

D. Hilbert

Quanti sono i numeri naturali?

Infiniti!

Bene, ma…”quanto” infiniti?

Cantor fu forse il primo a porsi una tale domanda, e fu il primo a trovare una risposta.

Georg Cantor (1845-1918), matematico tedesco, anche se nato a San Pietroburgo, conseguì il dottorato a Berlino nel 1867 con una tesi sulla teoria dei numeri.

Spinto dall’eminente matematico dell’epoca Eduard Heine (famoso il teorema di Heine-Cantor in analisi; per chi volesse farsi una risata Heine Cantor (Alejandro math parody)), che ne riconobbe le grandi capacità, Cantor prese l’abilitazione come privatdozent (professore indipendente) ad Halle, presentando uno scritto sulle serie trigonometriche. All’epoca questo era un argomento di grande interesse per i matematici e i fisici, stimolati dalla scoperta fatta ad inizio ‘800 da Fourier che sotto determinate condizioni una serie trigonometrica può convergere a qualsiasi limite, o quasi. (Se vuoi saperne di più abbiamo scritto un articolo sulla trasformata di Fourier)

Nel suo scritto Cantor cercava di scoprire sotto quali condizioni due serie distinte convergevano allo stesso limite. Per farlo si trovò a dover trovare un modo per considerare nella loro interezza i punti in cui le funzioni analizzate si “comportano male” (per esempio i punti di discontinuità).

Cantor inizia così a sviluppare come disciplina autonoma la Mengenlehre: la teoria degli insiemi.

Ci si potrebbe chiedere quale sia la necessità di dover considerare un insieme infinito di punti nella sua interezza, vedremo oltretutto che questo comporta molti risultati a prima vista paradossali. Allora perché farlo? Il fatto è che trattare un insieme infinito come un’entità unica è analogo ad allontanarsi dallo schermo della televisione: guardando da vicino possiamo osservare i singoli pixel ma è impossibile scorgere le immagini nella loro completezza, è solo allontanandoci e considerando lo schermo nella sua interezza che possiamo decifrare l’immagine trasmessa.

Andando all’infinito, la complessità del finito si perde, e questo è un grande vantaggio!

Se ammettiamo l’esistenza di insiemi di infiniti elementi, allora possiamo iniziare a studiarne le proprietà. Per esempio, ha senso chiederci quanti elementi contiene un insieme infinito?

Secondo Cantor sì, e per farlo c’è bisogno di numeri diversi da quelli a cui siamo abituati, necessitiamo dei numeri transfiniti.

Che cos’è un numero transfinito?

Beh, intanto, cos’è un numero finito? Un’astrazione, un semplice prodotto dell’immaginazione. Si potrebbe dire ad esempio che il numero 2 è ciò che tutti gli insiemi di 2 elementi hanno in comune. Detta così sembra una definizione tautologica, e quindi non una buona definizione, ma possiamo renderla più rigorosa usando il concetto di cardinalità di un insieme.

Diciamo che due insiemi $A$ e $B$ hanno la stessa cardinalità se possiamo accoppiare i loro elementi in modo tale che ogni elemento di A sia associato esattamente ad un elemento di B e viceversa (una tale corrispondenza è detta biunivoca).

Vediamo per esempio la corrispondenza biunivoca tra l’insieme A degli Stati e l’insieme B delle capitali: ad ogni Stato è associata la sua capitale e viceversa ogni capitale è associata allo Stato in cui si trova. A e B hanno quindi la stessa cardinalità.

Osserviamo che abbiamo definito il concetto di stessa cardinalità senza avere avuto alcun bisogno di utilizzare la nozione di cardinalità, ma solo appoggiandoci alle funzioni biunivoche. Inoltre, un vantaggio di questo approccio è che possiamo usarlo anche per insiemi infiniti.

Ora possiamo dire che il numero 2 è la cardinalità di tutti gli insiemi che hanno la stessa cardinalità dell’insieme $\{a,b\}$.

Allo stesso modo possiamo inventarci un nuovo numero, il transfinito $\aleph_0$ (si legge Aleph-zero, Aleph è la prima lettera dell’alfabeto ebraico, il motivo del pedice zero sarà chiaro fra un momento) definito come la cardinalità di tutti gli insiemi che hanno la stessa cardinalità dell’insieme dei numeri naturali (tali insiemi sono detti numerabili).

In matematica però non possiamo dire che un tale numero $\aleph_0$ esiste se non è univocamente determinato, o se la sua esistenza genera una qualche contraddizione logica. (Si veda il Paradosso di Berry o il Paradosso di Richard per esempi di definizioni autocontraddittorie)

Un tale problema in realtà se l’era posto Leibniz(1646-1716), altro importantissimo matematico, ben 200 anni prima di Cantor. Leibniz si era accorto che accettando una tale definizione di cardinalità, è possibile giungere alla conclusione che i numeri naturali sono tanti quanti i numeri pari. In effetti è abbastanza semplice trovare una funzione biunivoca che associa ad ogni numero naturale un numero pari: $f(n)=2n$. Ma la stessa cosa accade anche per i numeri dispari ( $f(n)=2n-1$ ), o per i quadrati ( $f(n)=n^2$ ), e di questo se ne era accorto già Galileo a suo tempo. Tutto ciò è in evidente contraddizione col principio, già enunciato da Euclide, che afferma che “il tutto è maggiore di ogni sua parte”.

Fu proprio questo a far sì che Leibniz non accettasse l’esistenza dei numeri infiniti.

L’idea controintuitiva di Cantor

Ed è qui che entra in gioco Cantor: quando si trovò di fronte allo stesso dilemma, scelse la via opposta a quella di Leibniz. Creò un concetto di numero applicabile anche agli insiemi infiniti e accettò, contro l’intuizione, che un insieme infinito potesse avere la stessa cardinalità di un suo sottoinsieme proprio. Gli insiemi infiniti non sempre si comportano come quelli finiti, per spiegarlo Hilbert inventò il celebre paradosso dell’Hotel, su cui abbiamo scritto un articolo.

Questo passaggio è il più sottile e forse il più importante tra tutti quelli esposti in questo articolo. Non è questo infatti l’unico caso in cui la matematica porta a conclusioni che sfidano la nostra intuizione e si oppongono alla nostra esperienza quotidiana. L’abilità del matematico, e la genialità di Cantor nel nostro caso, sta nel discernere tra ciò che è contraddittorio col resto della matematica e cosa invece sembra contraddittorio per la nostra esperienza. Sono i momenti in cui qualcuno riesce a fare questa scelta in modo coerente quelli in cui si crea nuova matematica, e quindi nuova conoscenza. Che importa se definendo la cardinalità degli insiemi infiniti andiamo contro un principio che ci sembra evidente? Significa solo che l’evidenza ci ha ingannato!

Sono molteplici i casi in cui qualcuno ha sfidato un principio che sembrava ovvio per poi scoprire risultati importantissimi. (Pensate alla negazione del quinto postulato di Euclide e alle geometrie non euclidee!) E sono tantissimi i casi in cui la matematica porta a risultati paradossali per la nostra intuizione pur essendo assolutamente corretta.

Citando lo stesso Cantor: “L’essenza della matematica è la sua libertà”.

Torniamo ora alle sue scoperte matematiche. Dopo aver analizzato la corrispondenza biunivoca tra $\mathbb{N}$ e un suo sottoinsieme, prese in esame insiemi che erano, o sembravano, più grandi di quello dei numeri naturali: per esempio gli interi $\mathbb{Z}$, o i razionali $\mathbb{Q}$. Scoprì, con grande stupore, che anche questi insiemi potevano essere messi in relazione biunivoca con $\mathbb{N}$.

Per dimostrare che Q è numerabile basta ordinare i suoi elementi in una successione seguendo questo schema. Le frazioni in rosso sono quelle che non dobbiamo considerare, in modo che ogni numero razionale vi figuri una sola volta nella sua forma più semplice.

A questo punto tutto portava a pensare che se era possibile mettere in relazione biunivoca $\mathbb{N}$ con $\mathbb{Q}$, che sembrava molto più grande, allora sarebbe stato possibile trovare un modo per fare la stessa cosa con qualsiasi altro insieme infinito.

La grande conquista di Cantor fu quella di dimostrare che non è così: non è possibile trovare una biezione tra i numeri naturali e i numeri reali. Per farlo inventò un geniale metodo di dimostrazione che verrà poi sfruttato per raggiungere importantissimi risultati in matematica, logica e informatica durante tutto il ‘900.

Il metodo diagonale

Cantor parte con una classica assunzione per assurdo: supponiamo che i numeri reali siano numerabili. Osserviamo che possiamo considerare l’intervallo $(0,1)\subset\mathbb{R}$ in quanto, se questo non è numerabile, non lo sarà nemmeno $\mathbb{R}$.

Supponendo che $(0,1)$ sia numerabile, stiamo dicendo che esiste una funzione biunivoca che associa ad ogni numero reale in $(0,1)$ un numero naturale, e viceversa.

Allora possiamo costruire una lista con in prima posizione un numero reale $r_1$ associato a 1 tramite la nostra funzione biunivoca, in seconda $r_2$ associato a 2, e così via…

Esprimendo ogni numero reale attraverso la sua espansione decimale, una delle possibili liste si presenterà più o meno così:

$r_1=$ 0, 3 3 3 3 3 3 3
$r_2=$ 0, 3 1 4 1 5 9 2
$r_3=$ 0, 1 0 0 0 0 0 0
$r_4=$ 0, 0 1 2 3 4 5 6
$r_5=$ 0, 2 7 1 8 2 8 4
$r_6=$ 0, 5 7 7 2 1 5 6
0,

Se l’intervallo $(0,1)$ è numerabile allora questa lista infinita dovrà contenere tutti i numeri reali appartenenti ad esso, ma Cantor si accorse che è sempre possibile trovare un numero che non abbiamo nella lista. Consideriamo il numero $d$, definito in modo che abbia tutte le cifre differenti dalla sequenza sulla diagonale, per esempio ottenuta sommando a tutte le cifre della diagonale +1.

$r_1$ 0, 4 (3+1) 3 3 3 3 3 3
$r_2$ 0, 3 2 (1+1) 4 1 5 9 2
$r_3$ 0, 1 0 1 (0+1) 0 0 0 0
$r_4$ 0, 0 1 2 4 (3+1) 4 5 6
$r_5$ 0, 2 7 1 8 3 (2+1) 8 4
$r_6$ 0, 5 7 7 2 1 6 (5+1) 6
0,

Allora $d := 0,421436…$ Questo numero è indubbiamente un numero reale compreso fra 0 e 1, ma non fa parte della lista che avevamo! Infatti è diverso da $r_1$ per la prima cifra decimale, da $r_2$ per la seconda…da $r_k$ per la $k-$esima. Abbiamo trovato quindi un numero reale dell’intervallo $(0,1)$ che non sta nella lista, contraddicendo l’ipotesi che nella nostra lista ci fossero tutti. Allora $(0,1)$ non è numerabile, e a maggior ragione non lo sarà $\mathbb{R}$. (Osserviamo che se anche aggiungessimo “manualmente” alla lista il numero $d$ appena trovato, potremmo comunque ripetere il ragionamento diagonale e trovare un $d’$ che non appartiene alla nuova lista)

Q.E.D.

(Incidentalmente, con questo risultato, Cantor trovò anche una nuova dimostrazione dell’esistenza di numeri trascendenti)

Teorema di Cantor

Quindi esistono almeno due infiniti diversi! L’infinito dei numeri naturali $\aleph_0$ e l’infinito dei numeri reali, che Cantor indica con la lettera $C$ (iniziale di Continuo), strettamente maggiore di $\aleph_0$.

Ma il genio di Cantor non si fermò qui! Intuì che il metodo diagonale usato poteva essere esteso a tutti i casi in cui, partendo da un insieme $A$ qualsiasi, si usano elementi di $A$ per etichettare un qualche insieme particolare composto da elementi di $A$.

Scopre quello che oggi è chiamato Teorema di Cantor: dato un qualsiasi insieme $A$, $\mathcal{P}(A)$ ha cardinalità strettamente maggiore di $A$. (Dove $\mathcal{P}(A)$ indica l’insieme delle parti di $A$, ossia l’insieme che ha per elementi tutti i sottoinsiemi di $A$)

La dimostrazione è un po’ astratta, ma si tratta solo di condensare il ragionamento diagonale:

Di nuovo, per assurdo, supponiamo che esista una funzione biunivoca $f-$ tra $A$ e $\mathcal{P}(A)$. In particolare, tale funzione dovrà essere suriettiva, ossia ogni elemento del codominio $\mathcal{P}(A)$ (ogni sottoinsieme di $A$ ) deve essere associato ad un elemento di $A$. Consideriamo il sottoinsieme di $A$ definito come $ \Delta $ ={$a \in A$ : $a ∉ f(a)$ }. $\Delta$ è costituito da tutti gli elementi $a$ di $A$ che non sono elementi del proprio corrispondente secondo $f$. $\Delta$ è un sottoinsieme di $A$, quindi, visto che abbiamo supposto che $f$ sia suriettiva, deve esserci un elemento $\delta$ di $A$ tale che $f(\delta)=\Delta$. Chiediamoci ora, $\delta$ è un elemento di $\Delta$? Se lo è, allora deve soddisfare la definizione di $\Delta$, cioè $\delta$ non deve essere elemento del suo corrispondente $f(\delta)=\Delta$. Ma allora $\delta\in\Delta$ e e solo se $\delta\not\in\Delta$. Da cui l’assurdo. Allora l’ipotesi iniziale è falsa: non esiste una funzione suriettiva tra $A$ e $\mathcal{P}(A)$.

Q.E.D.

Provato questo teorema abbiamo in mano un metodo effettivo per costruire, a partire da un qualunque insieme, un insieme più grande: il suo insieme delle parti.

Quindi da $\mathbb{N}$ possiamo costruire $\mathcal{P}(\mathbb{N})$, che ha cardinalità strettamente maggiore di $\mathbb{N}$ (è possibile dimostrare che ha la stessa cardinalità dei reali $C$), a partire da $\mathcal{P}(\mathbb{N})$ possiamo reiterare il procedimento per costruire un insieme più grande (che ha la cardinalità dell’insieme delle funzioni da $\mathbb{R}$ a $\mathbb{R}$)…

È la prova che esistono infiniti infiniti, e che non esiste un insieme più grande di tutti!

Ma allora come c’è una successione infinita di numeri finiti 1, 2, 3, …, così esiste una successione infinita di transfiniti $\aleph_0$, $\aleph_1$, $\aleph_2$, …, ognuno maggiore del precedente.

Cantor arrivò anche a sviluppare un’aritmetica coerente dei numeri transfiniti, nella quale ad esempio: $\aleph_0 + \aleph_1 = \aleph_1$ e $\aleph_1 \cdot \aleph_2 = \aleph_2$.

(la proprietà dell’hotel di Hilbert corrisponde al fatto che $\aleph_0 + \aleph_0 = \aleph_0$; per non riuscire ad accomodarli nelle stanze, dovrebbero arrivare $\aleph_1$ clienti)

Le critiche e la depressione di Cantor

Potete immaginare, con delle idee così rivoluzionarie, riguardo un soggetto come l’infinito, che abbraccia matematica, filosofia e teologia, quante critiche dovette fronteggiare Cantor.

Cantor stesso, che era cattolico, quando scoprì che esistevano più infiniti, si recò in Vaticano preoccupato perché, se la Chiesa cattolica identificava Dio con l’infinito, nel momento in cui di infiniti ce ne erano tanti, allora si poteva immaginare che i suoi lavori dessero supporto al politeismo. (Lascio un link per chi volesse approfondire questo aspetto)

Ma Cantor non fu osteggiato soltanto dalla filosofia e dalla religione, anche illustri matematici dell’epoca erano ostili alle sue idee. Sembra che Kronecker, suo vecchio insegnante all’università, cercò di impedire la pubblicazione dei suoi lavori. Al tempo girava anche un aneddoto, probabilmente apocrifo, secondo il quale persino il grande Henri Poincaré avrebbe detto che “un giorno la teoria degli insiemi di Cantor sarà considerata una malattia dalla quale si è guariti”.

Oltre a tutto questo Cantor fu ossessionato per tutta la vita dall’ Ipotesi del Continuo: aveva scoperto che C era maggiore di $\aleph_0$, quindi doveva necessariamente essere uno tra $\aleph_1$, $\aleph_2$, … ma quale di questi? Cantor ipotizzò che fosse proprio $\aleph_1$, e quindi che non esistesse nessun insieme dalla cardinalità compresa tra $\aleph_0$ e C.

Nonostante anni e anni di tentativi, non riuscì mai a dimostrare o confutare la sua ipotesi, e alla luce delle nostre conoscenze, è molto triste leggere di come cadde in depressione anche per questo motivo. Basandosi sui teoremi di incompletezza di Gödel, infatti, nel 1963 Paul Cohen riuscì a dimostrare che l’ipotesi del continuo non è decidibile nel sistema assiomatico di Zermelo-Fraenkel.

Significa che il povero Cantor passò anni alla ricerca di una dimostrazione che non poteva esistere, forse l’incubo più spaventoso per un matematico.

Cantor durante la sua vita, per diverse ragioni, non ultima la sua precaria salute mentale, soffrì di diversi crolli nervosi, che lo portarono ad accantonare la matematica per lunghi periodi, per occuparsi di filosofia, teologia e soprattutto della questione shakespeariana. Era convinto che in realtà le opere attribuite a Shakespeare fossero state scritte da Francis Bacon e pubblicò diversi scritti a riguardo.

Georg Cantor morì per una crisi cardiaca nel 1918, lasciandoci in eredità la teoria degli insiemi, sulla quale poggia le fondamenta tutta la matematica moderna.

Concludiamo come abbiamo iniziato, con una citazione del grande Hilbert:

“Nessuno riuscirà a cacciarci dal Paradiso che Cantor ha creato per noi”


Se ti interessano altri articoli dedicati ai grandi matematici eccone un paio:

Il sogno di Leibniz: la caratteristica universale

Poincaré: l’ultimo universalista