Meccanica quantistica (parte 3): Evoluzione temporale e principio d’indeterminazione

Bentornati con l’ultimo articolo di questa rubrica sulle basi matematiche della meccanica quantistica. Dopo aver dato un’introduzione storica e concettuale e aver dato le basi matematiche in questa parte ci occupiamo di due aspetti importanti collegati ai concetti introdotti la scorsa volta: l’evoluzione temporale di un sistema e il principio di indeterminazione!

indeterminazione

Evoluzione temporale di un sistema

Nella scorsa puntata abbiamo scoperto esattamente a cosa corrispondevano i concetti classici di sistema fisico e di osservabile. Adesso bisogna chiedersi come fanno a variare nel tempo i sistemi fisici, visto che il nostro universo va avanti nel tempo! Questa strada ci porterà alla famigerata equazione di Schrödinger.

Cercando di portare un ragionamento euristico passiamo per la meccanica classica (che puoi approfondire con i consigli di questo articolo). Infatti nella meccanica classica un modo per trattare i sistemi è quello di impostare una funzione, chiamata hamiltoniana, che descrive le interazioni del nostro sistema e si può dimostrare essere equivalente all’energia del sistema stesso. Ma che senso ha creare questa funzione vi chiederete? Bene grazie a questa funzione si possono impostare delle equazioni (dette di Hamilton) che legano le derivate temporali delle variabili fisiche del sistema (posizione e momento) alle derivate dell’hamiltoniana. In questo modo studiare l’evoluzione temporare diventa “facile” (anche se questo termine non sarà approvato da qualunque studente di meccanica analitica).

$ \begin{equation} \begin{array}{ll} \frac{dr(t)}{dt}=-\frac{\partial H(r,p)}{\partial q}\\ \frac{dp(t)}{dt}=\frac{\partial H(r,p)}{\partial p} \\ \end{array} \end{equation}$

Ma questo discorso come ci aiuta a capire la teoria quantistica? Come abbiamo imparato nello scorso articolo per passare ad un “mondo quantistico” ci basta solo considerare uno spazio di Hilbert e cambiare le nostre variabili (osservabili) con operatori giusto? Bene! L’hamiltoniana ha come variabili proprio queste quantità, ci basta quindi banalmente far diventare le nostre variabili continue operatori facendo di conseguenza diventare la nostra hamiltioniana un operatore e il gioco è fatto. In generale per un sistema fisico un hamiltoniana ha quasi sempre questa forma $H=\frac{p^2}{2m}+V(r)$, il primo pezzo è il termine cinetico (cioè di movimento) mentre $V(r)$ contiene i termini di interazione (ad esempio gravitazionale o elettromagnetica).

A questo punto torna la domanda dell’inizio: Come si evolvono nel tempo queste quantità? Se classicamente la risposta erano le equazioni di Hamilton in questo caso invece è l’equazione di Schrödinger !

$i\hbar\frac{\partial}{\partial t}\left|\Psi(t)\right>=H\left|\Psi(t)\right>$

Ovviamente la trattazione matematica è molto più formale di così e quest’equazione può essere ricavata da altre ipotesi e non presa come principio primo. Però il senso fisico che sta dietro a questa matematica è il seguente: L’evoulzione nel tempo del nostro stato, data dalla derivata, è collegata a come l’hamiltoniana agisce sullo stato stesso… intuzione non banale direi!

Le applicazioni di questa equazione sono infinite e non basterebbe un libro per elencarle tutte, spero almeno di avervi dato un’idea di come funzioni uno dei pilastri della meccanica quantistica. Passiamo ora all’ultimo e interessantissimo argomento.

Principio di indeterminazione

Eh si, non può mancare una trattazione della meccanica quantistica senza parlare di questo strano fenomeno. Per cercare di capirlo abbiamo accennato negli scorsi articoli al fatto che uno stato ha diverse probabilità di tornare certi autovalori quando viene misurato rispetto a un osservabile (operatore) $\hat{O}$, immaginiamo ora di avere 2 operatori $ \hat{A}$ e $\hat{B}$ e definiamo un’operazione chiamata commutatore:

$ [ \hat{A}, \hat{B} ]= \hat{A} \hat{B} – \hat{B} \hat{B}$

Matematicamente si può dimostrare che se due osservabili non commutano, ovvero l’operazione definita prima non torna zero, allora il loro agire sullo stesso stato non sarà sulla stessa base di autostati (collegata agli autovalori di cui vi parlavo la scorsa volta). Allora che si fa? Semplice si cambia base!

Ma non dobbiamo dimenticarci che lo spazio in cui siamo è comunque di tipo $L^2$ allora come si comporta il cambio di base?… con una trasformata di Fourier!

Per vedere questo basta ricordare quando vi parlai della funzione d’onda $\psi(r)=<r|\psi>$, come base prendemmo le posizioni $|r>$ ma nessuno ci vieta di poterle cambiare con la base di autostati di qualche altro osservatore, come ad esempio $\hat{P}$. Si può dimostrare che il collegamente tra le due funzioni d’onda $\psi(r)$ e $\phi(p)$ è proprio la trasformata di Fourier, confermando quanto prima detto.

Questo ha applicazioni molto interessanti, in quanto come prima detto gli operatori $\hat{R} posizione e $\hat{P}$ l’impulso non commutano portando a questo formalismo.

Questo ci tuffa direttamente nel principio di indeterminazione in quanto le funzioni d’onda, essendo per l’appunto fenomeni ondulatori, hanno una certa indeterminazione intrinseca che è pari a:

$\sigma_A=\sqrt{<\hat{A}^2>-<\hat{A}>^2}$

E se due operatori che non commutano si trovano in gioco nello stesso momento come facciamo, ora che sappiamo che sono collegati da una trasformata di Fourier, a sapere come sono correlate tra di loro?

Esiste la dimostrazione ovviamente, lascerò la fonte ai lettori interessati ma la trovate anche su siti più comuni, l’importante è però sapere che il risultato di questo è il cosidetto principio di indeterminazione di Heisenberg:

$\sigma_A \sigma_B=\frac{|{<\hat{C}>}|}{2}$

Che nel caso di posizione e impulso, il cui commutatore è $[\hat{R},\hat{P}]=i\hbar $, ci da il più conosciuto $ \sigma_R \sigma_P=\frac{\hbar}{2} $

Vi lascio anche un video interessante sull’argomento sperando che vi aiuti meglio a capirlo meglio con la visualizzazione.

Conclusione

Con quest’ultimo articolo la mia serie sulla matematica della meccanica quantistica è finita. È stato un percorso lungo ma spero non complicato per voi da comprendere, anche se riconosco le mia scarse abilità di comunicatore. Quello che però spero sia stato chiaro e che voleva essere il mio obiettivo era far vedere come la matematica sia importantissima nelle scienze fisiche, facendolo con la scusa di parlare un po’ di meccanica quantistica. L’approccio divulgativo e filosofico a questa materia è importante e bello, ma non si può pensare di prescindere dalla matematica come sua parte fondamentale.

Per il resto le fonti per approfondire penso di averle messe un po’ tutte e mi auguro che andiate avanti con lo studio e la scoperta di questa bellissima branca della fisica, alla prossima!

La scoperta dei numeri immaginari

“Numeri immaginari”. La prima volta che sentii questa parola nell’aula del mio liceo, durante l’ora di matematica, storsi un po’ il naso. Adesso va bene tutto, bella la matematica eh, ma pure studiare quella immaginaria mi sembra un po’ un’esagerazione, pensai tra me e me. Poi, però, approfondendo maggiormente, si scopre che di immaginario hanno ben poco, anzi: sono un’arma, e bella potente. Proseguendo negli studi scoprii che questi simpaticoni spuntano fuori quando meno te lo aspetti e ti permettono di risolvere problemi a prima vista impossibili. Ma andiamo con ordine.

Un po’ di storia

Facciamo un piccolo salto indietro, circa al 1500, ma restiamo in Italia. Tra i matematici c’era una simpatica usanza molto diffusa: 2 contendenti si sfidavano a una gara matematica, e il vincitore acquisiva fama, gloria, ed era un ottimo modo per mettersi in mostra con i potenti nobili di allora. La sfida era così costituita: ognuno doveva stilare 30 problemi matematici che era in grado di risolvere, consegnarli all’avversario e questo aveva un po’ di giorni per risolverne il più possibile. Poi, dopo una certa data, i due si ritrovavano davanti alla folla per decretare il vincitore. Potete considerarlo come un analogo delle battaglie freestyle tra rapper, solo che molto più nerd. A Bologna, questa era la piazza dove si ritrovavano, davanti alla Basilica di Santa Maria dei Servi.

Immaginatevi due matematici battagliare qui davanti alla folla

Questa usanza ebbe conseguenze curiose e forse un po’ negative. Appena un matematico faceva un’importante scoperta, invece che diffonderla, se la teneva tutta per sè. Quando poi sfidava un altro matematico, gli dava 30 problemi tutti su quell’argomento, e di solito vinceva a mani basse. Per questo motivo risalire al primo scopritore di determinate soluzioni è un po’ difficile, ma ci si prova. Questo è quello che accadde per la formula generale delle equazioni di terzo grado.

La formula per le equazioni di terzo grado

I babilonesi e i greci sapevano risolvere alcuni casi particolari, ma una formula generale era ancora sconosciuta. Il primo a scoprire una formula fu Scipione del Ferro, ma, per motivi che ormai sapete, non divulgò mai. Solo in punto di morte decise di svelare qualcosa al suo migliore studente, Antonio Maria del Fiore, obbligandolo a non rivelare nulla. Successivamente anche Niccolò Fontana, detto Tartaglia per la sua balbuzie, scoprì la stessa formula, e diventato famoso per le numerose gare matematiche vinte, fu invitato da Gerolamo Cardano e Lodovico Ferrari a Milano, e rivelò loro le sue scoperte, con la promessa di non rivelarle a nessuno.

Cardano
Gerolamo Cardano

Tartaglia così descrisse a Cardano la formula scoperta, vediamo se anche voi riuscite a risolvere l’indovinello.

«Quando che’l cubo con le cose appresso
Se agguaglia à qualche numero discreto
Trovan dui altri differenti in esso.

Dapoi terrai questo per consueto
Che’llor produtto sempre sia eguale
Al terzo cubo delle cose neto,

El residuo poi suo generale
Delli lor lati cubi ben sottratti
Varra la tua cosa principale.»

Cardano in seguito venne a sapere dei risultato già ottenuti da Scipione del Ferro, e scoprì che erano gli stessi. Decise allora di infrangere la sua promessa e di pubblicarla, con il nome di Formula di Cardano, la quale permette di risolvere qualsiasi equazione di terzo grado, o quasi. Mai si sarebbe aspettato che questa formula avrebbe fatto sorgere problemi ben peggiori di quelli che risolveva. Per farvi capire, vi mostro qui di seguito il procedimento.

Come risolvere le equazioni di terzo grado

Partendo da una generica equazione di terzo grado, $ a x^3+bx^2+cx+d=0 $ , dovete applicare la sostituzione $x=y-\frac{b}{3a} $ così da eliminare il termine $x^2$ e ottenere un’equazione nella forma $y^3+py+q=0$ e adesso dovreste applicare questa facile facile formula:

$y = \sqrt[3]{-\frac{q}{2} + \sqrt{ \frac{q^2}{4} + \frac{p^3}{27}}} + \sqrt[3]{-\frac{q}{2} – \sqrt{ \frac{q^2}{4} + \frac{p^3}{27}}} $

“La bellezza è un requisito fondamentale: al mondo non c’è un posto perenne per la matematica brutta”

(Godfrey Harold Hardy)

Sarà bella questa formula? Ai posteri l’ardua sentenza. Quello che invece voglio farvi notare sono le due radici quadrate presenti nella formula. Dovreste sapere bene che un’equazione di terzo grado ha SEMPRE almeno una soluzione, e questo lo sapevano bene già i matematici ai tempi di Cardano. Però loro sapevano anche che una radice quadrata negativa non ha soluzioni, e qui nasce il problema. Partendo dal presupposto che almeno una soluzione doveva per forza esserci, per alcuni valori non riuscivano a trovarlo comunque: $\sqrt{ \frac{q^2}{4} + \frac{p^3}{27}}$ era irrisolvibile. Come trattare le radici negative? Per il momento si decise di utilizzare il termine “caso irriducibile” e arrendersi davanti alla potenza dell’ignoranza.

I “numeri silvestri”

Poi, arrivò una bella intuizione da parte di Raffaele Bombelli, matematico bolognese. La sua idea era molto semplice: “ok, le radici quadrate negative non sappiamo calcolarle…. non possiamo semplicemente ignorare il problema e andare avanti lo stesso?” decise allora di definirle “quantità silvestri” e procedette con lo studiarne le proprietà. Per Bombelli erano “quantità silvestri”, per Leibniz erano “mostri di un mondo ideale” e per Eulero erano “numeri che per la loro natura sono impossibili, che esistono solo nella nostra immaginazione”. Potete immaginare quanto abbiano scombussolato il mondo matematico. Cartesio fu il primo a dargli il nome che conosciamo, numeri immaginari.

Personalmente mi trovo un po’ in disaccordo su queste definizioni. Definire “immaginario” un campo della matematica sembra voler fare intendere che sia un qualcosa di inventato dall’uomo, che esiste solo nella sua immaginazione, quasi come se fosse falso. La parola “inventato” non deve mai essere usata in matematica. La matematica viene scoperta, non inventata.

Le leggi della matematica non sono semplici invenzioni o creazioni umane. Esse semplicemente “sono”; esistono abbastanza indipendentemente dall’intelletto umano. Il meglio che chiunque possa fare è di scoprire che queste esistono e di prenderne conoscenza.

(Maurits Cornelis Escher )

La più bella equazione della matematica

Dopo aver fatto un po’ di storia, ci terrei anche a fare un po’ di matematica. Se non avete la più pallida idea di cosa siano i numeri immaginari e di come usarli nei calcoli e vorreste una spiegazione chiara e rigorosa, vi consiglio di leggere questo articolo prima di andare avanti: https://www.mathone.it/numeri-complessi/

In questo articolo vorrei dimostrarvi come i numeri immaginari saltano fuori dove meno ve lo aspettereste. Vi ricordate quando a scuola facevate le prime funzioni, seno, coseno, logaritmo , arcocoseno e vi facevano mettere le condizioni di esistenza? Vi siete mai chiesti quali pericoli vi aspettano in quelle lande desolate al di fuori delle C.E? volete sapere quanto vale $\log{(-1)}$ o per quali valori $\cos{(x)} = 3$? Sarà che ho sempre avuto un’indole avventuriera e ho sempre odiato avere vincoli, ma io le condizioni di esistenza non le ho mai sopportate. O forse sono semplicemente pazzo, spiegherebbe molte cose. Ho sempre desiderato avventurarmi in quel regno desolato, e a fornirmi la mappa ci pensò proprio Eulero.

identità di eulero
La più bella equazione esistente in matematica, la mappa che unisce regno reale e immaginario

Credo che anche a prima vista riuscite a capire perchè è considerata l’equazione più bella di tutta la matematica. $e$ è il numero di Nepero, $\pi$ è il rapporto tra circonferenza e diametro e $i$ è un numero immaginario dotato della proprietà tale che $i^2 = -1$. Gli altri due numeri spero li conosciate.

La formula di Eulero

Adesso, dimostrarvela interamente potrebbe essere un po’ impegnativo, magari in un prossimo articolo. Per il momento mi piacerebbe darvi una prova del fatto che sia vera, ma nel caso vogliate dimostrarla voi stessi, vi darò qualche piccolo indizio. Vi serve sapere solo gli sviluppi in serie di Taylor. Se non ne avete mai sentito parlare, vi basta sapere che è un modo per trasformare funzioni complicate in semplici polinomi di lunghezza infinita. Ecco gli esempi che mi servono, se non gli avete mai visti, potete provare a disegnarli su una qualsiasi app e vedrete che sono perfettamente valide.

$e^x = 1 + x + \frac{x^2}{2!} + \frac{x^3}{3!} + \frac{x^4}{4!} + \frac{x^5}{5!} + \frac{x^6}{6!} + \frac{x^7}{7!} $ …… e così via

$cos(x) = 1 – \frac{x^2}{2!} + \frac{x^4}{4!} – \frac{x^6}{6!} +$ …… e così via

$sin(x) = x – \frac{x^3}{3!} + \frac{x^5}{5!} – \frac{x^7}{7!} +$ ….. e così via

Notate una leggera somiglianza uno dall’altro? Sono praticamente uguali, cambia solo un po’ il segno. E qui arrivano in aiuto i numeri immaginari, e vi permettono di risolvete tutto. Sostituite $e^x$ con $e^{ix}$ e $\sin{x}$ con $i\sin{x}$ e il gioco è fatto. La prima riga è esattamente uguale alla somma delle altre due. Usiamo $z$ al posto della $x$ perchè mi piace di più e otteniamo:

numeri immaginari

A questo punto, vi basta sostituire $z=\pi$ e riotterrete la formula vista prima.

Logaritmi negativi

Ora che abbiamo tutto quello che ci serve, iniziamo ad avventurarci nella desolata landa fuori dalle C.E. Partirei dal logaritmo naturale, molto semplice. Sapete bene che quando studiate $\log{x}$ dovete sempre porre $x>0$ ma per quale motivo? Cosa succede quando $x$ assume valori negativi? E’ presto detto. Considerate la prima formula, $e^{i\pi} +1 =0$ spostate il $+1$ a destra ed eseguiamo il logaritmo da entrambe le parti dell’uguale, per ottenere $\log{(e^{i\pi})} = \log{(-1)}$ .

Applicando le formule dei logaritmi troviamo che $i\pi\log{(e)} = \log{(-1)}$ e quindi che $\log{(-1)} = i\pi$.

Ora ci basta ricordare la formula del prodotto, $\log{(ab)} = \log{(a)} + \log{(b)}$ e possiamo generalizzare per qualsiasi numero negativo. infatti, $\log{(-n)} = \log{(n)} + \log{(-1)}$ ovvero che $\log{(-n)} = \log{(n)} + i\pi$ .

Il valore di un logaritmo negativo è esattamente quello che ha per valori positivi, più $i\pi$

Se quindi volessimo disegnare il grafico di $\log{(-n)}$ dovremmo semplicemente specchiare quello di $\log{(n)}$ e traslarlo nel piano immaginario di un vettore lungo esattamente $\pi$. Fermatevi un attimo a cercare di visualizzare questa cosa. Non pensate sia un risultato incredibile? La parte immaginaria di un logaritmo in base $e$ di un qualsiasi numero negativo è sempre esattamente $\pi$.

Seni e Coseni

Un’altra delle funzioni che avevano un dominio abbastanza ristretto erano l’arcoseno e l’arcocoseno, con $x$ compreso tra -1 e 1. Perchè? Cosa succede se usiamo altri valori? Considerando che queste funzioni sono esattamente l’inversa di seno e coseno, la domanda equivale a chiedersi se esistono valori di $x$ per i quali $sin(x)>1$ o $cos(x)>1$

Per rispondere, ci serve la formula più generale di Eulero, $e^{xi}=cos(x) + i*sin(x)$ effettuare prima la sostituzione $x=n*i$ dove $n$ stà ad indicare un generico multiplo. Facciamo poi qualche passaggio algebrico, ricordando che $cos(-x)=cos(x)$ e che $sin(-x)=-sin(x)$

Ecco quello che otteniamo:

$e^{n(i)(i)}=cos(in) + isin(in)$

$e^{-n}=cos(in) + isin(in)$

E in seguito ripetere sostituendo invece $x=-i\cdot n$ per ottenere:

$e^{-n(i)(i)}=cos(-in) + isin(-in)$

$e^{n}=cos(in) – isin(in)$

Mettiamo ora la seconda e la quarta assieme per ottenere:

$\begin{cases} e^{-n}=cos(in) + isin(in) \\ e^{n}=cos(in) – isin(in) \end{cases}$

Sommando e sottraendo le due righe, ottenete un espressione per calcolare seni e coseni immaginari:

$cos(in) = \frac{e^n + e^{-n}}{2}$

$sin(in) = \frac{e^n-e^{-n}}{2}i$

Ci terrei giusto a farvi notare la bellezza di quello che abbiamo appena calcolato. Per prima cosa, il seno di un numero immaginario è un numero immaginario. E fin qui non sembra nulla di troppo strano. Invece, il coseno di un qualsiasi numero immaginario è un numero Reale. Vi sareste mai aspettati prima di iniziare a leggere questo articolo che $cos(i)=\frac{e+\frac{1}{e}}{2}$?

Ora lascio a voi il compito, se l’argomento vi interessa, di approfondire. Il campo della matematica coi numeri complessi è enorme e affascinante. Pensate che qualsiasi argomento abbiate studiato nel campo Reale, può essere studiato anche in campo immaginario e complesso, e le applicazioni sono innumerevoli e utilissime.

Esiste qualcosa di più complesso dei numeri complessi?

Pensate che non ci sia altro dopo i numeri complessi? Sbagliatissimo. Così come ci sono i numeri Reali, e ci sono i numeri complessi (che possiamo chiamare bidimensionali) esistono poi i Quaternioni, numeri quadri-dimesionali, scrivibili nella forma $a+bi+cj+dk$ con $a, b, c, d$ numeri reali e $i, j, k$ che sono analoghi alla $i$ dei numeri complessi. Esistono poi gli Ottetti i Sedenioni, e chi più ne ha più ne metta, seguendo gli esponenti di $2^n$.

E così come esiste l’analisi in campo reale, esiste l’analisi complessa e l’analisi ipercomplessa, che non ho mai avuto il piacere di provare ma non faccio fatica a credere sia davvero un macello. L’unica cosa davvero interessante che so dirvi è che ogni gradino che saliamo verso la complessità, la difficoltà aumenta a livelli imbarazzanti. Non solo il numero di costanti complesse aumenta di un fattore 2^n ogni volta, ma anche perdete ogni volta una proprietà.

Nei numeri Reali, avete numeri del tipo $a$ e valgono tutte le proprietà che conoscete.

Nel numeri complessi, avete numeri del tipo $a + bi$ e perdete la relazione d’ordine.

Nei quaternioni, avete numeri del tipo $a+bi+cj+dk$ e perdete anche la proprietà commutativa

Negli ottetti, avete numeri del tipo $a+bi+cj+dk+el+fm+gn+ho$ e perdete anche la proprietà associativa

Mi fermo qui, perchè direi di avervi già terrorizzato abbastanza. Potrei magari in un prossimo articolo parlarvi dei quaternioni, numeri che hanno applicazioni gigantesche e sono usati dappertutto. Pensate che i vostri telefoni li usano costantemente per capire la loro posizione e angolazione nello spazio.

Approfondimenti

Se volete approfondire bene l’argomento, sinceramente non potrei fare altro che consigliarvi di prendere libri universitari di analisi matematica. E’ un argomento così vasto, che cibarsi di bricioline non ne renderebbe sicuramente il sapore originario. Se volete giusto affacciarvi a questo argomento per cercare di capirci meglio, vi lascio sotto dei video molto interessanti che io stesso ho guardato per imparare a naufragare dolcemente in questo mare.

Un altro video interessante è questo : https://www.youtube.com/watch?v=19c4c3SwtS8

Fonti

https://it.wikipedia.org/wiki/Storia_dei_numeri_complessi

https://it.wikipedia.org/wiki/Gerolamo_Cardano

https://it.wikipedia.org/wiki/Rafael_Bombelli

https://st.ilsole24ore.com/art/cultura/2012-02-05/numeri-grande-schermo-081450_PRN.shtml

https://www.youmath.it/domande-a-risposte/view/6122-identita-eulero.html

Sistemi dinamici integrabili : cosa sono e alcuni esempi introduttivi

Cos’è un sistema integrabile? Ci sono esempi semplici di sistemi integrabili? In questo articolo cercheremo di capire il concetto di integrabilità di un sistema dinamico, partendo da degli esempi e derivando quindi qualche risultato più generale.

sistema integrabile

Introduzione al concetto di integrabilità

In un vecchio articolo sul sito abbiamo parlato di cosa sia un integrale primo ed un sistema dinamico (se vuoi lo trovi qui https://www.mathone.it/integrale-primo/ ), oggi invece andremo a scoprire quando un sistema sia integrabile.

Cosa si può intuire dal termine “integrabile”? Supponiamo di partire da una semplice equazione differenziale : $x'(t) = 6x(t)$. Secondo te questa è integrabile?

Beh, intuitivamente sì, nel senso che possiamo integrarla, ovvero possiamo calcolarne la soluzione in forma chiusa. Infatti la funzione $x(t) = x(0)e^{6t}$ risolve l’equazione, per cui siamo riusciti ad integrare l’equazione.

Bene, questo era un esempio semplice potresti dire, ma come possiamo capire se un sistema più complicato sia o meno integrabile? Cosa vuol dire che esso è integrabile?

Intanto definiamo più rigorosamente un generico sistema dinamico, seguendo però un approccio geometrico, ovvero parlando di campi vettoriali invece che di sistemi di equazioni differenziali. Riguardo la distinzione tra questi due punti di vista puoi vedere un video che ho fatto qui sotto:

Definiamo quindi un campo vettoriale $X:\mathbb{R}^n\rightarrow\mathbb{R}^n$ che sia di classe $\mathcal{C}^1(\mathbb{R}^n,\mathbb{R})$, così che valga il teorema di esistenza e unicità. Il sistema di equazioni differenziali associato è $$\dot{x}(t)=X(x(t)).$$

Tale sistema si dice integrabile se si può trovare una funzione $x=x(t)$, tramite una sequenza di operazioni algebriche e integrazioni, che risolva il sistema di equazioni differenziali qui sopra presentato.

Bene, una volta introdotto questo concetto però è interessante scoprire se ci sono dei risultati, delle ipotesi, che ci garantiscano l’integrabilità del sistema senza integrarlo direttamente.

Infatti, immagino tu ci abbia fatto caso, la semplice equazione $x’=6x$ l’abbiamo definita integrabile perchè l’abbiamo esplicitamente risolta, ovvero integrata.

Ma la domanda importante è: esistono delle ipotesi che quando soddisfatte da un sistema ci permettono di definirlo integrabile?

Ci tengo ad evidenziare un parallelismo con le equazioni algebriche e la loro risolubilità. La teoria della risolubilità in quel caso fa riferimento ai gruppi di Galois e non andremo certo ad approfondirla, visto che non so praticamente nulla a riguardo. Però se tu avessi dimestichezza con quegli argomenti, sappi che c’è uno stretto legame almeno in termini di approccio ed intuizioni tra queste due aree della mateamatica.

Prima di vedere il più semplice risultato di questo tipo (la teoria dell’integrabilità è molto ampia e richiede buone basi teoriche nel campo della geometria differenziale e teoria dei sistemi dinamici), è importante fare una precisazione.

L’integrabilità di un sistema dinamico ( o di un campo vettoriale più in generale ), è strettamente legata alla presenza di quantità/oggetti invarianti per il sistema. Per esempio in questo campo diventano molto importanti insiemi invarianti, misure invarianti, integrali primi o simmetrie dinamiche (campi vettoriali invarianti).

Se ti interessa capire cosa sia un integrale primo, qui ho fatto un video in cui introduco questo concetto:

Integrabilità algebrica: teorema di integrabilità di Lie

Supponiamo di avere ancora un generico campo vettoriale $X=X(x_1,…,x_n)$ che sia sufficientemente regolare, per esempio $\mathcal{C}^1$. Supponiamo inoltre che esso ammetta $(n-1)$ integrali primi che siano funzionalmente indipendenti.

Prima di tutti specifichiamo cosa si intenda con quest’ultima frase. Vuol dire che ci sono $(n-1)$ funzioni $f_1,…,f_{n-1}:\mathbb{R}^n\rightarrow \mathbb{R}$ che soddisfano le due seguenti proprietà:

  • $\mathcal{L}_Xf_i = \nabla f_i \cdot X = 0 ,\;\forall i=1,…,n-1,$

  • $\nabla f_i \text{ e }\nabla f_j \text{ non sono paralleli per ogni }i\neq j.$

Allora se ciò è vero, possiamo integrare il sistema. Nel caso ci sia un integrale primo, come spiego nel video, abbiamo che gli insiemi di livello di ognuna di queste funzioni è invariante. Inoltre essendo che i gradienti di queste funzioni non sono paralleli, ovvero non sono linearmente dipendenti, ciò vuol dire che gli insiemi di livello di questi integrali primi sono tutti diversi.

Quest’ultimo fatto è dovuto alla proprietà geometrica del gradiente di essere localmente ortogonale agli insiemi di livello di $f$, per esempio se $f(x,y)=x^2+y^2$, il gradiente è $\nabla f (x,y) = [2x,2y]^T$ che, come puoi vedere nel grafico qui sotto, è localmente ortogonale alle circonferenze che definiscono gli insiemi di livello di $f$.

Cosa vuol dire nel concreto questo? Vuol dire che se fissiamo un punto iniziale da cui lasciare evolvere la dinamica, $y_0\in\mathbb{R}^n$, sappiamo che per ogni $i=1,…,n-1$, la dinamica evolverà per ogni tempo $t$ nell’insieme di livello dove vive $y_0$ di $f_i$.

Quindi supponiamo che $f_i(y_0)=c_i\in\mathbb{R}$ per ogni $i=1,…,n-1$. Allora abbiamo che l’orbita del punto $y_0$ rispetto al campo vettoriale $X$, ovvero l’insieme

$$orb(y_0) = \{\Phi_t(y_0):\,t\in\mathbb{R}\}\subset\mathbb{R}^n$$

è contenuto nell’insieme di livello $\{x\in\mathbb{R}^n : f_i(x)=c_i\}$ per ogni $i=1,…,n-1$. Di conseguenza esso apparterrà all’insieme di livello della funzione vettoriale

$$ F : \mathbb{R}^n\rightarrow \mathbb{R}^{n-1} ,\quad F(x):=(f_1(x),…,f_{n-1}(x))$$

associato al punto $\boldsymbol{c}=(c_1,…,c_{n-1})\in\mathbb{R}^{n-1}$. Essendo gli integrali primi indipendenti, questa è una funzione suriettiva e l’insieme di livello $\{x\in\mathbb{R}^n: \,F(x)=\boldsymbol{c}\}$ è di dimensione 1, ed è invariante rispetto alla dinamica. Di conseguenza sappiamo che le orbite sono contenute in questi sottoinsiemi invarianti.

In più si vede facilmente che il sistema può essere integrato esplicitamente, questo è anche chiamato teorema di integrabilità di Lie.

Giusto per essere chiari, il fatto che sia integrabile esplicitamente non vuol dire che non rimarranno integrali da calcolare nell’espressione finale, vuol dire che a meno di essere in grado di calcolare quegli integrali, abbiamo un’espressione esplicita. Spesso infatti si incontrano i cosiddetti integrali ellittici che non sono risolvibili, ma ciò non è un problema o almeno non è un ostacolo verso la definizione di integrabilità.

Per accertarci della possibilità di integrare il sistema e trovarne l’integrale generale in forma chiusa, senza perderci in formalismi eccessivi, supponiamo di definire $n-1$ variabili come segue: $y_1=f_1$, …., $y_{n-1}=f_{n-1}$. Prendiamo poi una $n-$esima variabile da esse indipendente (questa esiste visto che abbiamo uno spazio di dimensione $n$: $\mathbb{R}^n$), chiamiamola $y_n$.

Allora siccome, per quanto abbiamo visto prima riguardo gli integrali primi, gli insiemi di livello di queste funzioni sono invarianti, esiste una funzione $g:\mathbb{R}^n\rightarrow \mathbb{R}$ tale che il sistema può essere riscritto, nelle nuove coordinate $\boldsymbol{y}$ come segue:

$$ \dot{y}_1 = 0 $$

$$ …. $$

$$ \dot{y}_{n-1} = 0 $$

$$ \dot{y}_n = g(y_1,…,y_n) $$

dove l’ultima equazione può essere integrata e possiamo quindi risolvere in forma chiusa il sistema.

Proviamo a ragionare più nel dettaglio su questa nuova formulazione del sistema. Quello che abbiamo fatto è trasformare il campo vettoriale di partenza, che era nelle coordinate $\boldsymbol{x}=(x_1,…,x_n)$, nelle nuove coordinate $\boldsymbol{y}=(y_1,…,y_n)$ che non sono prese a caso ma sono “speciali”. Per precisazione, questa operazione si dice coniugazione topologica del campo vettoriale.

Detto ciò, come possiamo sfruttare queste coordinate? Beh, vediamo facilmente che le prime $(n-1)$ equazioni sono integrabili e restituiscono $y_i=c_i$ con $i=1,…,n-1$. Da ciò segue che non resta che risolvere l’ultima equazione differenziale:

$$ \frac{dy_n}{dt}(t) = g(c_1,…,c_{n-1},y_n) = \tilde{g}_{\boldsymbol{c}}(y_n(t)), $$

che ci permette di ricavare $y_n(t)$, a meno di risolvere integrali.

Conclusione

La teoria dell’integrabilità è un campo molto interessante sia nel caso di campi vettoriali su spazi vettoriali (o varietà) di dimensione finita che infinita (nel caso della teoria quantistica per esempio). I risultati però si fanno parecchio complicati e quindi ho preferito concentrarmi solo su uno tra i risultati più intuitivi, ovvero il teorema di Lie.

Un altro famoso e classico risultato invece riguarda i sistemi Hamiltoniani, esso è il teorema di Liouville-Arnol’d e, nel caso le sue assunzioni siano soddisfatte da un sistema Hamiltoniano, esso ci porta a definire completamente integrabile tale sistema.

Magari su questo risultato possiamo soffermarci in un articolo più avanti, dopo averne dedicato uno all’introduzione dei campi vettoriali Hamiltoniani, così da definire un po’ di contesto.

Per questo articolo direi che possiamo concludere, se hai qualche domanda o suggerimento lascia pure un commento qui sotto, appena posso ti risponderò 🙂

Il Bitcoin, le monete matematiche e la blockchain

Cosa è il Bitcoin? Sicurezza o truffa informatica? Cosa sono le cryptovalute e la blockchain?

Sicuramente avrai sentito questi termini più di una volta negli ultimi tempi, essendo essi parole chiave di una grande rivoluzione tecnologica che si sta espandendo sempre di più, in molti settori e principalmente in quello della finanza. Oggi faremo chiarezza su questi concetti , sottolineando quanto siano importanti gli algoritmi matematici dietro tali tecnologie.

Bitcoin e matematica
Bitcoin

Premessa: Questo articolo e gli altri della rubrica sono solamente a scopo informativo, col fine di suscitare ed approfondire l’interesse per questo argomento. Nè io nè gli altri collaboratori siamo investitori/traders professionisti e nessuna cosa che scriviamo ha come obiettivo spingerti ad investire i tuoi soldi. Detto questo, enjoy your reading!

Il Bitcoin (in acronimo BTC) è una moneta virtuale, ovvero che non viene stampata come la normale cartamoneta, ma che viene creata, distribuita e scambiata in maniera completamente virtuale. Esso introduce un vero e proprio sistema monetario globale, completamente innovativo e senza intermediari usufruendo della nuova tecnologia Blockchain di cui ne parlerò più avanti.

Nasce nel 2009, creato da un programmatore (o gruppo di programmatori) sotto lo pseudonimo di Satoshi Nakamoto, tutt’ora ancora sconosciuto, e la sua nascita dà il via alla cosidetta era delle cryptocurrencies, in italiano cryptovalute, dai termini inglesi “cryptography” (crittografia) e “currency” (valuta).

Le cryptovalute sono mezzi di scambio che utilizzano le moderne tecniche crittografiche sia per rendere sicure le transazioni sia per la creazione di altra moneta. Vengono spesso chiamate anche monete matematiche, poiché esse vengono prodotte, rese sicure (tramite la crittografia), distribuite e fatte circolare secondo algoritmi noti al pubblico. Se non sai cos’è un algoritmo ti consiglio di dare un’occhiata a questo articolo.

Ne esistono più di 2000, quelle che differiscono dal Bitcoin sono definite Altcoin (alternative-coin). Le più famose Altcoin sono Ethereum (ETH), Ripple (XRP), Litecoin (LTC).

Bitcoin
Principali Cryptovalute

Il Bitcoin deve la sua fama principalmente per il suo alto valore nel mercato finanziario: dal 2009 ad oggi, infatti, ha avuto un incremento percentuale equivalente circa a 11666500% partendo da un prezzo di 0.06 dollari , ed arrivando tutt’ora intorno ai 7000 dollari. Il massimo storico è stato verso la fine del 2017, toccando la soglia di 20000$, e raggiungendo un incremento del 33333200% circa. Ma a cosa sono dovuti questi prezzi? La risposta si trova semplicemente nella legge della domanda e dell’offerta.

In breve: il prezzo è basso? Compro. Comprando, la domanda di quel bene (in questo caso del Bitcoin) sale, e ciò porta ad un aumento del prezzo. L’inverso succede invece quando si decide di vendere: arrivato ad un certo prezzo, chi ha comprato a poco decide di vendere sfruttando l’aumento del prezzo (si chiama speculazione): vendendo, l’offerta di quel bene aumenta, e ciò porta ad una riduzione del prezzo.

Sono ben 11 anni che il Bitcoin sta avendo questi andamenti, mostrando percentuali e numeri davvero incredibili. Il rischio, quindi, sta nel capire quando tutti comprano e quando tutti vendono. Ma la cosa che rende questa moneta così importante in realtà è la tecnologia che c’è dietro, chiamata Blockchain.

Blockchain: Il nuovo sistema decentralizzato

La blockchain (letteralmente “catena di blocchi”) è per definizione “una struttura dati condivisa e immutabile”. È definita come un registro digitale le cui voci sono raggruppate in blocchi, collegati in ordine cronologico, e la cui sicurezza è, come abbiamo già detto, garantita dall’uso della crittografia (Qui viene spiegata dettagliatamente cosa è e la sua importanza). Ogni nodo, ovvero ogni computer connesso ai blocchi, ha una copia della blockchain: difatti la qualità dei dati è mantenuta grazie a una costante replicazione del database. Non esiste nessuna copia ufficiale centralizzata e nessun utente è più credibile di altri, tutti sono allo stesso livello. E’ proprio questa la grande novità: un sistema decentralizzato che rimpiazza quello originariamente centralizzato (ovvero che ogni operazione debba necessariamente passare per un solo grande blocco che funge da intermediario per gli altri, es: banca) , poiché quest’ultimo rende vulnerabile il sistema (in caso di attacco informatico mirato solo al blocco centrale si otterrebbe l’immediato accesso a tutti gli altri blocchi).

Monete matematiche

Dopo che una transazione è avvenuta, lo storico e tutte le informazioni a essa collegate vengono salvate e conservate su ogni singolo blocco della catena che è pubblico e condiviso da tutti i nodi.

Questa nuova tecnologia, oltre che nel settore finanziario e della compravendita, si sta evolvendo in tantissime aree, tra queste: sistema sanitario,industria musicale, energia rinnovabile, scuole e università, pubblica amministrazione e molti altri.

Blockchain

Il Mining: Come vengono creati i Bitcoin

Il processo che produce nuova moneta virtuale è detto Mining. Esso consiste nel decifrare i codici crittografici presenti nei Bitcoin per completare le transizioni. Per fare ciò sono necessari una serie di computer di alta potenza che utilizzano software ed hardware specializzati capaci di fare milioni di calcoli al secondo. Decifrare questi codici risulta essere un vero e proprio problema matematico estremamente complesso: quei nodi che procedono alla ricerca della soluzione sono detti “minatori” e il primo che riesce a risolvere il problema viene premiato con una quota di bitcoin generati proprio grazie a questo processo. Inizialmente la ricompensa era di 50 bitcoin per blocco, ma se tale ricompensa rimanesse sempre la stessa, la moneta in circolazione aumenterebbe infinitamente nel tempo e si verificherebbe una continua inflazione (qui viene spiegata in dettaglio cosa è). Per evitare questo problema il sistema è programmato per generare moneta secondo una serie geometrica fino a che il numero totale di Bitcoin non giunge a 21 milioni. Il sistema dimezza la ricompensa ogni 210000 blocchi minati (ovvero ogni 4 anni circa); così facendo si ottiene:

$210000\cdot 50\cdot \sum^{+\infty }_{n=0}{{\left(\frac{1}{2}\right)}^n}=21000000$

Da questo momento, tutte le transazioni contenute in quell’ultimo blocco generato vengono “incatenate” alla blockchain e diventano pubbliche; quindi chi ha pagato una somma di Bitcoin non li possiede più mentre il ricevente li possiede effettivamente.

Creazione blocchi

Il Wallet Bitcoin: un po’ di algoritmi per capirne la solidità

I wallet (letteralmente “portafoglio”) sono una componente dell’architettura bitcoin attraverso il quale gli utenti gestiscono la propria cryptovaluta. I bitcoin sono infatti associati ad indirizzi assimilabili al numero di conto corrente di una banca e ogni utente può gestire, attraverso il proprio wallet, uno o più conti.

Ogni indirizzo di un wallet Bitcoin è costituito da due parti: la chiave pubblica, ovvero il vero e proprio indirizzo che useremo per ricevere i pagamenti, e la chiave privata, che deve assolutamente rimanere tale.

‘’I grandi numeri sono il primo nemico degli hacker, ed è questo il motivo per cui le chiavi private sono a prova di penetrazione.’’

La chiave pubblica, ovvero l’indirizzo del wallet, è una serie alfanumerica tra i 26 e i 35 caratteri in formato HEX (sistema numerico esadecimale). Questa serie di numeri è qualcosa di mai visto: sarete i primi  ed unici al mondo ad aver creato questa serie di numeri e lettere. E’ come lanciare una moneta per 160 volte e segnare l’ordine in cui escono testa (1) e croce (0), in quanti, al mondo, si ritroverebbero con la vostra stessa serie binaria? Le statistiche dicono nessuno. Quella sequenza di 160 monete lanciate è il vostro indirizzo.

Il valore della chiave privata viene generato tramite funzioni di crittografia dette “ellittiche” e successivamente usato sia come parametro di complessi algoritmi detti “algoritmi di hashing”. Essi sono in grado di elaborare una gran quantità di informazione e, sopratutto, non sono invertibili.

Questa proprietà è davvero importante, perché un algoritmo (facilmente) invertibile nel campo della sicurezza è sintomo di vulnerabilità. Basta pensare a una funzione crittografica come ad una semplice funzione matematica in cui l’input è un numero che viene elevato alla seconda e l’output è il risultato:

$x^2=81$

 se così fosse, basterebbe calcolare la radice quadrata per invertire la funzione e scoprire l’input a partire dall’output:

$\sqrt{81}=x$

Questi appena descritti sono i più moderni e solidi modelli di sicurezza.

Gottlob Frege: la matematica diventa logica?

Nell’ultimo articolo della nostra serie abbiamo visto come George Boole riuscì a trattare la logica come un ramo della matematica. In questo modo fu finalmente possibile applicare la potenza dei metodi matematici a questa importantissima materia di studio, che fino ad allora apparteneva più che altro alla filosofia.

Frege

Viene naturale allora chiedersi se, viceversa, la matematica possa essere espressa unicamente mediante la logica, senza dunque far ricorso a ragionamenti “intuitivi”.

Sarebbe una scoperta strabiliante: significherebbe aver trovato finalmente il calculus ratiocinator sognato da Leibniz! Significherebbe essere in grado, data una qualsiasi domanda matematica ben formata, di dare una risposta affermativa o negativa senza alcun dubbio, esibendo come dimostrazione i passaggi logici che ci hanno portato a dare quella risposta!

Non sorprende dunque che dopo Boole furono diversi i tentativi in questa direzione.

Il più importante tra questi fu senza dubbio il sistema logico presentato da Gottlob Frege (1848-1925).

L’Ideografia di Frege

Con Boole si era scoperto che sarebbe stato possibile sviluppare la logica con i normali metodi matematici, ma tra questi è compreso, ovviamente, il ragionamento logico. Questa circolarità nell’usare la logica per sviluppare la logica stessa, per Frege era inaccettabile.

Il suo lavoro fu quello di cercare di dimostrare che tutta la matematica poteva essere basata sulla logica. Per farlo doveva trovare il modo di sviluppare la logica senza usare il ragionamento logico stesso.

A tal proposito Frege pubblicò nel 1879 un libretto di meno di cento pagine intitolato Begriffsschrift, termine coniato da lui stesso unendo i vocaboli tedeschi begriff, “concetto”, e schrift, “scrittura”, tradotto storicamente in italiano come Ideografia.

Al suo interno presentava la sua soluzione al problema della circolarità della logica: un linguaggio artificiale con regole grammaticali (sintattiche) estremamente precise.

La sintassi formale

Sviluppato questo linguaggio formale sarebbe stato possibile elaborare le deduzioni logiche come operazioni puramente meccaniche: le regole di inferenza.

Vediamone un esempio:

Siano $A$ e $B$ due qualsiasi enunciati della Begriffsschrift, se sono asseriti sia $A$ sia $(A § B)$, si asserirà automaticamente $B$.

Notiamo che non è affatto importante conoscere il significato del simbolo $§$!

Probabilmente i lettori più attenti avranno riconosciuto in questa regola di inferenza il modus ponens, e avranno quindi interpretato $§$ come “$\implies$”, ma non è assolutamente necessario farlo per poter applicare questa regola sintattica ogni volta che ci troveremo di fronte alle asserzioni $A$ e $(A § B)$ per ricavare $B$.

Fu proprio questa l’intuizione di Frege! Riuscì a trovare il modo di sostituire l’intuizione con delle ferree regole di sintassi.

Il suo linguaggio formale potrebbe essere considerato l’antenato di tutti gli odierni linguaggi di programmazione.

Il sistema logico sviluppato da Frege è quello che oggi viene insegnato nei primi anni dei corsi di matematica, informatica e filosofia come logica del primo ordine.

Vediamo quali sono i passi avanti rispetto ai sistemi logici precedenti.

Il problema della generalità multipla

Uno dei grandi problemi che Frege riuscì a fronteggiare fu quello della generalità multipla. Prima di lui la logica riusciva ad esprimere agevolmente i connettivi e, o, se…allora e non.

I problemi si presentavano quando occorreva maneggiare i quantificatori tutti e qualche, che nella logica tradizionale potevano essere descritti solo in modo molto artificioso.

Per esempio, è intuitivo che dall’enunciato “Qualche gatto è temuto da tutti i topi” segua logicamente “Tutti i topi temono un qualche gatto”.

La logica aristotelica, ma anche quella sviluppata da Boole, permetteva di esprimere essenzialmente solo quattro tipi di proposizioni:

  • Tutti gli $A$ sono $B$
  • Qualche $A$ è $B$
  • Nessun $A$ è $B$
  • Qualche $A$ non è $B$

Ognuna di queste contiene al massimo un quantificatore. Come possiamo dunque esprimere gli enunciati dei gatti e dei topi che presentano entrambi due quantificatori? (Tutti e qualche)

Il massimo che la logica tradizionale poteva fare era di incorporare il secondo quantificatore all’interno del secondo termine, in modo da ottenere, ad esempio “Qualche (gatto) è (temuto da tutti i topi)”, in modo da rispettare lo schema “Qualche A è B”.

Sembra parecchio scomodo vero? Non solo, non era nemmeno funzionale!

Vediamo infatti come sarebbe stata scritta la seconda proposizione, che dovrebbe essere una conseguenza logica della prima: “Tutti (i topi) temono (un qualche gatto)”. Volendo parafrasarla per rispettare lo schema “Tutti gli $A$ sono $B$” potremmo scrivere “Tutti (i topi) sono (intimoriti da un qualche gatto)”.

Abbiamo sostanzialmente due espressioni totalmente scollegate: “Qualche $A$ è $B$” e “Tutti gli $C$ sono $D$”. Non c’è alcun modo per mostrare meccanicamente che la seconda sia una conseguenza della prima.

Funzione-Argomento

Questi problemi secondo Frege erano imputabili al fatto che la logica aristotelica fosse basata sulla dicotomia soggetto-predicato. Per superare questo ostacolo propose di sostituirla con la dicotomia funzione-argomento, che riprende dalla matematica.

Analizziamo per esempio l’enunciato “$2+3=5$”.

Possiamo vedere l’espressione “$2+3$” come una funzione binaria “( )+( )” che associa ai due argomenti inseriti all’interno delle parentesi tonde la loro somma.

Analogamente, possiamo vedere l’enunciato “$2+3=5$” come una funzione a tre argomenti “( )+( )=( )”. Tale funzione, una volta saturata, restituirà un valore di verità ($V$ o $F$). Se saturiamo la funzione con i termini “$2$”,”$3$”,”$5$” restituirà $Vero$, se invece la saturiamo con “$2$”,”$3$”,”$8$” restituirà $Falso$.

I quantificatori

Per essere in grado di esprimere le nostre due proposizioni sui gatti e topi però ci manca ancora qualcosa. Dobbiamo trovare il modo di esprimere “tutti” e “qualche” in un modo non ambiguo e che ci permetta di maneggiare con efficacia i nostri enunciati.

L’idea di Frege fu quella dei quantificatori: il quantificatore universale $\boldsymbol{\forall}$, “tutti”, ed il quantificatore esistenziale $\boldsymbol{\exists}$, “esiste”.

Torniamo quindi al nostro enunciato: “Qualche gatto è temuto da tutti i topi”.

Se proviamo ora a tradurlo nella notazione di Frege scopriamo che non solo siamo finalmente in grado di farlo, ma che addirittura il linguaggio ideato da Frege è più espressivo e preciso del nostro! Dobbiamo infatti metterci d’accordo su cosa intendiamo con la nostra frase. Per come è scritta in italiano può avere due interpretazioni:

  • Ogni topo teme un qualche gatto:

$\forall t.(Topo(t) \implies \exists g.(Gatto(g) \land Teme(t,g)))$

  • Esiste un gatto che è temuto da tutti i topi:

$\exists g.(Gatto(g) \land \forall t.(Topo(t) \implies Teme(t,g)))$

Dove:

  • $Topo(x)$ è la funzione che restituisce $Vero$ se l’argomento $x$ è un topo
  • $Gatto(x)$ è la funzione che restituisce $Vero$ se l’argomento $x$ è un gatto
  • $Teme(x,y)$ è la funzione che restituisce $Vero$ se $x$ teme $y$

Nell’articolo su Boole avevamo accennato al fatto che la sua logica non fosse in grado di esprimere enunciati del tipo “Tutti gli $X$ sono $Y$ o $Z$”.

Proviamo ora ad esprimere una proposizione di questa forma, per esempio “Tutti i numeri sono pari o dispari”. Per il sistema di Frege non c’è nessun problema:

$\forall n.(Numero(n) \implies (Pari(n) \lor Dispari(n))).$

Ad onor del vero la notazione presentata da Frege era diversa e più scomoda dal punto di vista tipografico, quella che usiamo oggi è la notazione utilizzata nei lavori di Russell e Peano, sviluppata a partire dalle idee di Frege.

L’Ideografia e il sogno di Leibniz

La logica di Frege fu un progresso immenso rispetto alla logica di Boole.

Finalmente si aveva a disposizione un linguaggio formale in grado di abbracciare tutti i ragionamenti utilizzati normalmente dalla matematica.

Finalmente dato un insieme di premesse sarebbe stato possibile raggiungere, prima o poi, tutte le conseguenze logiche di quelle premesse, semplicemente applicando meccanicamente le regole di inferenza. Sembrava proprio finalmente realizzato il sogno di Leibniz, o quasi…

Ma come quasi? Cosa manca per sedersi a un tavolo e dire “Calcoliamo!” per decidere se un qualunque enunciato è vero o falso?

Ebbene, il problema sta proprio in quel “prima o poi”. Partendo dalle premesse e combinandole con le regole di inferenza è possibile tentare di raggiungere una determinata conclusione, ma se dopo qualche ora, qualche giorno, qualche anno non riuscissimo a raggiungerla? Forse semplicemente la conclusione desiderata non discende dalle premesse iniziali, o forse ci siamo fermati troppo presto nel cercare di raggiungerla. Non possiamo saperlo.

Questo è un problema molto profondo, alla base della teoria della calcolabilità, e degli sconcertanti risultati di Kurt Gӧdel, i teoremi di incompletezza. Ci torneremo nei prossimi articoli.

La lettera di Russell

Per Frege la logica era solo il primo passo verso il suo obiettivo finale di rifondare tutta la matematica.

Per farlo, doveva iniziare dai fondamenti dell’aritmetica, che Dedekind e Peano avevano dimostrato essere alla base di tutta la matematica. Pubblicò a tal proposito i due volumi de I Principi dell’Aritmetica in cui, sfruttando il linguaggio formale sviluppato nell’Ideografia, si proponeva di costruire, a partire da determinati assiomi, i numeri naturali e le loro proprietà.

Nel giugno del 1902, mentre il secondo volume era ancora in stampa, arriva a Frege una lettera da parte del trentenne Bertrand Russell, filosofo e matematico inglese.

Russell dice di “trovarsi completamente d’accordo su tutti i punti essenziali” ma anche che “c’è un solo punto in cui ho trovato una difficoltà” (potete trovare il testo integrale della lettera sulla pagina wikipedia dedicata a Frege).

Sfortunatamente non si trattava di una difficoltà di Russell, né di un punto non essenziale. Frege lo capì subito e si precipitò ad aggiungere al secondo volume, che era proprio in quel momento in stampa, un’appendice in cui presentava il problema esposto nella lettera, che iniziava con queste parole:

“Per uno scienziato non c’è niente di peggio che veder crollare i fondamenti del suo lavoro proprio quando questo è stato appena completato. Io sono stato messo in tale situazione da una lettera del signor Bertrand Russell”.

Diversi anni dopo, lo stesso Russell, scrisse di questo gesto di grande integrità intellettuale:

“Fu una cosa quasi sovrumana, una dimostrazione significativa di ciò di cui sono capaci gli uomini se è al lavoro creativo e alla conoscenza che si dedicano, e non all’impresa, tanto più grossolana, di emergere e farsi conoscere”.

L’antinomia di Russell

Ma perché la lettera di Russell scosse così profondamente il lavoro di Frege?

Abbiamo detto che Frege si proponeva di definire i numeri naturali in termini puramente logici, e ci riuscì partendo dalla teoria degli insiemi, sfruttando il concetto di corrispondenza biunivoca. Se sei curioso dei dettagli, l’articolo LA MATEMATICA CONTA: STORIA DEI PRIMI NUMERI presenta la costruzione dei numeri naturali di Russell, molto simile a quella di Frege.

La teoria degli insiemi poggiava su assiomi che a prima vista sembravano intuitivi e abbastanza innocui, ma uno di essi era in realtà un lupo travestito da agnello.

Si tratta del Principio di Astrazione, che essenzialmente afferma:

“Per ogni proprietà esiste l’insieme degli oggetti che soddisfano quella proprietà”.

Per esempio, data la proprietà “essere un numero primo” esiste l’insieme corrispondente dei numeri primi.

Ebbene, Russell si chiese cosa accadrebbe se costruissimo l’insieme corrispondente alla proprietà di non appartenere a se stessi. Cioè l’insieme $R=\{x | x \notin x\}$.

Se R appartenesse a se stesso, allora dovendo rispettare la proprietà che determina l’insieme, non dovrebbe appartenere a se stesso. Se invece R non appartenesse a se stesso, allora rispettando la proprietà, dovrebbe appartenere a se stesso. $R \in R \iff R \notin R$

Siamo caduti dunque in una contraddizione: un tale insieme non può esistere, mentre l’Assioma di astrazione ci garantiva la sua esistenza. (Potete trovare l’antinomia di Russell nella sua versione divulgativa: Il barbiere di Russell)

Se una dimostrazione matematica porta ad una contraddizione, significa che almeno una delle premesse da cui parte è falsa, questo è il principio alla base delle dimostrazioni per assurdo.

Ma la contraddizione esposta da Russell mostrava che erano insostenibili gli stessi assiomi su cui era fondata la costruzione di Frege.

Frege stesso commentò:

“Qui non è in causa il mio metodo di fondazione in particolare, ma la possibilità di una fondazione logica dell’aritmetica in generale.”

Si aprì così la crisi dei fondamenti della matematica, di cui vedremo gli sviluppi nei prossimi articoli.