La scoperta dei numeri immaginari

“Numeri immaginari”. La prima volta che sentii questa parola nell’aula del mio liceo, durante l’ora di matematica, storsi un po’ il naso. Adesso va bene tutto, bella la matematica eh, ma pure studiare quella immaginaria mi sembra un po’ un’esagerazione, pensai tra me e me. Poi, però, approfondendo maggiormente, si scopre che di immaginario hanno ben poco, anzi: sono un’arma, e bella potente. Proseguendo negli studi scoprii che questi simpaticoni spuntano fuori quando meno te lo aspetti e ti permettono di risolvere problemi a prima vista impossibili. Ma andiamo con ordine.

Un po’ di storia

Facciamo un piccolo salto indietro, circa al 1500, ma restiamo in Italia. Tra i matematici c’era una simpatica usanza molto diffusa: 2 contendenti si sfidavano a una gara matematica, e il vincitore acquisiva fama, gloria, ed era un ottimo modo per mettersi in mostra con i potenti nobili di allora. La sfida era così costituita: ognuno doveva stilare 30 problemi matematici che era in grado di risolvere, consegnarli all’avversario e questo aveva un po’ di giorni per risolverne il più possibile. Poi, dopo una certa data, i due si ritrovavano davanti alla folla per decretare il vincitore. Potete considerarlo come un analogo delle battaglie freestyle tra rapper, solo che molto più nerd. A Bologna, questa era la piazza dove si ritrovavano, davanti alla Basilica di Santa Maria dei Servi.

Immaginatevi due matematici battagliare qui davanti alla folla

Questa usanza ebbe conseguenze curiose e forse un po’ negative. Appena un matematico faceva un’importante scoperta, invece che diffonderla, se la teneva tutta per sè. Quando poi sfidava un altro matematico, gli dava 30 problemi tutti su quell’argomento, e di solito vinceva a mani basse. Per questo motivo risalire al primo scopritore di determinate soluzioni è un po’ difficile, ma ci si prova. Questo è quello che accadde per la formula generale delle equazioni di terzo grado.

La formula per le equazioni di terzo grado

I babilonesi e i greci sapevano risolvere alcuni casi particolari, ma una formula generale era ancora sconosciuta. Il primo a scoprire una formula fu Scipione del Ferro, ma, per motivi che ormai sapete, non divulgò mai. Solo in punto di morte decise di svelare qualcosa al suo migliore studente, Antonio Maria del Fiore, obbligandolo a non rivelare nulla. Successivamente anche Niccolò Fontana, detto Tartaglia per la sua balbuzie, scoprì la stessa formula, e diventato famoso per le numerose gare matematiche vinte, fu invitato da Gerolamo Cardano e Lodovico Ferrari a Milano, e rivelò loro le sue scoperte, con la promessa di non rivelarle a nessuno.

Gerolamo Cardano

Tartaglia così descrisse a Cardano la formula scoperta, vediamo se anche voi riuscite a risolvere l’indovinello.

«Quando che’l cubo con le cose appresso
Se agguaglia à qualche numero discreto
Trovan dui altri differenti in esso.

Dapoi terrai questo per consueto
Che’llor produtto sempre sia eguale
Al terzo cubo delle cose neto,

El residuo poi suo generale
Delli lor lati cubi ben sottratti
Varra la tua cosa principale.»

Cardano in seguito venne a sapere dei risultato già ottenuti da Scipione del Ferro, e scoprì che erano gli stessi. Decise allora di infrangere la sua promessa e di pubblicarla, con il nome di Formula di Cardano, la quale permette di risolvere qualsiasi equazione di terzo grado, o quasi. Mai si sarebbe aspettato che questa formula avrebbe fatto sorgere problemi ben peggiori di quelli che risolveva. Per farvi capire, vi mostro qui di seguito il procedimento.

Come risolvere le equazioni di terzo grado

Partendo da una generica equazione di terzo grado, $ a x^3+bx^2+cx+d=0 $ , dovete applicare la sostituzione $x=y-\frac{b}{3a} $ così da eliminare il termine $x^2$ e ottenere un’equazione nella forma $y^3+py+q=0$ e adesso dovreste applicare questa facile facile formula:

$y = \sqrt[3]{-\frac{q}{2} + \sqrt{ \frac{q^2}{4} + \frac{p^3}{27}}} + \sqrt[3]{-\frac{q}{2} – \sqrt{ \frac{q^2}{4} + \frac{p^3}{27}}} $

“La bellezza è un requisito fondamentale: al mondo non c’è un posto perenne per la matematica brutta”

(Godfrey Harold Hardy)

Sarà bella questa formula? Ai posteri l’ardua sentenza. Quello che invece voglio farvi notare sono le due radici quadrate presenti nella formula. Dovreste sapere bene che un’equazione di terzo grado ha SEMPRE almeno una soluzione, e questo lo sapevano bene già i matematici ai tempi di Cardano. Però loro sapevano anche che una radice quadrata negativa non ha soluzioni, e qui nasce il problema. Partendo dal presupposto che almeno una soluzione doveva per forza esserci, per alcuni valori non riuscivano a trovarlo comunque: $\sqrt{ \frac{q^2}{4} + \frac{p^3}{27}}$ era irrisolvibile. Come trattare le radici negative? Per il momento si decise di utilizzare il termine “caso irriducibile” e arrendersi davanti alla potenza dell’ignoranza.

I “numeri silvestri”

Poi, arrivò una bella intuizione da parte di Raffaele Bombelli, matematico bolognese. La sua idea era molto semplice: “ok, le radici quadrate negative non sappiamo calcolarle…. non possiamo semplicemente ignorare il problema e andare avanti lo stesso?” decise allora di definirle “quantità silvestri” e procedette con lo studiarne le proprietà. Per Bombelli erano “quantità silvestri”, per Leibniz erano “mostri di un mondo ideale” e per Eulero erano “numeri che per la loro natura sono impossibili, che esistono solo nella nostra immaginazione”. Potete immaginare quanto abbiano scombussolato il mondo matematico. Cartesio fu il primo a dargli il nome che conosciamo, numeri immaginari.

Personalmente mi trovo un po’ in disaccordo su queste definizioni. Definire “immaginario” un campo della matematica sembra voler fare intendere che sia un qualcosa di inventato dall’uomo, che esiste solo nella sua immaginazione, quasi come se fosse falso. La parola “inventato” non deve mai essere usata in matematica. La matematica viene scoperta, non inventata.

Le leggi della matematica non sono semplici invenzioni o creazioni umane. Esse semplicemente “sono”; esistono abbastanza indipendentemente dall’intelletto umano. Il meglio che chiunque possa fare è di scoprire che queste esistono e di prenderne conoscenza.

(Maurits Cornelis Escher )

La più bella equazione della matematica

Dopo aver fatto un po’ di storia, ci terrei anche a fare un po’ di matematica. Se non avete la più pallida idea di cosa siano i numeri immaginari e di come usarli nei calcoli e vorreste una spiegazione chiara e rigorosa, vi consiglio di leggere questo articolo prima di andare avanti: https://www.mathone.it/numeri-complessi/

In questo articolo vorrei dimostrarvi come i numeri immaginari saltano fuori dove meno ve lo aspettereste. Vi ricordate quando a scuola facevate le prime funzioni, seno, coseno, logaritmo , arcocoseno e vi facevano mettere le condizioni di esistenza? Vi siete mai chiesti quali pericoli vi aspettano in quelle lande desolate al di fuori delle C.E? volete sapere quanto vale $\log{(-1)}$ o per quali valori $\cos{(x)} = 3$? Sarà che ho sempre avuto un’indole avventuriera e ho sempre odiato avere vincoli, ma io le condizioni di esistenza non le ho mai sopportate. O forse sono semplicemente pazzo, spiegherebbe molte cose. Ho sempre desiderato avventurarmi in quel regno desolato, e a fornirmi la mappa ci pensò proprio Eulero.

La più bella equazione esistente in matematica, la mappa che unisce regno reale e immaginario

Credo che anche a prima vista riuscite a capire perchè è considerata l’equazione più bella di tutta la matematica. $e$ è il numero di Nepero, $\pi$ è il rapporto tra circonferenza e diametro e $i$ è un numero immaginario dotato della proprietà tale che $i^2 = -1$. Gli altri due numeri spero li conosciate.

La formula di Eulero

Adesso, dimostrarvela interamente potrebbe essere un po’ impegnativo, magari in un prossimo articolo. Per il momento mi piacerebbe darvi una prova del fatto che sia vera, ma nel caso vogliate dimostrarla voi stessi, vi darò qualche piccolo indizio. Vi serve sapere solo gli sviluppi in serie di Taylor. Se non ne avete mai sentito parlare, vi basta sapere che è un modo per trasformare funzioni complicate in semplici polinomi di lunghezza infinita. Ecco gli esempi che mi servono, se non gli avete mai visti, potete provare a disegnarli su una qualsiasi app e vedrete che sono perfettamente valide.

$e^x = 1 + x + \frac{x^2}{2!} + \frac{x^3}{3!} + \frac{x^4}{4!} + \frac{x^5}{5!} + \frac{x^6}{6!} + \frac{x^7}{7!} $ …… e così via

$cos(x) = 1 – \frac{x^2}{2!} + \frac{x^4}{4!} – \frac{x^6}{6!} +$ …… e così via

$sin(x) = x – \frac{x^3}{3!} + \frac{x^5}{5!} – \frac{x^7}{7!} +$ ….. e così via

Notate una leggera somiglianza uno dall’altro? Sono praticamente uguali, cambia solo un po’ il segno. E qui arrivano in aiuto i numeri immaginari, e vi permettono di risolvete tutto. Sostituite $e^x$ con $e^{ix}$ e $\sin{x}$ con $i\sin{x}$ e il gioco è fatto. La prima riga è esattamente uguale alla somma delle altre due. Usiamo $z$ al posto della $x$ perchè mi piace di più e otteniamo:

A questo punto, vi basta sostituire $z=\pi$ e riotterrete la formula vista prima.

Logaritmi negativi

Ora che abbiamo tutto quello che ci serve, iniziamo ad avventurarci nella desolata landa fuori dalle C.E. Partirei dal logaritmo naturale, molto semplice. Sapete bene che quando studiate $\log{x}$ dovete sempre porre $x>0$ ma per quale motivo? Cosa succede quando $x$ assume valori negativi? E’ presto detto. Considerate la prima formula, $e^{i\pi} +1 =0$ spostate il $+1$ a destra ed eseguiamo il logaritmo da entrambe le parti dell’uguale, per ottenere $\log{(e^{i\pi})} = \log{(-1)}$ .

Applicando le formule dei logaritmi troviamo che $i\pi\log{(e)} = \log{(-1)}$ e quindi che $\log{(-1)} = i\pi$.

Ora ci basta ricordare la formula del prodotto, $\log{(ab)} = \log{(a)} + \log{(b)}$ e possiamo generalizzare per qualsiasi numero negativo. infatti, $\log{(-n)} = \log{(n)} + \log{(-1)}$ ovvero che $\log{(-n)} = \log{(n)} + i\pi$ .

Il valore di un logaritmo negativo è esattamente quello che ha per valori positivi, più $i\pi$

Se quindi volessimo disegnare il grafico di $\log{(-n)}$ dovremmo semplicemente specchiare quello di $\log{(n)}$ e traslarlo nel piano immaginario di un vettore lungo esattamente $\pi$. Fermatevi un attimo a cercare di visualizzare questa cosa. Non pensate sia un risultato incredibile? La parte immaginaria di un logaritmo in base $e$ di un qualsiasi numero negativo è sempre esattamente $\pi$.

Seni e Coseni

Un’altra delle funzioni che avevano un dominio abbastanza ristretto erano l’arcoseno e l’arcocoseno, con $x$ compreso tra -1 e 1. Perchè? Cosa succede se usiamo altri valori? Considerando che queste funzioni sono esattamente l’inversa di seno e coseno, la domanda equivale a chiedersi se esistono valori di $x$ per i quali $sin(x)>1$ o $cos(x)>1$

Per rispondere, ci serve la formula più generale di Eulero, $e^{xi}=cos(x) + i*sin(x)$ effettuare prima la sostituzione $x=n*i$ dove $n$ stà ad indicare un generico multiplo. Facciamo poi qualche passaggio algebrico, ricordando che $cos(-x)=cos(x)$ e che $sin(-x)=-sin(x)$

Ecco quello che otteniamo:

$e^{n(i)(i)}=cos(in) + isin(in)$

$e^{-n}=cos(in) + isin(in)$

E in seguito ripetere sostituendo invece $x=-i\cdot n$ per ottenere:

$e^{-n(i)(i)}=cos(-in) + isin(-in)$

$e^{n}=cos(in) – isin(in)$

Mettiamo ora la seconda e la quarta assieme per ottenere:

$\begin{cases} e^{-n}=cos(in) + isin(in) \\ e^{n}=cos(in) – isin(in) \end{cases}$

Sommando e sottraendo le due righe, ottenete un espressione per calcolare seni e coseni immaginari:

$cos(in) = \frac{e^n + e^{-n}}{2}$

$sin(in) = \frac{e^n-e^{-n}}{2}i$

Ci terrei giusto a farvi notare la bellezza di quello che abbiamo appena calcolato. Per prima cosa, il seno di un numero immaginario è un numero immaginario. E fin qui non sembra nulla di troppo strano. Invece, il coseno di un qualsiasi numero immaginario è un numero Reale. Vi sareste mai aspettati prima di iniziare a leggere questo articolo che $cos(i)=\frac{e+\frac{1}{e}}{2}$?

Ora lascio a voi il compito, se l’argomento vi interessa, di approfondire. Il campo della matematica coi numeri complessi è enorme e affascinante. Pensate che qualsiasi argomento abbiate studiato nel campo Reale, può essere studiato anche in campo immaginario e complesso, e le applicazioni sono innumerevoli e utilissime.

Esiste qualcosa di più complesso dei numeri complessi?

Pensate che non ci sia altro dopo i numeri complessi? Sbagliatissimo. Così come ci sono i numeri Reali, e ci sono i numeri complessi (che possiamo chiamare bidimensionali) esistono poi i Quaternioni, numeri quadri-dimesionali, scrivibili nella forma $a+bi+cj+dk$ con $a, b, c, d$ numeri reali e $i, j, k$ che sono analoghi alla $i$ dei numeri complessi. Esistono poi gli Ottetti i Sedenioni, e chi più ne ha più ne metta, seguendo gli esponenti di $2^n$.

E così come esiste l’analisi in campo reale, esiste l’analisi complessa e l’analisi ipercomplessa, che non ho mai avuto il piacere di provare ma non faccio fatica a credere sia davvero un macello. L’unica cosa davvero interessante che so dirvi è che ogni gradino che saliamo verso la complessità, la difficoltà aumenta a livelli imbarazzanti. Non solo il numero di costanti complesse aumenta di un fattore 2^n ogni volta, ma anche perdete ogni volta una proprietà.

Nei numeri Reali, avete numeri del tipo $a$ e valgono tutte le proprietà che conoscete.

Nel numeri complessi, avete numeri del tipo $a + bi$ e perdete la relazione d’ordine.

Nei quaternioni, avete numeri del tipo $a+bi+cj+dk$ e perdete anche la proprietà commutativa

Negli ottetti, avete numeri del tipo $a+bi+cj+dk+el+fm+gn+ho$ e perdete anche la proprietà associativa

Mi fermo qui, perchè direi di avervi già terrorizzato abbastanza. Potrei magari in un prossimo articolo parlarvi dei quaternioni, numeri che hanno applicazioni gigantesche e sono usati dappertutto. Pensate che i vostri telefoni li usano costantemente per capire la loro posizione e angolazione nello spazio.

Approfondimenti

Se volete approfondire bene l’argomento, sinceramente non potrei fare altro che consigliarvi di prendere libri universitari di analisi matematica. E’ un argomento così vasto, che cibarsi di bricioline non ne renderebbe sicuramente il sapore originario. Se volete giusto affacciarvi a questo argomento per cercare di capirci meglio, vi lascio sotto dei video molto interessanti che io stesso ho guardato per imparare a naufragare dolcemente in questo mare.

Un altro video interessante è questo : https://www.youtube.com/watch?v=19c4c3SwtS8

Fonti

https://it.wikipedia.org/wiki/Storia_dei_numeri_complessi

https://it.wikipedia.org/wiki/Gerolamo_Cardano

https://it.wikipedia.org/wiki/Rafael_Bombelli

https://st.ilsole24ore.com/art/cultura/2012-02-05/numeri-grande-schermo-081450_PRN.shtml

https://www.youmath.it/domande-a-risposte/view/6122-identita-eulero.html

Sistemi dinamici integrabili : cosa sono e alcuni esempi introduttivi

Cos’è un sistema integrabile? Ci sono esempi semplici di sistemi integrabili? In questo articolo cercheremo di capire il concetto di integrabilità di un sistema dinamico, partendo da degli esempi e derivando quindi qualche risultato più generale.

Introduzione al concetto di integrabilità

In un vecchio articolo sul sito abbiamo parlato di cosa sia un integrale primo ed un sistema dinamico (se vuoi lo trovi qui https://www.mathone.it/integrale-primo/ ), oggi invece andremo a scoprire quando un sistema sia integrabile.

Cosa si può intuire dal termine “integrabile”? Supponiamo di partire da una semplice equazione differenziale : $x'(t) = 6x(t)$. Secondo te questa è integrabile?

Beh, intuitivamente sì, nel senso che possiamo integrarla, ovvero possiamo calcolarne la soluzione in forma chiusa. Infatti la funzione $x(t) = x(0)e^{6t}$ risolve l’equazione, per cui siamo riusciti ad integrare l’equazione.

Bene, questo era un esempio semplice potresti dire, ma come possiamo capire se un sistema più complicato sia o meno integrabile? Cosa vuol dire che esso è integrabile?

Intanto definiamo più rigorosamente un generico sistema dinamico, seguendo però un approccio geometrico, ovvero parlando di campi vettoriali invece che di sistemi di equazioni differenziali. Riguardo la distinzione tra questi due punti di vista puoi vedere un video che ho fatto qui sotto:

Definiamo quindi un campo vettoriale $X:\mathbb{R}^n\rightarrow\mathbb{R}^n$ che sia di classe $\mathcal{C}^1(\mathbb{R}^n,\mathbb{R})$, così che valga il teorema di esistenza e unicità. Il sistema di equazioni differenziali associato è $$\dot{x}(t)=X(x(t)).$$

Tale sistema si dice integrabile se si può trovare una funzione $x=x(t)$, tramite una sequenza di operazioni algebriche e integrazioni, che risolva il sistema di equazioni differenziali qui sopra presentato.

Bene, una volta introdotto questo concetto però è interessante scoprire se ci sono dei risultati, delle ipotesi, che ci garantiscano l’integrabilità del sistema senza integrarlo direttamente.

Infatti, immagino tu ci abbia fatto caso, la semplice equazione $x’=6x$ l’abbiamo definita integrabile perchè l’abbiamo esplicitamente risolta, ovvero integrata.

Ma la domanda importante è: esistono delle ipotesi che quando soddisfatte da un sistema ci permettono di definirlo integrabile?

Ci tengo ad evidenziare un parallelismo con le equazioni algebriche e la loro risolubilità. La teoria della risolubilità in quel caso fa riferimento ai gruppi di Galois e non andremo certo ad approfondirla, visto che non so praticamente nulla a riguardo. Però se tu avessi dimestichezza con quegli argomenti, sappi che c’è uno stretto legame almeno in termini di approccio ed intuizioni tra queste due aree della mateamatica.

Prima di vedere il più semplice risultato di questo tipo (la teoria dell’integrabilità è molto ampia e richiede buone basi teoriche nel campo della geometria differenziale e teoria dei sistemi dinamici), è importante fare una precisazione.

L’integrabilità di un sistema dinamico ( o di un campo vettoriale più in generale ), è strettamente legata alla presenza di quantità/oggetti invarianti per il sistema. Per esempio in questo campo diventano molto importanti insiemi invarianti, misure invarianti, integrali primi o simmetrie dinamiche (campi vettoriali invarianti).

Se ti interessa capire cosa sia un integrale primo, qui ho fatto un video in cui introduco questo concetto:

Integrabilità algebrica: teorema di integrabilità di Lie

Supponiamo di avere ancora un generico campo vettoriale $X=X(x_1,…,x_n)$ che sia sufficientemente regolare, per esempio $\mathcal{C}^1$. Supponiamo inoltre che esso ammetta $(n-1)$ integrali primi che siano funzionalmente indipendenti.

Prima di tutti specifichiamo cosa si intenda con quest’ultima frase. Vuol dire che ci sono $(n-1)$ funzioni $f_1,…,f_{n-1}:\mathbb{R}^n\rightarrow \mathbb{R}$ che soddisfano le due seguenti proprietà:

  • $\mathcal{L}_Xf_i = \nabla f_i \cdot X = 0 ,\;\forall i=1,…,n-1,$

  • $\nabla f_i \text{ e }\nabla f_j \text{ non sono paralleli per ogni }i\neq j.$

Allora se ciò è vero, possiamo integrare il sistema. Nel caso ci sia un integrale primo, come spiego nel video, abbiamo che gli insiemi di livello di ognuna di queste funzioni è invariante. Inoltre essendo che i gradienti di queste funzioni non sono paralleli, ovvero non sono linearmente dipendenti, ciò vuol dire che gli insiemi di livello di questi integrali primi sono tutti diversi.

Quest’ultimo fatto è dovuto alla proprietà geometrica del gradiente di essere localmente ortogonale agli insiemi di livello di $f$, per esempio se $f(x,y)=x^2+y^2$, il gradiente è $\nabla f (x,y) = [2x,2y]^T$ che, come puoi vedere nel grafico qui sotto, è localmente ortogonale alle circonferenze che definiscono gli insiemi di livello di $f$.

Cosa vuol dire nel concreto questo? Vuol dire che se fissiamo un punto iniziale da cui lasciare evolvere la dinamica, $y_0\in\mathbb{R}^n$, sappiamo che per ogni $i=1,…,n-1$, la dinamica evolverà per ogni tempo $t$ nell’insieme di livello dove vive $y_0$ di $f_i$.

Quindi supponiamo che $f_i(y_0)=c_i\in\mathbb{R}$ per ogni $i=1,…,n-1$. Allora abbiamo che l’orbita del punto $y_0$ rispetto al campo vettoriale $X$, ovvero l’insieme

$$orb(y_0) = \{\Phi_t(y_0):\,t\in\mathbb{R}\}\subset\mathbb{R}^n$$

è contenuto nell’insieme di livello $\{x\in\mathbb{R}^n : f_i(x)=c_i\}$ per ogni $i=1,…,n-1$. Di conseguenza esso apparterrà all’insieme di livello della funzione vettoriale

$$ F : \mathbb{R}^n\rightarrow \mathbb{R}^{n-1} ,\quad F(x):=(f_1(x),…,f_{n-1}(x))$$

associato al punto $\boldsymbol{c}=(c_1,…,c_{n-1})\in\mathbb{R}^{n-1}$. Essendo gli integrali primi indipendenti, questa è una funzione suriettiva e l’insieme di livello $\{x\in\mathbb{R}^n: \,F(x)=\boldsymbol{c}\}$ è di dimensione 1, ed è invariante rispetto alla dinamica. Di conseguenza sappiamo che le orbite sono contenute in questi sottoinsiemi invarianti.

In più si vede facilmente che il sistema può essere integrato esplicitamente, questo è anche chiamato teorema di integrabilità di Lie.

Giusto per essere chiari, il fatto che sia integrabile esplicitamente non vuol dire che non rimarranno integrali da calcolare nell’espressione finale, vuol dire che a meno di essere in grado di calcolare quegli integrali, abbiamo un’espressione esplicita. Spesso infatti si incontrano i cosiddetti integrali ellittici che non sono risolvibili, ma ciò non è un problema o almeno non è un ostacolo verso la definizione di integrabilità.

Per accertarci della possibilità di integrare il sistema e trovarne l’integrale generale in forma chiusa, senza perderci in formalismi eccessivi, supponiamo di definire $n-1$ variabili come segue: $y_1=f_1$, …., $y_{n-1}=f_{n-1}$. Prendiamo poi una $n-$esima variabile da esse indipendente (questa esiste visto che abbiamo uno spazio di dimensione $n$: $\mathbb{R}^n$), chiamiamola $y_n$.

Allora siccome, per quanto abbiamo visto prima riguardo gli integrali primi, gli insiemi di livello di queste funzioni sono invarianti, esiste una funzione $g:\mathbb{R}^n\rightarrow \mathbb{R}$ tale che il sistema può essere riscritto, nelle nuove coordinate $\boldsymbol{y}$ come segue:

$$ \dot{y}_1 = 0 $$

$$ …. $$

$$ \dot{y}_{n-1} = 0 $$

$$ \dot{y}_n = g(y_1,…,y_n) $$

dove l’ultima equazione può essere integrata e possiamo quindi risolvere in forma chiusa il sistema.

Proviamo a ragionare più nel dettaglio su questa nuova formulazione del sistema. Quello che abbiamo fatto è trasformare il campo vettoriale di partenza, che era nelle coordinate $\boldsymbol{x}=(x_1,…,x_n)$, nelle nuove coordinate $\boldsymbol{y}=(y_1,…,y_n)$ che non sono prese a caso ma sono “speciali”. Per precisazione, questa operazione si dice coniugazione topologica del campo vettoriale.

Detto ciò, come possiamo sfruttare queste coordinate? Beh, vediamo facilmente che le prime $(n-1)$ equazioni sono integrabili e restituiscono $y_i=c_i$ con $i=1,…,n-1$. Da ciò segue che non resta che risolvere l’ultima equazione differenziale:

$$ \frac{dy_n}{dt}(t) = g(c_1,…,c_{n-1},y_n) = \tilde{g}_{\boldsymbol{c}}(y_n(t)), $$

che ci permette di ricavare $y_n(t)$, a meno di risolvere integrali.

Conclusione

La teoria dell’integrabilità è un campo molto interessante sia nel caso di campi vettoriali su spazi vettoriali (o varietà) di dimensione finita che infinita (nel caso della teoria quantistica per esempio). I risultati però si fanno parecchio complicati e quindi ho preferito concentrarmi solo su uno tra i risultati più intuitivi, ovvero il teorema di Lie.

Un altro famoso e classico risultato invece riguarda i sistemi Hamiltoniani, esso è il teorema di Liouville-Arnol’d e, nel caso le sue assunzioni siano soddisfatte da un sistema Hamiltoniano, esso ci porta a definire completamente integrabile tale sistema.

Magari su questo risultato possiamo soffermarci in un articolo più avanti, dopo averne dedicato uno all’introduzione dei campi vettoriali Hamiltoniani, così da definire un po’ di contesto.

Per questo articolo direi che possiamo concludere, se hai qualche domanda o suggerimento lascia pure un commento qui sotto, appena posso ti risponderò 🙂

Il Bitcoin, le monete matematiche e la blockchain

Cosa è il Bitcoin? Sicurezza o truffa informatica? Cosa sono le cryptovalute e la blockchain?

Sicuramente avrai sentito questi termini più di una volta negli ultimi tempi, essendo essi parole chiave di una grande rivoluzione tecnologica che si sta espandendo sempre di più, in molti settori e principalmente in quello della finanza. Oggi faremo chiarezza su questi concetti , sottolineando quanto siano importanti gli algoritmi matematici dietro tali tecnologie.

Bitcoin

Premessa: Questo articolo e gli altri della rubrica sono solamente a scopo informativo, col fine di suscitare ed approfondire l’interesse per questo argomento. Nè io nè gli altri collaboratori siamo investitori/traders professionisti e nessuna cosa che scriviamo ha come obiettivo spingerti ad investire i tuoi soldi. Detto questo, enjoy your reading!

Il Bitcoin (in acronimo BTC) è una moneta virtuale, ovvero che non viene stampata come la normale cartamoneta, ma che viene creata, distribuita e scambiata in maniera completamente virtuale. Esso introduce un vero e proprio sistema monetario globale, completamente innovativo e senza intermediari usufruendo della nuova tecnologia Blockchain di cui ne parlerò più avanti.

Nasce nel 2009, creato da un programmatore (o gruppo di programmatori) sotto lo pseudonimo di Satoshi Nakamoto, tutt’ora ancora sconosciuto, e la sua nascita dà il via alla cosidetta era delle cryptocurrencies, in italiano cryptovalute, dai termini inglesi “cryptography” (crittografia) e “currency” (valuta).

Le cryptovalute sono mezzi di scambio che utilizzano le moderne tecniche crittografiche sia per rendere sicure le transazioni sia per la creazione di altra moneta. Vengono spesso chiamate anche monete matematiche, poiché esse vengono prodotte, rese sicure (tramite la crittografia), distribuite e fatte circolare secondo algoritmi noti al pubblico. Se non sai cos’è un algoritmo ti consiglio di dare un’occhiata a questo articolo.

Ne esistono più di 2000, quelle che differiscono dal Bitcoin sono definite Altcoin (alternative-coin). Le più famose Altcoin sono Ethereum (ETH), Ripple (XRP), Litecoin (LTC).

Principali Cryptovalute

Il Bitcoin deve la sua fama principalmente per il suo alto valore nel mercato finanziario: dal 2009 ad oggi, infatti, ha avuto un incremento percentuale equivalente circa a 11666500% partendo da un prezzo di 0.06 dollari , ed arrivando tutt’ora intorno ai 7000 dollari. Il massimo storico è stato verso la fine del 2017, toccando la soglia di 20000$, e raggiungendo un incremento del 33333200% circa. Ma a cosa sono dovuti questi prezzi? La risposta si trova semplicemente nella legge della domanda e dell’offerta.

In breve: il prezzo è basso? Compro. Comprando, la domanda di quel bene (in questo caso del Bitcoin) sale, e ciò porta ad un aumento del prezzo. L’inverso succede invece quando si decide di vendere: arrivato ad un certo prezzo, chi ha comprato a poco decide di vendere sfruttando l’aumento del prezzo (si chiama speculazione): vendendo, l’offerta di quel bene aumenta, e ciò porta ad una riduzione del prezzo.

Sono ben 11 anni che il Bitcoin sta avendo questi andamenti, mostrando percentuali e numeri davvero incredibili. Il rischio, quindi, sta nel capire quando tutti comprano e quando tutti vendono. Ma la cosa che rende questa moneta così importante in realtà è la tecnologia che c’è dietro, chiamata Blockchain.

Blockchain: Il nuovo sistema decentralizzato

La blockchain (letteralmente “catena di blocchi”) è per definizione “una struttura dati condivisa e immutabile”. È definita come un registro digitale le cui voci sono raggruppate in blocchi, collegati in ordine cronologico, e la cui sicurezza è, come abbiamo già detto, garantita dall’uso della crittografia (Qui viene spiegata dettagliatamente cosa è e la sua importanza). Ogni nodo, ovvero ogni computer connesso ai blocchi, ha una copia della blockchain: difatti la qualità dei dati è mantenuta grazie a una costante replicazione del database. Non esiste nessuna copia ufficiale centralizzata e nessun utente è più credibile di altri, tutti sono allo stesso livello. E’ proprio questa la grande novità: un sistema decentralizzato che rimpiazza quello originariamente centralizzato (ovvero che ogni operazione debba necessariamente passare per un solo grande blocco che funge da intermediario per gli altri, es: banca) , poiché quest’ultimo rende vulnerabile il sistema (in caso di attacco informatico mirato solo al blocco centrale si otterrebbe l’immediato accesso a tutti gli altri blocchi).

Dopo che una transazione è avvenuta, lo storico e tutte le informazioni a essa collegate vengono salvate e conservate su ogni singolo blocco della catena che è pubblico e condiviso da tutti i nodi.

Questa nuova tecnologia, oltre che nel settore finanziario e della compravendita, si sta evolvendo in tantissime aree, tra queste: sistema sanitario,industria musicale, energia rinnovabile, scuole e università, pubblica amministrazione e molti altri.

Blockchain

Il Mining: Come vengono creati i Bitcoin

Il processo che produce nuova moneta virtuale è detto Mining. Esso consiste nel decifrare i codici crittografici presenti nei Bitcoin per completare le transizioni. Per fare ciò sono necessari una serie di computer di alta potenza che utilizzano software ed hardware specializzati capaci di fare milioni di calcoli al secondo. Decifrare questi codici risulta essere un vero e proprio problema matematico estremamente complesso: quei nodi che procedono alla ricerca della soluzione sono detti “minatori” e il primo che riesce a risolvere il problema viene premiato con una quota di bitcoin generati proprio grazie a questo processo. Inizialmente la ricompensa era di 50 bitcoin per blocco, ma se tale ricompensa rimanesse sempre la stessa, la moneta in circolazione aumenterebbe infinitamente nel tempo e si verificherebbe una continua inflazione (qui viene spiegata in dettaglio cosa è). Per evitare questo problema il sistema è programmato per generare moneta secondo una serie geometrica fino a che il numero totale di Bitcoin non giunge a 21 milioni. Il sistema dimezza la ricompensa ogni 210000 blocchi minati (ovvero ogni 4 anni circa); così facendo si ottiene:

$210000\cdot 50\cdot \sum^{+\infty }_{n=0}{{\left(\frac{1}{2}\right)}^n}=21000000$

Da questo momento, tutte le transazioni contenute in quell’ultimo blocco generato vengono “incatenate” alla blockchain e diventano pubbliche; quindi chi ha pagato una somma di Bitcoin non li possiede più mentre il ricevente li possiede effettivamente.

Creazione blocchi

Il Wallet Bitcoin: un po’ di algoritmi per capirne la solidità

I wallet (letteralmente “portafoglio”) sono una componente dell’architettura bitcoin attraverso il quale gli utenti gestiscono la propria cryptovaluta. I bitcoin sono infatti associati ad indirizzi assimilabili al numero di conto corrente di una banca e ogni utente può gestire, attraverso il proprio wallet, uno o più conti.

Ogni indirizzo di un wallet Bitcoin è costituito da due parti: la chiave pubblica, ovvero il vero e proprio indirizzo che useremo per ricevere i pagamenti, e la chiave privata, che deve assolutamente rimanere tale.

‘’I grandi numeri sono il primo nemico degli hacker, ed è questo il motivo per cui le chiavi private sono a prova di penetrazione.’’

La chiave pubblica, ovvero l’indirizzo del wallet, è una serie alfanumerica tra i 26 e i 35 caratteri in formato HEX (sistema numerico esadecimale). Questa serie di numeri è qualcosa di mai visto: sarete i primi  ed unici al mondo ad aver creato questa serie di numeri e lettere. E’ come lanciare una moneta per 160 volte e segnare l’ordine in cui escono testa (1) e croce (0), in quanti, al mondo, si ritroverebbero con la vostra stessa serie binaria? Le statistiche dicono nessuno. Quella sequenza di 160 monete lanciate è il vostro indirizzo.

Il valore della chiave privata viene generato tramite funzioni di crittografia dette “ellittiche” e successivamente usato sia come parametro di complessi algoritmi detti “algoritmi di hashing”. Essi sono in grado di elaborare una gran quantità di informazione e, sopratutto, non sono invertibili.

Questa proprietà è davvero importante, perché un algoritmo (facilmente) invertibile nel campo della sicurezza è sintomo di vulnerabilità. Basta pensare a una funzione crittografica come ad una semplice funzione matematica in cui l’input è un numero che viene elevato alla seconda e l’output è il risultato:

$x^2=81$

 se così fosse, basterebbe calcolare la radice quadrata per invertire la funzione e scoprire l’input a partire dall’output:

$\sqrt{81}=x$

Questi appena descritti sono i più moderni e solidi modelli di sicurezza.

Gottlob Frege: la matematica diventa logica?

Nell’ultimo articolo della nostra serie abbiamo visto come George Boole riuscì a trattare la logica come un ramo della matematica. In questo modo fu finalmente possibile applicare la potenza dei metodi matematici a questa importantissima materia di studio, che fino ad allora apparteneva più che altro alla filosofia.

Viene naturale allora chiedersi se, viceversa, la matematica possa essere espressa unicamente mediante la logica, senza dunque far ricorso a ragionamenti “intuitivi”.

Sarebbe una scoperta strabiliante: significherebbe aver trovato finalmente il calculus ratiocinator sognato da Leibniz! Significherebbe essere in grado, data una qualsiasi domanda matematica ben formata, di dare una risposta affermativa o negativa senza alcun dubbio, esibendo come dimostrazione i passaggi logici che ci hanno portato a dare quella risposta!

Non sorprende dunque che dopo Boole furono diversi i tentativi in questa direzione.

Il più importante tra questi fu senza dubbio il sistema logico presentato da Gottlob Frege (1848-1925).

L’Ideografia di Frege

Con Boole si era scoperto che sarebbe stato possibile sviluppare la logica con i normali metodi matematici, ma tra questi è compreso, ovviamente, il ragionamento logico. Questa circolarità nell’usare la logica per sviluppare la logica stessa, per Frege era inaccettabile.

Il suo lavoro fu quello di cercare di dimostrare che tutta la matematica poteva essere basata sulla logica. Per farlo doveva trovare il modo di sviluppare la logica senza usare il ragionamento logico stesso.

A tal proposito Frege pubblicò nel 1879 un libretto di meno di cento pagine intitolato Begriffsschrift, termine coniato da lui stesso unendo i vocaboli tedeschi begriff, “concetto”, e schrift, “scrittura”, tradotto storicamente in italiano come Ideografia.

Al suo interno presentava la sua soluzione al problema della circolarità della logica: un linguaggio artificiale con regole grammaticali (sintattiche) estremamente precise.

La sintassi formale

Sviluppato questo linguaggio formale sarebbe stato possibile elaborare le deduzioni logiche come operazioni puramente meccaniche: le regole di inferenza.

Vediamone un esempio:

Siano $A$ e $B$ due qualsiasi enunciati della Begriffsschrift, se sono asseriti sia $A$ sia $(A § B)$, si asserirà automaticamente $B$.

Notiamo che non è affatto importante conoscere il significato del simbolo $§$!

Probabilmente i lettori più attenti avranno riconosciuto in questa regola di inferenza il modus ponens, e avranno quindi interpretato $§$ come “$\implies$”, ma non è assolutamente necessario farlo per poter applicare questa regola sintattica ogni volta che ci troveremo di fronte alle asserzioni $A$ e $(A § B)$ per ricavare $B$.

Fu proprio questa l’intuizione di Frege! Riuscì a trovare il modo di sostituire l’intuizione con delle ferree regole di sintassi.

Il suo linguaggio formale potrebbe essere considerato l’antenato di tutti gli odierni linguaggi di programmazione.

Il sistema logico sviluppato da Frege è quello che oggi viene insegnato nei primi anni dei corsi di matematica, informatica e filosofia come logica del primo ordine.

Vediamo quali sono i passi avanti rispetto ai sistemi logici precedenti.

Il problema della generalità multipla

Uno dei grandi problemi che Frege riuscì a fronteggiare fu quello della generalità multipla. Prima di lui la logica riusciva ad esprimere agevolmente i connettivi e, o, se…allora e non.

I problemi si presentavano quando occorreva maneggiare i quantificatori tutti e qualche, che nella logica tradizionale potevano essere descritti solo in modo molto artificioso.

Per esempio, è intuitivo che dall’enunciato “Qualche gatto è temuto da tutti i topi” segua logicamente “Tutti i topi temono un qualche gatto”.

La logica aristotelica, ma anche quella sviluppata da Boole, permetteva di esprimere essenzialmente solo quattro tipi di proposizioni:

  • Tutti gli $A$ sono $B$
  • Qualche $A$ è $B$
  • Nessun $A$ è $B$
  • Qualche $A$ non è $B$

Ognuna di queste contiene al massimo un quantificatore. Come possiamo dunque esprimere gli enunciati dei gatti e dei topi che presentano entrambi due quantificatori? (Tutti e qualche)

Il massimo che la logica tradizionale poteva fare era di incorporare il secondo quantificatore all’interno del secondo termine, in modo da ottenere, ad esempio “Qualche (gatto) è (temuto da tutti i topi)”, in modo da rispettare lo schema “Qualche A è B”.

Sembra parecchio scomodo vero? Non solo, non era nemmeno funzionale!

Vediamo infatti come sarebbe stata scritta la seconda proposizione, che dovrebbe essere una conseguenza logica della prima: “Tutti (i topi) temono (un qualche gatto)”. Volendo parafrasarla per rispettare lo schema “Tutti gli $A$ sono $B$” potremmo scrivere “Tutti (i topi) sono (intimoriti da un qualche gatto)”.

Abbiamo sostanzialmente due espressioni totalmente scollegate: “Qualche $A$ è $B$” e “Tutti gli $C$ sono $D$”. Non c’è alcun modo per mostrare meccanicamente che la seconda sia una conseguenza della prima.

Funzione-Argomento

Questi problemi secondo Frege erano imputabili al fatto che la logica aristotelica fosse basata sulla dicotomia soggetto-predicato. Per superare questo ostacolo propose di sostituirla con la dicotomia funzione-argomento, che riprende dalla matematica.

Analizziamo per esempio l’enunciato “$2+3=5$”.

Possiamo vedere l’espressione “$2+3$” come una funzione binaria “( )+( )” che associa ai due argomenti inseriti all’interno delle parentesi tonde la loro somma.

Analogamente, possiamo vedere l’enunciato “$2+3=5$” come una funzione a tre argomenti “( )+( )=( )”. Tale funzione, una volta saturata, restituirà un valore di verità ($V$ o $F$). Se saturiamo la funzione con i termini “$2$”,”$3$”,”$5$” restituirà $Vero$, se invece la saturiamo con “$2$”,”$3$”,”$8$” restituirà $Falso$.

I quantificatori

Per essere in grado di esprimere le nostre due proposizioni sui gatti e topi però ci manca ancora qualcosa. Dobbiamo trovare il modo di esprimere “tutti” e “qualche” in un modo non ambiguo e che ci permetta di maneggiare con efficacia i nostri enunciati.

L’idea di Frege fu quella dei quantificatori: il quantificatore universale $\boldsymbol{\forall}$, “tutti”, ed il quantificatore esistenziale $\boldsymbol{\exists}$, “esiste”.

Torniamo quindi al nostro enunciato: “Qualche gatto è temuto da tutti i topi”.

Se proviamo ora a tradurlo nella notazione di Frege scopriamo che non solo siamo finalmente in grado di farlo, ma che addirittura il linguaggio ideato da Frege è più espressivo e preciso del nostro! Dobbiamo infatti metterci d’accordo su cosa intendiamo con la nostra frase. Per come è scritta in italiano può avere due interpretazioni:

  • Ogni topo teme un qualche gatto:

$\forall t.(Topo(t) \implies \exists g.(Gatto(g) \land Teme(t,g)))$

  • Esiste un gatto che è temuto da tutti i topi:

$\exists g.(Gatto(g) \land \forall t.(Topo(t) \implies Teme(t,g)))$

Dove:

  • $Topo(x)$ è la funzione che restituisce $Vero$ se l’argomento $x$ è un topo
  • $Gatto(x)$ è la funzione che restituisce $Vero$ se l’argomento $x$ è un gatto
  • $Teme(x,y)$ è la funzione che restituisce $Vero$ se $x$ teme $y$

Nell’articolo su Boole avevamo accennato al fatto che la sua logica non fosse in grado di esprimere enunciati del tipo “Tutti gli $X$ sono $Y$ o $Z$”.

Proviamo ora ad esprimere una proposizione di questa forma, per esempio “Tutti i numeri sono pari o dispari”. Per il sistema di Frege non c’è nessun problema:

$\forall n.(Numero(n) \implies (Pari(n) \lor Dispari(n))).$

Ad onor del vero la notazione presentata da Frege era diversa e più scomoda dal punto di vista tipografico, quella che usiamo oggi è la notazione utilizzata nei lavori di Russell e Peano, sviluppata a partire dalle idee di Frege.

L’Ideografia e il sogno di Leibniz

La logica di Frege fu un progresso immenso rispetto alla logica di Boole.

Finalmente si aveva a disposizione un linguaggio formale in grado di abbracciare tutti i ragionamenti utilizzati normalmente dalla matematica.

Finalmente dato un insieme di premesse sarebbe stato possibile raggiungere, prima o poi, tutte le conseguenze logiche di quelle premesse, semplicemente applicando meccanicamente le regole di inferenza. Sembrava proprio finalmente realizzato il sogno di Leibniz, o quasi…

Ma come quasi? Cosa manca per sedersi a un tavolo e dire “Calcoliamo!” per decidere se un qualunque enunciato è vero o falso?

Ebbene, il problema sta proprio in quel “prima o poi”. Partendo dalle premesse e combinandole con le regole di inferenza è possibile tentare di raggiungere una determinata conclusione, ma se dopo qualche ora, qualche giorno, qualche anno non riuscissimo a raggiungerla? Forse semplicemente la conclusione desiderata non discende dalle premesse iniziali, o forse ci siamo fermati troppo presto nel cercare di raggiungerla. Non possiamo saperlo.

Questo è un problema molto profondo, alla base della teoria della calcolabilità, e degli sconcertanti risultati di Kurt Gӧdel, i teoremi di incompletezza. Ci torneremo nei prossimi articoli.

La lettera di Russell

Per Frege la logica era solo il primo passo verso il suo obiettivo finale di rifondare tutta la matematica.

Per farlo, doveva iniziare dai fondamenti dell’aritmetica, che Dedekind e Peano avevano dimostrato essere alla base di tutta la matematica. Pubblicò a tal proposito i due volumi de I Principi dell’Aritmetica in cui, sfruttando il linguaggio formale sviluppato nell’Ideografia, si proponeva di costruire, a partire da determinati assiomi, i numeri naturali e le loro proprietà.

Nel giugno del 1902, mentre il secondo volume era ancora in stampa, arriva a Frege una lettera da parte del trentenne Bertrand Russell, filosofo e matematico inglese.

Russell dice di “trovarsi completamente d’accordo su tutti i punti essenziali” ma anche che “c’è un solo punto in cui ho trovato una difficoltà” (potete trovare il testo integrale della lettera sulla pagina wikipedia dedicata a Frege).

Sfortunatamente non si trattava di una difficoltà di Russell, né di un punto non essenziale. Frege lo capì subito e si precipitò ad aggiungere al secondo volume, che era proprio in quel momento in stampa, un’appendice in cui presentava il problema esposto nella lettera, che iniziava con queste parole:

“Per uno scienziato non c’è niente di peggio che veder crollare i fondamenti del suo lavoro proprio quando questo è stato appena completato. Io sono stato messo in tale situazione da una lettera del signor Bertrand Russell”.

Diversi anni dopo, lo stesso Russell, scrisse di questo gesto di grande integrità intellettuale:

“Fu una cosa quasi sovrumana, una dimostrazione significativa di ciò di cui sono capaci gli uomini se è al lavoro creativo e alla conoscenza che si dedicano, e non all’impresa, tanto più grossolana, di emergere e farsi conoscere”.

L’antinomia di Russell

Ma perché la lettera di Russell scosse così profondamente il lavoro di Frege?

Abbiamo detto che Frege si proponeva di definire i numeri naturali in termini puramente logici, e ci riuscì partendo dalla teoria degli insiemi, sfruttando il concetto di corrispondenza biunivoca. Se sei curioso dei dettagli, l’articolo LA MATEMATICA CONTA: STORIA DEI PRIMI NUMERI presenta la costruzione dei numeri naturali di Russell, molto simile a quella di Frege.

La teoria degli insiemi poggiava su assiomi che a prima vista sembravano intuitivi e abbastanza innocui, ma uno di essi era in realtà un lupo travestito da agnello.

Si tratta del Principio di Astrazione, che essenzialmente afferma:

“Per ogni proprietà esiste l’insieme degli oggetti che soddisfano quella proprietà”.

Per esempio, data la proprietà “essere un numero primo” esiste l’insieme corrispondente dei numeri primi.

Ebbene, Russell si chiese cosa accadrebbe se costruissimo l’insieme corrispondente alla proprietà di non appartenere a se stessi. Cioè l’insieme $R=\{x | x \notin x\}$.

Se R appartenesse a se stesso, allora dovendo rispettare la proprietà che determina l’insieme, non dovrebbe appartenere a se stesso. Se invece R non appartenesse a se stesso, allora rispettando la proprietà, dovrebbe appartenere a se stesso. $R \in R \iff R \notin R$

Siamo caduti dunque in una contraddizione: un tale insieme non può esistere, mentre l’Assioma di astrazione ci garantiva la sua esistenza. (Potete trovare l’antinomia di Russell nella sua versione divulgativa: Il barbiere di Russell)

Se una dimostrazione matematica porta ad una contraddizione, significa che almeno una delle premesse da cui parte è falsa, questo è il principio alla base delle dimostrazioni per assurdo.

Ma la contraddizione esposta da Russell mostrava che erano insostenibili gli stessi assiomi su cui era fondata la costruzione di Frege.

Frege stesso commentò:

“Qui non è in causa il mio metodo di fondazione in particolare, ma la possibilità di una fondazione logica dell’aritmetica in generale.”

Si aprì così la crisi dei fondamenti della matematica, di cui vedremo gli sviluppi nei prossimi articoli.

Spazi di hilbert parte 2

Nel precedente articolo (che puoi leggere qui https://www.mathone.it/spazio-hilbert/) abbiamo introdotto il concetto di spazio di Hilbert da un punto di vista storico e abbiamo definito gli strumenti base che ci serviranno ora per fare un passo oltre, introducendo effettivamente da un punto di vista matematico cosa sia uno spazio di Hilbert.

Progettando un po’ l’articolo ho realizzato che diventerebbe troppo pesante e lungo se oltre alla definizione e alle prime proprietà andassimo a parlare di importanti teoremi in questo settore, per cui dedicheremo un’ultima puntata della “rubrica” a quei risultati.

Cos’è uno spazio vettoriale di dimensione infinita?

Nel precedente articolo abbiamo visto cos’è uno spazio vettoriale. Però ci siamo limitati a parlare del caso finito dimensionale. Tuttavia per parlare di spazi di Hilbert nella loro completezza dobbiamo lavorare su spazi a dimensione infinita.

Se non hai mai visto un corso di analisi funzionale o ragionato su questi spazi in precedenza, probabilmente ti è sorta una domanda: “Qual è l’esempio di uno spazio matematico che mi capita di usare ed abbia dimensione infinita?”.

Eccoti quindi accontentato, vediamo subito un esempio che poi prenderemo come esempio di riferimento nella costruzione di spazio di Hilbert che porteremo avanti nel corso dell’articolo.

Probabilmente hai già sentito parlare di funzioni reali ad una variabile continue giusto? Se non ti è ancora capitato per il momento ti consiglio di prendere questa definizione un po’ grossolana : “Una funzione $f:[a,b]\rightarrow\mathbb{R}$ è continua se possiamo tracciarne il grafico senza staccare la penna dal foglio, ovvero il grafico è una curva senza salti”.

Ottimo, ma cosa centrano queste funzioni con gli spazi di Hilbert? In realtà poco infatti vedremo che per arrivare a quella costruzione dovremo puntualizzare qualche proprietà, però queste sono un perfetto esempio di spazio vettoriale a dimensione infinita.

Infatti se definiamo l’operazione di composizione come $f\circ g (x):= f(g(x))$ otteniamo che lo spazio $(C^0([a,b]),\circ)$ dove $C^0([a,b]):=\{f:[a,b]\rightarrow\mathbb{R}: f \text{ è continua }\}$ è uno spazio vettoriale.

Perché ha dimensione infinita? Semplicemente perché possiamo trovare infinite funzioni continue linearmente indipendenti l’una dall’altra. Vediamo perché particolare famiglia di funzioni continue linearmente indipendenti è data dalle funzioni trigonometriche:

\[T =  \{ \cos{nx} : n\in\mathbb{N} \} \]

Questa è per esempio anche utile per definire una base dello spazio in analisi. Tuttavia siccome avendo la dimensione infinita il concetto di base è un bel po’ più complesso rispetto al caso finito-dimensionale, preferisco sorvolare su questo argomento per questo articolo. Se ti interessa approfondire cosa sia una base di uno spazio vettoriale a dimensione finita ecco un sito che ti aiuterà : https://it.wikipedia.org/wiki/Base_(algebra_lineare)

Cos’è uno spazio normato?

Prima di passare a definire gli spazi di Hilbert, partendo dalla nozione di spazio vettoriale (a dimensione finita o infinita che sia) dobbiamo definire il concetto di spazio di Banach. Per farlo ci serve una norma ben definita sul nostro spazio che in questo paragrafo chiameremo $B$.

Una norma è da pensare come una funzione che associa ad ogni elemento dello spazio $v\in B$ un numero reale e non negativo. Questo numero che andiamo ad associare può essere visto come una misura della distanza dell’elemento $v$ dall’elemento neutro dello spazio, lo $0$.

Per far sì che questa funzione $|| \cdot || : B\rightarrow \mathbb{R}^+$ definisca effettivamente una norma su $B$ è necessario chiedere che sia non degenere, ovvero che $||v||=0$ se e soltanto se $v=0$.

A questo punto possiamo definire la coppia $(B,||\cdot ||)$ uno spazio normato.

Gli spazi di Banach sono spazi normati con una proprietà ulteriore che fra poco vedremo, ma prima direi che è utile  vedere un paio di esempi di spazio normati.

Partiamo da uno semplice che di sicuro conosci, in cui andremo a lavorare su uno spazio vettoriale a dimensione finita: $\mathbb{R}^n$.

Su questo spazio Euclideo possiamo definire la norma classica che associa al punto $x=(x_1,…,x_n)$ il numero non negativo $||x|| = \sqrt{x_1^2+…+x_n^2}$. Questa funzione è non degenere infatti la norma è 0 se e soltanto se $x_1=x_2=…=x_n=0$ ovvero se $x=0$ (dove qui con 0 si intende lo zero di $\mathbb{R}^n$, il suo elemento neutro quindi, con un abuso di notazione, stiamo dicendo 0=(0,…,0) ).

Passando ora ad un esempio a dimensione infinita, possiamo definire l’importantissimo spazio di Lebesgue $\mathcal{L}^2$ come segue:

\[ \mathcal{L}^2(a,b)=\{f:[a,b]\rightarrow \mathbb{R} : \int_a^b f^2(x)dx<+\infty\}. \]

Un esempio di funzione che sta qui dentro sono le funzioni trigonometriche. Infatti si può vedere che

$\int_a^b cos^2(x)dx < b-a <+\infty$ quindi richiesta soddisfatta. Se l’intervallo $[a,b]$ è limitato, allora per esempio abbiamo anche che tutte le funzioni continue sull’intervallo appartengono a questo spazio dato che, per il teorema di Weierstrass, sugli intervalli chiusi e limitati le funzioni continue ammettono massimo $M$ e minimo $m$ per cui se $f$ è continua nell’intervallo allora si ha

\[

\int_a^b f^2(x)dx < max{m^2,M^2}(b-a)<+\infty.

\]

Per definire con $\mathcal{L}^2(a,b)$ uno spazio normato dobbiamo avere una norma, che è definibile naturalmente come \[||f||=\Big(\int_a^b f^2(x)dx\Big)^{\frac{1}{2}}.\] La coppia $(\mathcal{L}^2(a,b),||\cdot ||)$ così costruita è uno spazio normato.

Dopo vedremo che questo spazio sarà davvero interessante e ricco di sorprese

Ma veniamo ora alla definizione di spazio di Banach.

Cos’è uno spazio di Banach?

Uno spazio di Banach è uno spazio normato completo.

Abbiamo già visto cosa sia uno spazio normato, ci manca la definizione di spazio completo. Se hai visto un corso di Analisi uno saprai senz’altro che la retta dei numeri reali è completa e avrai già sentito parlare di assioma di completezza.

Se non hai mai sentito questi termini non disperare, intuitivamente la retta dei numeri reali si dice completa perché non ha buchi, ovvero presi a caso due numeri nell’insieme dei reali ne esiste sempre un terzo tra essi contenuti.

Questa però non è una definizione troppo operativa o generalizzabile agli spazi normati in generale, vediamo quindi qualcosa di più pratico:

Uno spazio di dice completo se una successione converge se e soltanto se è di Cauchy.

Non parlerò nel dettaglio di successioni di Cauchy qui perché sarebbe troppo dispersivo, mi limito quindi a caratterizzare le successioni con questo carattere con la seguente definizione:

La successione $\{x_n\}_{n\in\mathbb{N}}$ è di Cauchy se e solo se $\forall\,\varepsilon>0$ esiste un $n_0\in\mathbb{N}$ per cui $\forall n,m>n_0$ si ha $||x_n-x_m||<\varepsilon$.

Ottimo, quindi ora abbiamo visto la definizione di spazio di Banach.

Chiudiamo la sezione con un esempio di spazio di Banach per poi passare, finalmente, al concetto di spazio di Hilbert.

Grazie all’assioma di completezza di $\mathbb{R}$, estensibile naturalmente anche ad $\mathbb{R}^n$, se definiamo su questi spazi Euclidei la norma classica come visto poco più sopra, otteniamo uno spazio di Banach a dimensione finita.

Un altro esempio di spazio di Banach è sempre dato dall nostro $(\mathcal{L}^2(a,b),||\cdot||)$.

Concludiamo quindi in bellezza questo breve ma intenso excursus nell’analisi funzionale con il concetto di spazio di Hilbert che da tanto stiamo tenendo sott’occhio.

Cos’è uno spazio di Hilbert?

Uno spazio di Hilbert è uno spazio vettoriale che generalizza la nozione di spazio Euclideo. Nello spazio euclideo abbiamo uno strumento molto utile a nostra disposizione: un prodotto scalare.

Di prodotto scalare e di proiezioni ne abbiamo parlato nello scorso articolo (lo trovi qui https://www.mathone.it/spazio-hilbert/ ) quindi in questo lo suppongo noto.

L’idea è quindi di definire gli spazi di Hilbert partendo da questo concetto. Formalmente abbiamo la seguente definizione di Spazio di Hilbert:

Uno spazio di Hilbert è una coppia $(H,\langle\cdot,\cdot\rangle)$ fatta da uno spazio vettoriale $H$ e un prodotto scalare su $H$. Inoltre la norma $||v||:=\sqrt{\langle v,v\rangle}$ naturalmente indotta dal prodotto scalare, definisce uno spazio di Banach $(H,||\cdot ||)$.

Bene, questa coppia $(H, \langle\cdot,\cdot\rangle )$ è una generalizzazione dello spazio euclideo dove si possono fare le stesse belle cose tra cui calcolare prodotti, proiettare, scomporre in serie di Fourier (generalizzate) e molto altro. Chiaramente non ce ne occuperemo nel dettaglio in questo articolo ma alcune proprietà interessanti tra queste le vedremo nel prossimo ed ultimo articolo della rubrica.

Chiudiamo però recuperando l’esempio $\mathcal{L}^2(a,b)$. Su questo possiamo infatti definire un prodotto scalare come segue:

$$ \langle f,g \rangle = \int_a^b f(x)g(x)dx\quad\forall f,g\in \mathcal{L}^2(a,b). $$

Nel prossimo articolo vedremo molti risultati su questo spazio, per ora ci fermiamo così che sono convinto che abbiamo già visto un bel po’ di concetti.

DIVULGAZIONE MATEMATICA? ECCO Perché leggere I libri divulgativi

Un paio di mesi fa ho visitato il museo oceanografico a Monaco. Girando al suo interno mi sono accorto che gran parte delle cose che leggevo e vedevo non le conoscevo e proprio per questo mi è piaciuto davvero molto.

Camminando poi mi è venuto in mente che questo è esattamente lo stesso motivo per cui mi piace e trovo utile leggere libri di divulgazione riguardo ad argomenti e temi che non conosco.

Prima di elencare 3 motivi per cui ti consiglio di leggere questa tipologia di libri e di suggerirti un paio di titoli da cui partire, nel caso tu fossi in alto mare, però ci tengo a specificare che in questo periodo io non ne sto leggendo nessuno.

Non perché non li trovi utili o interessanti, ma piuttosto perché leggo molti libri tecnici/didattici per l’universitá, poi leggo articoli per trovare idee per Mathone, capirai bene che quando poi trovo il tempo di leggere preferisco staccare dalla matematica e svagarmi con altro

Comunque quando riesco a trovare periodi di pausa, magari durante l’estate, un paio riesco sempre a leggerli e ormai ne ho accumulati un bel po’ nel corso degli anni, magari potrei anche recensirne qualcuno in dei video o articoli dedicati se può interessarti.

Ma torniamo ai motivi per cui ti suggerisco di leggere libri di divulgazione:

  1. Non sono quasi mai letture pesanti, spesso all’interno ci sono delle storie, e ti permettono di vedere sotto una luce diversa ciò che magari hai già studiato a scuola o all’università.
  2. Sono utili per incuriosirsi ad argomenti sconosciuti. Se per esempio non hai mai provato a ragionare su cosa siano le dimensioni in geometria, o non hai mai studiato la geometria dello spazio, una prima lettura di Flatlandia di sicuro ti illuminerà e ti lascerà a tratti dubbioso.
  3. Riescono a rispondere a domande un po’ più profonde, che spesso quando si studia su libri tecnici si lasciano in disparte. Per esempio sono interessanti le domande: Che cos’è la matematica? Perché studiare e fare matematica? E oltre a queste ce ne sarebbero molte altre, ma ho citato loro perché voglio suggeriti due letture davvero interessanti a riguardo, che sono: Che cos’è la matematica e Apologia di un matematico.

Vedrai che questi due libri non ti deluderanno, magari parti dal secondo che è molto breve e diretto.

E ora voglio rispondere ad un’ultima domanda: ma a cosa serve incuriosirmi ad un argomento? Comunque quando finisco il libro non sapró molto su questo!

Sono d’accordissimo con te! Infatti, proprio come quando trovi qualcosa di interessante in una cittá nuova, in un museo o nei discorsi con i tuoi amici vai ad approfondire dopo il tutto su dei testi piú tecnici o siti di riferimento, anche con i libri di divulgazione é cosí!

Se trovi un argomento che ti interessa o ti appassiona grazie ad un libro di divulgazione hai fatto bingo! Peró poi sta a te proseguire con gli approfondimenti tecnici se ti interessa veramente.

A dirla tutta questo “servizio” di incuriosire a vari temi é proprio quello che provo a dare io nei video o negli articoli, non ho nessuna pretesa di spiegarti in termini didattici cosa sia un’equazione alle derivate parziali, peró posso provare a presentarti esempi, situazioni reali e suggerirti qualche strumentio per approfondire in maniera rigorosa

Ottimo, direi che ci siamo dilungati fin troppo, grazie per la lettura e alla prossima!

Intanto se vuoi leggerti un articolo in cui consiglio 50 libri di divulgazione matematica eccoti servito: https://www.mathone.it/migliori-libri-sulla-matematica/

Magari con un video o articolo in cui faccio una recensione 🙂

Cosa sono le differenze finite

In questo articolo andremo a parlare di differenze finite. Questo sarà un articolo introduttivo all’argomento.

Oltre alla descrizione del metodo vedremo un paio di esempi molto semplici scritti con Matlab, dove andremo a risolvere l’equazione di Poisson su un intervallo $I\subset\mathbb{R}$ e una sua variante.

Se vuoi vedere anche un video che ho fatto su questo argomento lo trovi sul canale Youtube 😉

Di sicuro ti è stato detto o comunque hai studiato e letto da qualche parte che è davvero piccolo l’insieme di equazioni differenziali risolvibili in maniera analitica ed esatta. Molto poche ammettono una soluzione esprimibile tramite una funzione che ha una sua espressione precisa. Descrivibile in forma chiusa.

Per questo motivo è necessario trovare un’alternativa alla procedura analitica. La procedura esatta che ci permette di arrivare ad una soluzione delle equazioni è infatti spesso limitante.

Ok, è importante saper risolvere gli esercizi in cui viene chiesto di trovare un integrale generale di un’equazione differenziale, ma questi sono appunto esercizi. Spesso le equazioni che definiscono un modello matematico, una volta che si riesce a mostrare che una soluzione esista, sono trattati in termini numerici.

Infatti tutto quello che è presente nel mondo, nella realtà, è descritto da una variazione di certe quantità, di certe proprietà mentre il tempo scorre liberamente.

Quindi come possiamo descrivere tutti questi fenomeni? Beh, intanto dobbiamo necessariamente coinvolgere delle equazioni differenziali. Quindi chiaramente non possiamo fermarci davanti al fatto che non sia possibile risolvere un’equazione di questo tipo in maniera esatta, in forma chiusa.

Se a noi interessa fare previsioni su qualche modello, su qualche fenomeno, dobbiamo trovare comunque un modo per ottenere informazioni sulla soluzione. A questo punto si aprono due strade molto interessanti:

L’analisi qualitativa (di cui magari ci occuperemo in altri articoli e puoi trovare già un esempio in questo articolo https://www.mathone.it/pendolo-semplice/) ma puoi già trovare un mio video sull’argomento qui di seguito:

e l’approssimazione numerica della soluzione, argomento di cui inizieremo ad occuparci proprio in questo articolo.

Per questa prima introduzione parleremo di equazioni differenziali ordinarie, quindi del caso in cui compaiono solo derivate ordinarie e c’è una sola variabile. Non andiamo quindi a coinvolgere le equazioni alle derivate parziali anche perché in quel caso il metodo alle differenze finite è abbastanza limitante perché non è comodo per lavorare con domini di dimensioni di forma particolari perché è necessario avere delle griglie fatte in un certo modo (spesso in quel caso si usa il metodo degli elementi finiti).

Comunque di sicuro porterò qualche esempio riguardo al metodo applicato al caso delle derivate parziali perchè permette di analizzare, senza andare troppo nel complesso, sistemi che evolvono in spazio e tempo, ampliando così di molto la classe dei modelli che potremo analizzare.

Ma torniamo alle equazioni differenziali ordinarie. Questa tipologia di equazioni solitamente ci interessa risolverle in un certo dominio. Per poterle risolvere numericamente dobbiamo imporre un’importante condizione su questo dominio: deve essere limitato.

Numericamente infatti non possiamo direttamente risolvere un’equazione differenziale su tutta la retta reale, ma dobbiamo considerarne un sottodominio compatto della forma $[0,L]$ con $L<+\infty$.

Le differenze finite si prestano molto bene a risolvere equazioni differenziali ordinarie che descrivono fenomeni stazionari, ovvero nel caso le quantità non varino nel tempo ma nello spazio. Spesso ci si riferisce ad essi come problemi al bordo (boundary value problems o BVP). Per esempio parliamo dell’equazione di Poisson $$-\frac{d^2u(x)}{dx^2}= f(x)$$ con $x\in[0,L]$ ed $f:\mathbb{R}\rightarrow \mathbb{R}$ una funzione qualsiasi, con delle opportune condizioni al bordo $u(0)=a$ e $u(L)=b$.

Chiaramente vediamo subito che serve un minimo di regolarità per la funzione $f$ per poter dire di avere una soluzione classica in questo esempio, ovvero siccome dobbiamo calcolare la derivata seconda di $u$ si può richiedere di avere $u\in\mathcal{C}^2(\mathbb{R},\mathbb{R})$ e quindi segue naturalmente $f\in\mathcal{C}^0(\mathbb{R},\mathbb{R})$. Se hai già sentito parlare di soluzioni deboli sai che in realtà si può chiedere meno regolarità per $f$ in generale, ma non preoccupiamocene per questo articolo.

Andiamo quindi ad introdurci alle tecniche approsimative che ci porteranno a definire uno schema alle differenze finite per risolvere l’equazione differenziale precedente, che possiamo per esempio complicare anche passando a questa dove comprare anche la derivata prima :$$\frac{d^2u(x)}{dx^2}+\frac{du(x)}{dx}=f(x)$$ per ogni $x\in[0,L]$ e ancora delle buone condizioni al bordo.

La prima idea che dobbiamo avere per approcciare l’approssimazione di una derivata, perché è questo che vogliamo fare, con delle strategie alternative è quello di definire una discretizzazione del nostro dominio.

Cos’è una discretizzazione? Semplicemente vogliamo dividere il nostro intervallo $[0,L]$ in intervallini sufficientemente piccoli, la cui unione restituisce esattamente l’intero dominio:

Definiamo la discretizzazione $$\tau = \{x_1=0<x_2<…<x_{N-1}<x_N=L\}$$ in modo dale che $$\cup_{i=1}^{N-1} [x_i,x_{i+1}] = [0,L].$$

Questa discretizzazione può essere fatta in maniera uniforme o non uniforme nel senso che le distanze $$\Delta x_k = x_{k+1}-x_k$$ possono essere rispettivamente tutte uguali o diverse.

Per semplicità d’ora in poi nella trattazione e anche nel codice supporremo tale discretizzazione uniforme e chiamiamo quindi $\Delta x = x_{n+1}-x_n$.

Benissimo ora siamo pronti a fare lo step fondamentale dietro l’idea delle differenze finite.

Se ti ricordi un po’ come ti è stato introdotto il concetto di derivata, ti ricorderai senz’altro che è coinvolto il limite del rapporto incrementale

Infatti la derivata di una funzione $u:\mathbb{R}\rightarrow\mathbb{R}$ è definita come il limite del rapporto incrementale, qualora esso sia finito:

$$ u'(x) = \lim_{\Delta x\to 0}\frac{u(x+\Delta x)-u(x)}{\Delta x}. $$

Allo stesso modo si può definire anche la derivata seconda:

$$ u”(x) = (u'(x))’ = \lim_{\Delta x\to 0}\frac{u'(x+\Delta x)-u'(x)}{\Delta x}.$$

Introduciamo quindi l’ultima notazione: $u(x_k) \approx u_k$, ovvero noi quello che andremo a calcolare sarà $u_k$ che è l’approssimazione numerica della soluzione esatta in $x_k$.

Ottimo, ora possiamo finalmente fornire un’approssimazione alle differenze finite di queste due derivate. Per farlo basta la semplice idea: invece di passare al limite su $\Delta x$, definiamo una discretizzazione sufficientemente raffinata del dominio $[0,L]$, ovvero tale che gli elementi $x_k$ e $x_{k+1}$ distano sufficientemente poco.

Ecco quindi una prima approssimazione della derivata

$$ u'(x_k)\approx \frac{u_{k+1}-u_k}{\Delta x}.$$

Questa è però una stima un po’ rozza infatti si può mostrare, espandendo con i polinomi di Taylor, che $$|u'(x_k)-\text{questa approssimazione}|$$ va a zero con la stessa velocità con cui ci va $\Delta x$, quindi è un’approssimazione di ordine 1:

$$ u(x_{k+1}) = u(x_k) + u'(x_k)(x_{k+1}-x_k) + o(\Delta x^2) $$

$$\frac{1}{\Delta x}(u(x_{k+1})-u(x_k)) = \frac{1}{\Delta x} (u(x_k)+u'(x_k)\Delta x + o(\Delta x^2)-u(x_k))$$

$$ = u'(x_k) + o(\Delta x).$$

Un modo per ottenere un’approssimazione più precisa, del secondo ordine, è quello di procedere con una differenza finita centrata invece che in avanti come abbiamo visto prima. Ti chiedo di provare a verificare da solo che la prossima approzione è precisa al secondo ordine 😉

$$ u'(x_k) \approx \frac{u_{k+1}-u_{k-1}}{2\Delta x}. $$

Similmente, partendo dalla differenza finita in avanti vista prima, si può ottenere un’approssimazione accurata al secondo ordine della derivata seconda come segue:

$$ u”(x_k) \approx \frac{\frac{u_{k+1}-u_k}{\Delta x} – \frac{u_k-u_{k-1}}{\Delta x}}{\Delta x} $$

$$ = \frac{u_{k+1}-2u_k+u_{k-1}}{\Delta x^2}.$$

Ottimo, direi che con la “teoria” siamo a posto. Vediamo di applicare questi risultati alle due equazioni prima introdotte. Prima però è importante rimarcare il fatto che il risultato del metodo delle differenze finite sarà un vettore che corrisponde alle approssimazioni della soluzione dell’equazione analizzata nei nodi della discretizzazione. Otterremo quindi un vettore $\vec{u}\in\mathbb{R}^N$ definito come segue:

$$ \vec{u} \approx \begin{bmatrix} u(x_1) \\ u(x_2) \\ . \\ .\\ . \\ u(x_N) \end{bmatrix} $$

e solitamente quando rappresenteremo graficamente la soluzione ottenuta si costruisce un’interpolazione lineare di tali valori, ovvero negli intervalli $(x_k,x_{k+1})$ si congiungono i punti $(x_k,u_k)$ e $(x_{k+1},u_{k+1})$ con un segmento come puoi vedere qui sotto:

Ottimo direi che la parte introduttiva può dirsi chiusa, qui di seguito oltre ai codici che ho scritto per Matlab e che puoi scaricare cliccando sul link di GitHub, ti riporto l’idea in breve dietro l’implementazione. La cosa interessante da precisare per il codice è che l’ho scritto in forma matriciale. Ho definito quindi due matrici $D1$ e $D2$ in modo tale che la loro azione sul vettore $u$ permetta di ottenere rispettivamente l’approssimazione della derivata prima e della derivata seconda. Ecco qui cosa intendo:

$$D1\, u = \begin{bmatrix}
0& 0&0& \dots &\dots \\
-1/(2\Delta x)& 0& 1/(2\Delta x)&0&\dots\\
0& -1/(2\Delta x)& 0& 1/(2\Delta x)&0\\ 0&\ddots&\ddots&\ddots&\dots\\
\dots& \dots& \dots& 0& 0
\end{bmatrix} \begin{bmatrix} u_1 \\ u_2 \\ . \\ .\\ . \\ u_N \end{bmatrix} = \begin{bmatrix} 0 \\ \frac{u_3-u_1}{2\Delta x} \\ . \\ .\\ \frac{u_N-u_{N-2}}{2\Delta x}\\ 0 \end{bmatrix} $$

$$D2\, u = \frac{1}{\Delta x^2}\begin{bmatrix}
1& 0&0& \dots &\dots&\dots&\dots \\
1& -2& 1&0&0&0&\dots\\
0& 1& -2&1&0&\dots&\dots\\ 0&\ddots&\ddots&\ddots&\dots&\dots&\dots\\
\dots& \dots&\dots&\dots& \dots& 0& 1
\end{bmatrix} \begin{bmatrix} u_1 \\ u_2 \\ . \\ .\\ . \\ u_N \end{bmatrix} = \begin{bmatrix} \frac{u_1}{\Delta x^2} \\ \frac{u_3-2u_2+u_1}{\Delta x^2} \\ . \\ .\\ \frac{u_N-2u_{N-1}+u_{N-2}}{\Delta x^2}\\ \frac{u_N}{\Delta x^2} \end{bmatrix} $$

E quindi i due problemi si ridurranno semplicemente a risolvere un sistema lineare. Il problema

$$\begin{cases}-u”(x) = 1,\quad x\in(0,1) \\ u(0)=u(1)=0\end{cases} $$

diventa quindi

$$ -D2\, u = \begin{bmatrix} 0\\ 1 \\ . \\ .\\ 1\\ 0 \end{bmatrix} .$$

Ecco quindi cosa otteniamo, dove la soluzione analitica con cui ho comparato quella numerica è la seguente parabola $$u_{\text{esatta}} (x)= -\frac{1}{2}x(1-x).$$

Invece il secondo problema

$$\begin{cases}u”(x)+u'(x) = 0,\quad x\in(0,1) \\ u(0)=0,u(1)=1\end{cases} $$

diventa quindi

$$ (D2+D1)\, u = \begin{bmatrix} 0\\ 0 \\ . \\ .\\ 0\\ \frac{1}{\Delta x^2} \end{bmatrix} .$$

Ecco quindi cosa otteniamo, dove la soluzione analitica con cui ho comparato quella numerica è la seguente $$u_{\text{esatta}} (x)= \frac{e-e^{1-x}}{e-1}.$$

Meccanica quantistica – introduzione alla matematica (Parte 2)

Bentornati in questa serie sulle basi matematiche della meccanica quantistica. Se hai letto il primo articolo sarai curioso di conoscere quale sia il formalismo che si usa (e perchè). Come promesso questa volta mettiamo le mani in pasta con la matematica!

Prima di iniziare voglio fare alcune doverose premesse. Oltre a leggere la prima parte dei questa serie di articoli, ovviamente, consiglio vivamente (anzi direi che è praticamente necessario ) di leggere la serie di articoli di Davide sugli spazi di Hilbert . La serie di articoli in questione sarà parallela alla mia e in molti sensi saranno collegate: infatti la formulazione matematica della meccanica quantistica è nata grazie alla teoria fatta per gli spazi lineari e gli spazi lineari hanno giovato molto del lavoro fatto per la meccanica quantistica (come già accennato nell’articolo da Davide), un altro dei tanti esempi della prolifica e utilissima collaborazione tra matematica e fisica. In quell’articolo sono presenti concetti fondamentali che ci aiuteranno a capire perchè e come i padri fondatori che ho citato nello scorso articolo abbiano formalizzato in questo modo la meccanica quantistica, che è il punto focale della mia serie di articoli.

Il lettore più interessato ed esperto può consultare tranquillamente come fonti quelle lasciate da Davide. Volendo, per esperienza personale, un ottimo libro (anzi un classico per dire la verità) su questi argomenti è il A. Kolmogorov: Elementi di teoria delle funzioni e di analisi funzionale.

Spazi di Hilbert

Adesso passiamo finalmente alla matematica! Come detto nella parte storica dello scorso articolo il formalismo che si usa è prettamente dovuto a Dirac-Schrödinger-Heisenberg.

La prima domanda che possiamo farci è “dove vive il nostro sistema?”, che è un modo per chiederci quale sia lo spazio da considerare. Come da titolo possiamo sfruttare gli spazi di Hilbert. La serie di articoli di Davide fa una trattazione più chiara della mia, quindi cercherò solo di mostrare alcune proprietà fondamentali (magari ripetendole) e come si collegano alla fisica. Ultima piccola digressione: In realtà la teoria matematica richiesta sugli spazi è leggermente più complicata di questa, però si può già sfruttare la matematica che esporrò di seguito per capire bene come formalizziamo la meccanica quantistica. Adesso, cominciamo!

Definizione (Spazio di Hilbert): Uno spazio vettoriale $H$ in cui è definito un prodotto scalare e che risulta essere completo (cioè in cui ogni successione di Cauchy converge) rispetto alla norma definita dal prodotto scalare si dice di Hilbert.

Effetivamente questa definizione, anche se da manuale, è troppo generale per quello che ci interessa. Molti spazi rientrano in questa definizione, tra cui gli spazi $ \mathbb{R} ^n$ e $ \mathbb{C} ^n$, la cosa interessante però è che con questa definizione di possono trovare anche spazi a dimensione infinita (quindi con una base infinita) in cui succedono molte cose “strane”. Possiamo cercare una definizione di spazio più semplice, ma che sia sempre di Hilbert, e lavorare con quella (anche se per tradizione continueremo a chiamarla spazio di Hilbert). Introduciamo alcuni concetti interessanti:

Definizione (Spazio Euclideo): Uno spazio $X$ Euclideo è uno spazio vettoriale dotato di prodotto scalare.

Adesso sfruttiamo un concetto che potete trovare in questo articolo del sito insieme alla storia e le idee di Cantor, ovvero quello della cardinalità di uno spazio. Ti invito inoltre a dare una lettura al concetto di punto di accumulazione.

Definizione (Spazio separabile): Uno spazio euclideo $X$ si dice separabile se esiste un sottospazio numerabile (cioè con la stessa cardinalità dell’insieme $\mathbb{N}$) e denso (ovvero se ogni punto del sottospazio appartiene all’insieme o ne è punto di accumulazione).

In questa parte introdurrò alcuni concetti molto avanzati, con cui forse non tutti voi avete dimestichezza. Quindi nel caso ti consiglio di leggerli ed approfondirli con il testo prima citato o eventualmente aspettare che la serie di articoli di Davide vada avanti nella teoria degli spazi di Hilbert.

Definizione (vettori ortonormali): Un insieme di vettori $\{ \alpha_i \} $ si dice ortonormale quando il prodotto scalare tra due vettori risulta essere $\alpha_i \cdot \alpha_j=0$ per $i \ j$ e $\alpha_i \cdot \alpha_i=1$.

Definizione (set ortonormale completo): Un set ortonormale $\{\alpha_i\}$ è un insieme di vettori ortonormali, esso è completo quando $\forall$ $x\in X$ la serie di Fourier di x rispetto al set converge, nella norma di H, ad x stesso.

In questo caso abbiamo appena introdotto un nuovo concetto, ovvero le serie di Fourier! Questo strumento fondamentale della matematica torna più volte utile in fisica e questo è solo uno dei tantissimi casi.

Definizione alternativa (set ortonormale completo): $\{\alpha_i\}$ è completo se è una base per lo spazio vettoriale. Essa si può dimostrare equivalente alla precendente.

Grazie a questa definizione, più comoda e facile in molti sensi, procediamo illustrando un teorema molto utile:

Teorema: Uno spazio $X$ euclideo è separabile se e solo se $\exists$ un $\{\alpha_i\}$ ortonormale, completo e numerabile.

Bene, ma perchè introdurre tutti questi concetti? Come detto prima cerchiamo una definizione di spazio di Hilbert più semplice, che usiamo poi nella nostra descrizione fisica. Si può facilmente dimostrare infatti che uno spazio $H$ euclideo che sia completo e separabile è uno spazio di Hilbert! Introduciamo ora un teorema fondamentale:

Teorema: Uno spazio di Hilbert (come definito prima) è isomorfo a $L^2$.

Non conoscete lo spazio $L^2$? Sul sito è presente un ottimo articolo sulle trasformate che ti consiglio di leggere per avere idea di cosa siano e in che spazio siano definite. Questo ci aiuto molto, poichè connette tutti gli elementi dello spazio di Hilbert fisico con funzioni a quadrato sommabile.

Senza continuare col formalismo matematico, di cui ci sarebbero infinite cose da dire in realtà, carchiamo di capire il motivo fisico. Sicuramente sarà strano per voi pensare perchè i grandi fisici abbiano deciso di usare questa matematica apparentemente astrusa per descrivere la realtà fisica, cerchiamo di fare chiarezza. Ogni sistema fisico è associato con uno spazio di Hilbert, la scelta dell’utilizzo di questi spazi è data principlamente da:

  • Linearità: la sovrapposizione di più vettori restituisce ancora un vettore dello spazio, fondamentale per spiegare fenomeni come la diffrazione e l’interferenza.
  • Completezza: fa in modo che se applichiamo un operatore (ne parleremo dopo di cosa siano) restituisce ancora uno stato, sarà utile per lavorare con le grandezza fisiche.
  • Separabilità: garantisce che un vettore ha una base ortonormale numerabile che lo definisce univocamente, servirà per proiettare i vettori rispetto a certe basi con un particolare significato fisico.

Parliamo della natura di questi “vettori”, qual è il significato che la meccanica quantistica da a questi elementi che “abitano lo spazio”?

Chiamiamo $|{\psi}> \in H$ una rappresentazione dello stato fisico del sistema, in breve “ket”. Mentre $<\psi| \in H^*$ è un elemento dello spazio duale e si chiama “bra” (qui per sapere cosa sia lo spazio duale) . Questo modo di scrivere i vettori si chiama notazione di Dirac, i nomi vengono dal fatto che in inglese la parentesi si chiama “bracket”… capito la battuta? Che simpaticone Dirac!

Definizione (funzionale lineare): Il funzionale è una funzione su uno spazio vettoriale $F:$ $H \rightarrow \mathbb{C} $ tale che $F[\psi] \in \mathbb{C} $. Esso è lineare poichè $F[x\psi+y\psi’]=xF[\psi]+yF[\psi’]$ $\forall \psi , \psi’ \in H$.

Grazie ai funzionali si può esprimere il prodotto scalare già definito nel nostro spazio come un funzionale: $F_\phi[\psi]=<\phi|\psi>$ $\forall \psi\in H$. Potreste chiedervi, giustamente, come fa un elemento dello spazio duale ad associarsi con un elemento dello spazio stesso? Ci viene in aiuto questo teorema:

Teorema (Riesz): Dato uno spazio di Hilbert $H$ allora $\forall$ $F:H \rightarrow \mathbb{C} $ lineare e continuo (dove vale una condizione simile alla continuità per funzioni) allora $\exists$ un solo $\phi_F \in H$ tale che $<\phi_F|\psi>=F[\psi]$ $\forall \psi \in H$.

Fisicamente questo prodotto scalare $<\phi|\psi>$ consiste nel proiettare uno stato “vecchio” in uno “nuovo”, così che il prodotto scalare definisce l’ampiezza di probabilità del passaggio da uno stato all’altro. La probabilità di misurare il sistema nello stato del bra (se lo stato è normalizzato con $<\psi|\psi>$) è data per definizione da $P=>{|<\phi|\psi>|}^2$… ecco a voi la famosa interpretazione probabilistica della meccanica quantistica! La linearità dello spazio (e del prodotto scalare) garantisce così la cosidetta sovrapposizione di stati, con questa si risolve il problema della doppia fenditura citato inizialmente immaginando che ogni elettrone che passi per una fenditura abbia uno stato diverso (in questo caso saranno 2) o una somma dei due. È infatti questo il modo in cui viene formalizzata la famosa idea che un osservatore cambi lo stato fisico del sistema (su cui spesso la fantascienza gioca), essa è data semplicemente dal fato che nel misurare si sta in realtà “facendo” un prodotto scalare con uno stato deciso da noi (quello della misura)!

Ultimo concetto fondamentale: Se come stato bra decidiamo di prendere una base otteniamo come risultato le cosidette funzioni d’onda. Se si usa la base delle posizioni $<r|$ otteniamo la funzione d’onda della posizione $\psi(r)=<r|\psi>$ che fornisce in modo diretto la posizione della particella. Mentre $<p|$ è la base degli impulsi e fornisce la funzione d’onda degli impulsi $\psi(r)=<r|\psi>$ che fornisce la quantità di moto. Esse sono funzioni complesse e si usano per calcolare i prodotti scalari che abbiamo definito prima come integrali, della connessione tra le due funzioni parleremo in un altro articolo.

Ottimo, adesso sappiamo un accenno di cosa siano le funzioni d’onda e gli stati. Andiamo avanti scoprendo cosa siano gli osservabili fisici e come spunti fuori la quantizzazione.

Operatori e fisica quantistica

Adesso parliamo degli operatori in fisica quantistica. Le seconda domanda che ci poniamo viene da un semplice ragionamento basato sulla prima, in un certo senso. Se lo spazio in cui “vive” la nostra fisica è H e il vettore bra $|\psi>$ rappresenta il nostro sistema fisico allora ci si chiede: “Ma le variabili come quantità di moto, energia, posizione, ecc. cosa diventano?”… la risposta è operatori!

Definizione (operatore): Si dice $\hat{A}$ operatore lineare un’ applicazione $H_1 \rightarrow H_2$ tale che $ \hat{A} |h_1>=|h_2>$ con $|h_1> \in H_1 , |h_2> \in H_2$ e per cui valgono le consizioni di linearità analoghe al prodotto scalare:

  • $( \hat{A} + \hat{B} )h= \hat{A} h+ \hat{B} h$
  • $a( \hat{A} h)= \hat{A} (ah)$ con $a \in \mathbb{R}$
  • $\hat{A} \hat{B} h= \hat{A} ( \hat{B} h)$

Questa definizione è generale ma se come spazi si scelgono quelli “fisici” dello spazio di Hilbert prima detto e quindi gli stati come vettori allora si sta cambiando stato dopo un’osservazione (data dall’applicare l’operatore), e una scrittura del tipo $<\psi| \hat{A} |\phi>$ rapprensenta un prodotto scalare dopo aver trasformato il vettore $|\phi>$. Una definizione importante è la seguente:

Definizione (operatore aggiunto): Si può scrivere un prodotto scalare $<\psi|\hat{A}|\phi>$ anche nella forma $<\hat{A ^\dagger } \psi| |\phi>$, dove $ \hat{A ^\dagger } $ si chiama operatore aggiunto. Se un operatore è uguale al suo aggiunto allora si dice operatore hermitiano.

Adesso, come per il paragrafo precedente, cerchiamo di spiegare a cosa serva tutta questa matematica appena definita. Gli operatori possono essere rappresentati come matrici sotto opportune condizioni dello spazio, quindi in quanto tali la loro applicazione ad un vettore (nel nostro caso uno stato) da luogo ad uno spettro di autovalori discreto, ovvero ad un insieme di valori discreti $\lambda \in \mathbb{C} $ per cui $\hat{A}|\psi>=\lambda|\psi>$ (cioè il l’operatore applicato al vettore torna il vettore stesso per un valore complesso). Come accennato prima ipotizzando che gli operatori (aggiungiamo ora) hermitiani siano osservabili fisici gli autovalori non sono altro che i valori che una misura di una variabile fisica torna se fatta su di un certo stato quantistico, cioè se andiamo in un laboratorio e misuriamo per esempio la quantità di moto di una particella mi aspetto che l’apparato sperimentale mi dia sullo schermo proprio quelli. Il fatto che questi autovalori siano discreti adesso ci fa capire in che senso la fisica quantistica accetta solo certi valori discreti… sono infatti proprio gli autovalori! Ed il fatto che questi $\lambda$ siano complessi non deve preoccuparci (poichè non esistono misure fisiche complesse), esiste per fortuna un teorema che garantisce che gli operatori hermitiani ammettano solo autovalori reali.

Alcuni esempi di questi concetti?:

  • Immaginiamo un atomo di idrogeno: L ‘energia si misura grazie all’operatore hamiltoniano $\hat{H}$ che applicato allo stato da come autovalori i livelli energetici $ \hat{H}|\psi>=E|\psi>$ anche detti orbitali, che molti di voi conosceranno magari dalla chimica e che giustificano tra le moltissime cose la presenza dei colori (dall’idrogeno o meno).
  • Prendendo in esempio l’effetto fotoelettrico: La creazione di un fotone viene descritta da degli operatori chiamati di creazione e annichilazione, anche se quello è il regime della Quantum Electrodynamics.
  • L’operatore posizione , come da nome, l’autovalore che rappresenta la posizione della particella. Sempre nel caso dell’atomo questa rapprensenta il cosidetto raggio dell’orbitale.

Esistono molte altri operatori diversi. L’idea è che rispetto alla fisica classica si ribalta il concetto di una variabile che descrive tutto passando ad un operatore che è un concetto totalmente diverso. Ultimo concetto importante è che se si vuole avere un valore di aspettazione per un certo osservabile, cioè il valore che ci si aspetta probabilisticamente da una misura fatta in un esperimento, in uno stato esso è per definizione: $<\psi|\hat{A}|\psi>$.

Conclusione

Questa “puntata” della serie è stata davvero complicata vero? Ho cercato di fare del mio meglio ma purtroppo certi concetti richiedono tanto studio per poter essere digeriti bene. Mi scuso quindi se non sono riuscito e rendere chiarissimo questo articolo e ti invito anzi ad approfondire meglio grazie alla serie di Davide e alle risorse fornite. Ci vediamo alla prossima e ultima puntata sulla matematica che sta alla base della meccanica quantistica parlando, anche, del principio di indeterminazione!

L’interesse: ciò che davvero ci interessa

Pandori, panettoni, regali e portafogli perseguitati: questo periodo dell’anno riempie e svuota letteralmente tutti! Dopo un primo articolo di introduzione, in questa seconda puntata della nostra rubrica finanziaria parleremo, restando in tema festività, di un qualcosa in più che si può sia dare sia ricevere, proprio come un regalo: l’Interesse. Ma perché un “regalo”?

Premessa: Questo articolo e gli altri della rubrica sono solamente a scopo informativo, col fine di suscitare ed approfondire l’interesse per questo argomento. Nè io nè gli altri collaboratori siamo investitori/traders professionisti e nessuna cosa che scriviamo ha come obiettivo spingerti ad investire i tuoi soldi. Detto questo, enjoy your reading!

Come ho brevemente accennato nella prima puntata della rubrica (che puoi trovare QUI), in un qualsiasi strumento finanziario troviamo due parti: un creditore ed un debitore. Il primo concede una somma di denaro (che chiameremo capitale iniziale) al secondo, maturando un credito verso di lui; Il debitore, ricevendo tale somma, matura un debito verso il creditore, quindi si impegna a restituire un’altra somma (che chiameremo montante) in una data futura. Capitale iniziale e montante non hanno lo stesso importo

\[C\neq M\]

Questo perché chi presta il denaro non lo fa per nulla, ma vuole un compenso, detto Interesse, che è dato dalla differenza tra C ed M

\[I=M-C\] con \[M>C\]

Analogamente il montante sarà dato dalla somma di C ed I

\[M=C+I\]

Nota Bene: Ci sono due casi particolari in cui M<C e M=C, ma ora non ci interessano, ne parleremo in una futura puntata che riguarda i Titoli di Stato.

L’interesse quindi è la somma dovuta come compenso per ottenere una somma di denaro in prestito per un certo periodo. E’ il “regalo” che un debitore da, ed il “regalo” che il creditore riceve (e che si merita per lo sforzo, dai! )

La percentuale dell’interesse su un prestito è detta Tasso di Interesse , ed indica matematicamente l’importo della remunerazione, o in parole povere il “prezzo del noleggio del denaro”.

Fonti storiche sui primi prestiti riguardano metallo e grano, in epoca sumerica. Molte religioni hanno condannato il concetto di prestito con interesse (se ne trovano tracce nell’Antico come nel Nuovo Testamento e nel Corano) a causa del rischio d’usura. L’usura è infatti la pratica consistente nel fornire prestiti ad elevati tassi di interesse, tali da rendere il rimborso praticamente impossibile, spingendo perciò il debitore ad accettare condizioni poste dal creditore (detto in questo caso usuraio, o più volgarmente strozzino) a proprio vantaggio (come l’acquisto a un prezzo particolarmente vantaggioso di un bene di proprietà del debitore, oppure spingendo il creditore a compiere atti illeciti ai danni del debitore per indurlo a pagare).

Applicazione degli interessi in casi pratici

Il tasso di interesse ha applicazione in diversi ambiti, fra cui mutui (interessi passivi), conti corrente e conti deposito (interessi attivi). In riferimento a questi due ultimi strumenti, gli interessi rappresentano la remunerazione che chi ha depositato i propri risparmi in una banca si ritrova a dover riscuotere. In questo caso infatti, è la banca che deve pagare un costo. Per il calcolo degli interessi su una somma depositata su un conto corrente o un conto deposito basterà moltiplicare il capitale per l’interesse annuo e per il numero di anni, espresso in giorni per cui dura il vincolo, il tutto da dividere per 36500.

\[\frac{C × i × t}{36500}\]

Ad esempio, se su un conto deposito vincolato all’1,5% annuo depositiamo una somma di 1000 euro per 2 anni (730 giorni), l’interesse sarà calcolabile come

\[\frac{1000 × 1,5 × 730}{36500}=30\]

30€ sarà la remunerazione per aver depositato tale somma in quella banca, che ci ha offerto un tasso dell’1,5%. I tassi di interesse variano ovviamente in base alla banca a cui si decide di affidare il proprio capitale, e per questo è molto importante valutare bene quale sia il miglior conto di risparmio confrontando online le diverse alternative.

Se volete saperne di più, QUI trovate in breve definizioni e differenze di conti deposito e conti corrente.

Di contro agli interessi attivi (quelli che ci spettano) ci sono quelli passivi (quelli che dobbiamo rendere alla banca) e quello più comune riguarda il mutuo. Ma cos’è precisamente?

Un mutuo è un prestito concesso da una banca (mutuo bancario) finalizzato principalmente alla compravendita di beni immobili (case, ville) oppure ristrutturazioni di edifici. Il creditore in questo caso prenderà il nome di mutuante e il debitore mutuatario. Il tasso d’interesse è un parametro fondamentale quando si sceglie un mutuo, in quanto influisce in maniera diretta non solo sull’importo delle rate ma anche sull’intero costo del prestito.

La formula per il calcolo degli interessi è data da tre fattori: l’ammontare del prestito, la durata del finanziamento ed il tasso d’interesse applicato. Preciso che il seguente calcolo del mutuo è estremamente elementare, ci sono altre operazioni all’interno tra le quali il piano d’ammortamento (finalizzato a calcolare rate, quote e periodi nell’intera durata del prestito) che non tratterò ora, mi limiterò solo agli interessi.

Se ad esempio il capitale prestato è di 30.000 € da rimborsare in 1 anno con un tasso d’interessi del 10%, il totale di interessi da restituire al creditore sarà di  

\[30000 × 0,10 × 1=3000\textrm{€}\]

 Se il rimborso avvenisse in 2 anni, il totale degli interessi equivarrebbe a

\[30000 × 0,10 × 2=6000\textrm{€}\]

E ancora se avvenisse in 3 anni, gli interessi ammonterebbero a

\[30000 × 0,10 × 3=9000\textrm{€}\]

e così via. Ciò vuol dire che gli interessi sono direttamente proporzionali al tempo, ovvero aumentano all’aumentare degli anni necessari per la restituzione del prestito.

Regimi Finanziari: come distinguere gli interessi

L’insieme di regole che vengono stabilite per la valutazione di operazioni finanziarie indica il regime finanziario in cui si opera. Ne distinguiamo due: regime finanziario semplice e composto.

Nel regime semplice, l’interesse è proporzionale al capitale (se raddoppio il capitale deve raddoppiare l’interesse) e al tempo (se raddoppio il tempo deve raddoppiare l’interesse), proprio come abbiamo visto fino ad ora.

L’interesse lineare o interesse semplice è interesse che si accumula linearmente: in altre parole, cresce di una certa frazione per unità di tempo.

In regime semplice, il montante di un investimento si calcola in base alla formula

\[M(t)=C\ (1+i × t)\]

Dove M(t)è il montante dopo t anni (detta anche funzione dei montanti), C è il capitale iniziale,i è il tasso d’interesse e t è il tempo in anni. La formula dell’interesse semplice è quindi

\[(1+i × t)\]

Nel regime finanziario composto le cose sono leggermente diverse.

L’interesse viene detto composto quando, invece di essere pagato o riscosso, è aggiunto al capitale iniziale che lo ha prodotto. Questo comporta che alla maturazione degli interessi il montante verrà riutilizzato come capitale iniziale per il periodo successivo, ovvero anche l’interesse produce interesse.

Nella maggior parte delle operazioni finanziarie il criterio che si applica nel calcolo degli interessi e dei montanti si basa sull’accumulo del capitale con gli interessi. Per comprendere come avviene questa operazione ecco un esempio molto semplice:

Supponiamo di aver depositato un capitale di 1000 euro in un conto corrente bancario ad un tasso del 2% annuo. Al termine del primo anno il montante a disposizione si può calcolare con la formula dell’interesse semplice:

\[M_1=1000\ \left(1+0,02 × 1\right)=\ 1020\]

Questo montante diventa il nuovo capitale iniziale sul quale la banca deve pagare gli interessi l’anno successivo; al termine del secondo anno il nuovo montante sarà quindi:

\[M_2=1020\ \left(1+0,02 × 1\right)=\ 1040,40\]

Il ragionamento si può ripetere anche per il terzo anno e al termine di questo periodo il montante che avremo a disposizione sarà:

\[M_3=1040,40\ \left(1+0,02 × 1\right)=\ 1061,208\]

In questa nuova ottica, a differenza del regime semplice, gli interessi maturano e vanno ad aggiungersi al capitale ad ogni scadenza del periodo fissato, diventando fruttiferi.

La funzione dei montanti per l’interesse composto è un esponenziale rispetto al tempo.

\[M\left(t\right)=C{(1+i)}^t\]

Dove come vediamo l’interesse composto è dato dalla formula

\[{(1+i)}^t\]

Infatti, usufruendo degli stessi dati dell’operazione usata come esempio, invece di usare la formula dei montanti per l’interesse semplice ad ogni periodo, ci basta calcolare:

\[M\left(t\right)=1000{(1+0,02)}^3\ =\ 1061,208\]

Per oggi è tutto, se avete domande riguardo l’interesse o consigli su qualche altro argomento di finanza, sotto c’è la sezione commenti. Ci vediamo al prossimo articolo, stay tuned!

George Boole: la logica diventa matematica

Nell’ultimo articolo abbiamo parlato del sogno di Leibniz: costruire una lingua dotata di regole di manipolazione grammaticale in grado di mettere in luce automaticamente le relazioni logiche esistenti tra le proposizioni.

Dopo la sua morte nel 1716, l’interesse degli intellettuali di tutta Europa si concentrò sugli altri innumerevoli apporti che Leibniz diede ai più disparati campi del sapere. Per molto tempo però, la sua idea di una Caratteristica Universale, sembrava destinata a perdersi.

A inizio ‘Ottocento, l’Inghilterra era rimasta notevolmente indietro nello sviluppo della matematica rispetto al resto d’Europa. La controversia tra Newton e Leibniz sulla priorità nell’invenzione del calcolo infinitesimale aveva portato i matematici inglesi ad un isolazionismo intellettuale che costò caro alla matematica d’oltremanica. Eppure fu proprio lì che si ebbe il più grande balzo in avanti verso il sogno di Leibniz.

Nasce l’algebra astratta

La svolta nella matematica inglese coincise con la fondazione nel 1815 a Cambridge dell’Analytical Society, di cui facevano parte tre giovani matematici: l’algebrista George Peacock, l’astronomo John Herschel e Charles Babbage, rimasto alla storia per le sue macchine calcolatrici.

La società aveva come scopo la riforma dell’insegnamento, anche attraverso l’adozione della notazione del calcolo differenziale più comoda (quella di Leibniz) usata nell’Europa continentale.

Proprio Peacock con il suo Treatise on Algebra (1830) fu tra i primi a tentare di dare all’algebra una struttura logica paragonabile a quella data alla geometria dagli Elementi di Euclide. Si inizia a sviluppare così l’algebra simbolica.

Cosa succede se definiamo delle operazioni generiche che rispettano alcune proprietà (per esempio la commutatività, associatività o distributività)? Quali proprietà possiede un insieme su cui sono definite tali operazioni? Queste sono le domande che affascinavano gli algebristi inglesi in quegli anni.

Pian piano ci si accorse che non era necessario attribuire nessun significato specifico alle lettere usate né ai simboli delle operazioni. Una volta sviluppata un’algebra simbolica con le sue regole essa può diventare la grammatica di centinaia di algebre differenti dotate di significati specifici.

A partire da queste considerazioni nacquero i quaternioni di Hamilton, la teoria dell’estensione lineare di Grassmann, le matrici di Cayley, la teoria dei gruppi, degli anelli, dei campi e tantissime altre pietre preziose dell’algebra moderna, di cui sicuramente parleremo in articoli futuri.

Tra tutte queste forme di algebra, una in particolare fu talmente rivoluzionaria da sconfinare nel campo della logica, creando effettivamente il ponte tra la logica e la matematica: l’algebra di Boole.

L’algebra di Boole

Boole trovò effettivamente un modo di aritmetizzare la logica, rendendo possibile analizzare le proposizioni logiche attraverso gli strumenti della matematica.

La logica fino a quel momento coincideva sostanzialmente con la logica aristotelica e studiava enunciati del tipo: “tutti i mammiferi sono animali”, “nessun gatto abbaia”, “alcune persone sanno nuotare”. Boole comprese che ai fini del ragionamento logico, l’aspetto significativo di parole come mammifero, gatto o persone è la classe (o collezione) di tutti gli oggetti descritti da quella parola (la classe dei mammiferi, la classe dei gatti, la classe delle persone).

Indicava quindi le classi mediante lettere, per esempio $m$ per la classe dei mammiferi.

Sull’insieme di tutte le classi definisce allora delle operazioni:

  • prodotto: date due classi $x$ e $y$, la classe $xy$ è la classe formata da tutti gli oggetti che appartengono tanto alla classe $x$ quanto alla classe $y$. In senso moderno è l’intersezione tra gli insiemi $x$ e $y$.
  • somma: date due classi $x$ e $y$, la classe $x+y$ è la classe formata da tutti gli oggetti presenti in $x$ o in $y$. Oggi è detta unione tra $x$ e $y$.

Ora che abbiamo definito delle operazioni sui nostri elementi (che sono le classi) possiamo chiederci quali proprietà soddisfino. È facile verificare che le cinque proprietà fondamentali dell’aritmetica vengono rispettate:

  • commutativa della somma: $x+y=y+x$
  • commutativa del prodotto: $xy=yx$
  • associativa della somma: $x+(y+z)=(x+y)+z$
  • associativa del prodotto: $x(yz)=(xy)z$
  • distributiva del prodotto rispetto all’addizione: $x(y+z)=xy+xz$

Non tutte le regole dell’algebra ordinaria però continuano a essere valide, per esempio:

  • $x+x=x$: l’unione tra la classe $x$ e se stessa non può che essere $x$ stessa
  • $xx=x$: l’intersezione tra la classe $x$ e se stessa è $x$ stessa

Fu proprio la seconda di queste due particolari proprietà a suggerire a Boole un’idea geniale!

L’equazione $x^2=x$ possiede, nell’algebra ordinaria, soltanto due soluzioni: $x=0$ e $x=1$.

Fu così che Boole arrivò a concepire che l’algebra della logica non è altro che l’algebra ordinaria limitata a due soli valori, 0 e 1. (Ecco che torna in gioco il sistema binario tanto caro a Leibniz)

Solo che per dare senso a questa conclusione era necessario interpretare i simboli 0 e 1 non come numeri, bensì come classi!

Vediamo in che modo: 0 nell’algebra ordinaria è l’elemento assorbente del prodotto (per ogni numero $x$, $0x=0$), mentre 1 è l’elemento neutro del prodotto ($1x=x$).

Se vogliamo mantenere le stesse proprietà nell’algebra delle classi, affinché $0x$ sia uguale a 0 per ogni classe $x$ basta interpretare 0 come la classe a cui non appartiene nessun elemento. Analogamente $1x$ sarà invece uguale a $x$ per ogni classe $x$ se interpretiamo 1 come la classe che contiene qualunque oggetto.

In termini moderni diremmo che 0 è l’insieme vuoto e 1 l’insieme universo.

Ci rimane soltanto da dare un significato all’operazione inversa della somma per poter sfruttare molte delle procedure che eseguiamo nell’algebra ordinaria. Definiamo quindi la differenza $x-y$ come la classe degli oggetti che stanno in $x$ ma non in $y$. (Osserviamo che come nell’algebra ordinaria, per la sottrazione non vale la proprietà commutativa: $x-y$ è diverso da $y-x$)

Giocando con l’equazione fondamentale $x^2=x$, scrivendola nella forma $x^2-x=0$ e raccogliendo a fattor comune, Boole ottenne l’identità $x(1-x)=0$, che espressa a parole sarebbe “l’intersezione tra $x$ e il suo complementare è l’insieme vuoto” cioè “nessun oggetto può tanto appartenere quanto non appartenere ad una classe $x$”.

Per Boole fu un risultato davvero entusiasmante: a partire dalle sue semplici regole algebriche aveva riscoperto l’importantissimo principio di non contraddizione che Aristotele descriveva come l’assioma fondamentale di tutta la filosofia “È impossibile che la stessa proprietà appartenga e non appartenga alla stessa cosa”.

La logica aristotelica

A quei tempi la logica non aveva fatto grandi passi in avanti rispetto ai risultati ottenuti da Aristotele ben due millenni prima, sembrava quasi che la logica aristotelica godesse di una certa immunità nei confronti delle imperfezioni e del progresso che invece minacciano qualsiasi altra teoria scientifica.

La logica di Aristotele si occupava di particolari deduzioni logiche, i cosiddetti sillogismi: da due proposizioni dette premesse si può dedurre, a volte, un’altra proposizione, detta conclusione.

Non tutte le proposizioni sono analizzabili dalla logica aristotelica, devono poter essere esprimibili da enunciati di una di queste quattro forme:

  • Tutti gli $X$ sono $Y$
  • Nessun $X$ è un $Y$
  • Alcuni $X$ sono $Y$
  • Alcuni $X$ non sono $Y$

Vediamo un esempio di sillogismo: Tutti gli $X$ sono $Y$, Tutti gli $Y$ sono $Z$ $\implies$ Tutti gli $X$ sono $Z$.

Dire che un sillogismo è valido significa che sostituendo alle variabili $X$, $Y$, $Z$ proprietà qualsiasi, se le premesse sono vere sarà vera anche la conclusione. Il sillogismo dell’esempio precedente è valido, vediamolo con un esempio di sostituzione:

Tutti i cani ($X$) sono mammiferi ($Y$), Tutti i mammiferi ($Y$) sono vertebrati ($Z$) $\implies$ Tutti i cani ($X$) sono vertebrati ($Z$)

Naturalmente non tutti i sillogismi sono validi, per esempio “Tutti gli $X$ sono $Y$, Tutti gli $X$ sono $Z$ $\implies$ Tutti gli $Y$ sono $Z$”.

Lewis Carroll, maestro di giochi di parole, nel suo romanzo Sylvie e Bruno scriveva che in un “sillygism” (da silly, “ridicolo”, in assonanza con syllogism) a partire da due “prim Misses” (da miss, “fallire, sbagliare”, in assonanza con premises) si deduce una “delusion” (assonanza con conclusion).

Diagramma di “The Game of Logic”

I problemi della logica appassionarono molto Carroll (Charles L. Dodgson) matematico e scrittore dell’epoca, famoso per i suoi romanzi sulle avventure di Alice nel Paese delle Meraviglie, che si divertiva molto a giocare con i sillogismi. Il suo Logica Fantastica, una raccolta di sillogismi assurdi ne è un esempio.

Scrisse perfino un libro (The Game of Logic) in cui mostrava come la logica aristotelica potesse essere trasformata in un semplice e interessante gioco, utilizzando un diagramma apposito e nove gettoni.

L’analisi della logica di Boole

Abbiamo già visto che l’algebra di Boole è in grado di esprimere il principio di non contraddizione aristotelico, vediamo ora che è in grado di esprimere qualsiasi sillogismo!

Prendiamo ad esempio “Tutti gli $X$ sono $Y$”. Significa che non c’è niente che appartiene alla classe $X$ che non appartenga alla classe $Y$. Nel linguaggio dell’algebra di Boole: $X(1-Y)=0$ o, equivalentemente, $X=XY$. Allo stesso modo “Tutti gli $Y$ sono $Z$” si può scrivere come $Y=YZ$.

Usando queste equazioni otteniamo $X=XY=X(YZ)=(XY)Z=XZ$, cioè la conclusione desiderata: “Tutti gli $X$ sono $Z$”.

Per un sillogismo non valido, per esempio “Tutti gli $X$ sono $Y$, Tutti gli $X$ sono $Z$ $\implies$ Tutti gli $Y$ sono $Z$” non c’è modo di usare le premesse $X=XY$ e $X=XZ$ per ottenere $Y=YZ$.

Algebricamente, la dimostrazione di validità di un sillogismo, è analoga all’eliminazione di una variabile da un sistema di due equazioni in tre variabili.

Non tutti i ragionamenti logici però sono di tipo sillogistico. La vera forza dell’algebra di Boole è che la sua potenza espressiva non si limita alla logica aristotelica, ma si spinge ancora oltre!

Gran parte del ragionamento ordinario si basa su quelle che Boole chiamava proposizioni secondarie, cioè proposizioni che esprimono relazioni fra altre proposizioni.

Si accorse che la stessa algebra che funzionava per le classi avrebbe funzionato anche per studiare proposizioni di questo tipo. Per dire che una proposizione $X$ è vera basta porre a sistema l’equazione $X=1$, analogamente, se $X$ è falsa, poniamo $X=0$. Se due proposizioni $X$ e $Y$ sono entrambe vere scriveremo $XY=1$.

Ma più importante di tutte è l’asserzione “Se $X$, allora $Y$” che può essere rappresentata dall’equazione $X(1-Y)=0$.

Vediamo perché: “Se $X$ allora $Y$” significa, nella nostra notazione, “Se $X=1$ allora $Y=1$”. Se nell’equazione $X(1-Y)=0$ sostituiamo la nostra premessa ($X=1$) otteniamo $1(1-Y)=0$, che è verificata se e solo se $1-Y=0$, cioè quando $Y=1$.

Boole e il sogno di Leibniz

La potenza espressiva del sistema logico di Boole andava molto più in là di quello di Aristotele, ciò nonostante, rimaneva decisamente al di qua di ciò che sarebbe stato necessario per realizzare il sogno di Leibniz.

Per esempio la logica di Boole non è in grado di manipolare con sufficiente espressività enunciati del tipo “Tutti gli $X$ sono $Y$ o Z”, non permettendo alcun ragionamento che possa distinguere la classe $Y$ dalla classe Z. Nel prossimo articolo vedremo come Gottlob Frege riuscì a sviluppare un sistema logico in grado di esprimere anche questi ragionamenti più sottili.

Effettivamente però l’algebra di Boole è il primo esempio di linguaggio che permette di stabilire, per mezzo di calcoli simbolici, quali suoi enunciati sono veri e quali falsi, nel pieno spirito del calculus ratiocinator del sogno di Leibniz.

La grande conquista di George Boole fu quella di dimostrare definitivamente che la logica poteva essere trattata come un ramo della matematica, dando origine alla logica matematica.

Ma l’algebra di Boole è molto di più! Abbiamo visto come l’1 e lo 0 possono rappresentare il vero e il falso, ma allora se rappresentiamo l’1 e lo 0 con, ad esempio, il passaggio o meno di corrente in un cavo elettrico, utilizzando esattamente le stesse leggi logiche e matematiche del sistema di Boole possiamo costruire la teoria dei circuiti elettrici. Questo permette di ridurre non soltanto la logica, ma anche l’elettronica, al linguaggio della matematica, permettendo di sviluppare, circa un secolo più tardi, i primi calcolatori elettronici.

Dopo di Boole queste discipline hanno avuto uno sviluppo ininterrotto fino ai giorni nostri, a cui daremo un’occhiata nei prossimi articoli.

Per approfondire

Quella presentata in questo articolo è una trattazione storica e divulgativa: oggi il concetto di algebra booleana è stato formalizzato con tutto il rigore che la matematica richiede.

Formalmente si dice Algebra di Boole un qualunque reticolo distributivo complementato $< K, \cdot, +, \neg >$

In parole povere è un insieme $K$, detto supporto, (ad esempio $K= \{0,1\} $) dotato di tre operazioni (il prodotto logico $\cdot$, la somma logica $+$ e la complementazione (o negazione) $\neg$) che rispettano determinate proprietà.

A chi volesse saperne di più consiglio la pagina su Wikipedia Algebra di Boole, molto approfondita, o la serie di video a riguardo di YouSciences Academy: Algebra di Boole e funzioni booleane

Per approfondimenti riguardo la biografia di Boole, e tutto lo sviluppo della logica fino ai primi calcolatori elettronici, consiglio ancora una volta il libro Il calcolatore universale di Martin Davis.