Probabilità è il termine matematico che fa riferimento all’eventualità che qualcosa accada o non accada, come, per esempio, pescare un asso da un mazzo di carte o prendere una caramella rossa da una confezione con colori assortiti.
La probabilità è un aspetto che influenza ogni giorno della vita delle persone, quando vengono prese decisioni che non si sa quali conseguenze porteranno con sé. Per esempio, utilizziamo la probabilità quotidianamente per prevedere il meteo. I meteorologi non possono predire con totale esattezza che tempo ci sarà, utilizzano strumenti ad hoc per determinare quali siano le probabilità che piova, nevichi o grandini. Se la possibilità di pioggia è data al 60%, significa che su 100 giorni con condizioni meteorologiche simili, in 60 ha effettivamente piovuto. E ognuno di noi, nel suo piccolo, deve decidere se uscire con un ombrello oppure no.
La probabilità permea anche le strategie sportive: un allenatore di baseball, per esempio, valuta la media in battuta di ciascun giocatore prima di farlo mettere in fila. Quando si pensa alle strategie e alla probabilità, però, l’esempio più calzante nonché il primo a venire in mente è sicuramente il poker.
La matematica e la probabilità nel poker
Spesso per descrivere la probabilità si usa l’esempio del lancio di una moneta: ci sono due possibili risultati – testa o croce. E la probabilità in entrambi i casi è del 50%. Quando si ragiona con un mazzo di carte, però, il numero dei risultati possibili cresce notevolmente. Ogni mazzo di carte da poker, nello specifico, ha 52 carte divise per 4 semi diversi (cuori, picche, quadri e fiori) e organizzate in una scala di 13 valori (i numeri da 1 a 10 e Jack, Regina e Re): questo significa che le probabilità di pescare un asso come prima carta sono 1 su 13 (7,7%), mentre quelle di pescare una qualsiasi carta di picche sono di 1 su 4 (25%).
A differenza delle monete, poi, si potrebbe dire che le carte da poker hanno una memoria: mentre le probabilità di ottenere testa o croce dopo aver lanciato una monetina rimangono sempre del 50% e 50%, dopoché si pesca un asso da un mazzo, le probabilità di pescare un altro subito dopo non rimangono fisse al 7,7% come quando nessuna carta era ancora stata presa. Questo perché dopo aver pescato un asso, ne rimangono solamente 3 nel mazzo, il che abbassa le probabilità di prenderne un altro al 5,9% (3 su 51).
Quello dell’asso è un semplice esempio per comprendere quanto la probabilità influenzi le partite di poker. La probabilità è una variante che fluttua parecchio, pertanto i giocatori non possono affidarsi solamente alla fortuna: i campioni sanno che usare la matematica per vincere ai tavoli di poker è un aspetto importante, a cui vanno però imprescindibilmente associate le abilità, le conoscenze, la disciplina e la pazienza – i veri segreti del successo. Capire come funziona la probabilità e, soprattutto, imparare a calcolarla, tuttavia, è fondamentale per poter prendere le decisioni migliori durante ogni mano: avere una solida base matematica di calcolo della probabilità, infatti, aiuta ad aggiustare il tiro delle strategie e delle tattiche di gioco, e a dare ragionevoli aspettative sui possibili risultati.
Quindi, nel concreto, qual è un esempio di probabilità nel poker? La mano migliore in assoluto è il Royal Flush (scala reale massima), che è composta da 10, Jack, Regina, Re e Asso. Ci sono solo 4 vie per ottenere questa mano, pertanto le probabilità che capiti sono di 4÷2.598.960, cioè 0,000001539.
La probabilità per analizzare le polizze assicurative per le auto
Qual è il piano assicurativo migliore per ogni famiglia? Il calcolo della probabilità aiuta nella decisione, poiché è opportuno considerare quali siano le probabilità, appunto, che si compili una constatazione amichevole. Se, per esempio, 12 automobilisti su 100 (quindi il 12%) nella zona hanno investito un cinghiale, ha più senso considerare di stipulare una polizza Kasko piuttosto che una Bonus/Malus.
Da come decidiamo di vestirci ogni giorno a come passiamo il tempo divertendoci con i nostri hobby preferiti, fino a come tuteliamo noi stessi e la nostra vettura, la probabilità gioca un ruolo fondamentale e rappresenta un aiuto importante per prevedere i possibili risultati e fare la scelta migliore.
Bentornati con l’ultimo articolo di questa rubrica sulle basi matematiche della meccanica quantistica. Dopo aver dato un’introduzione storica e concettuale e aver dato le basi matematiche in questa parte ci occupiamo di due aspetti importanti collegati ai concetti introdotti la scorsa volta: l’evoluzione temporale di un sistema e il principio di indeterminazione!
Evoluzione temporale di un sistema
Nella scorsa puntata abbiamo scoperto esattamente a cosa corrispondevano i concetti classici di sistema fisico e di osservabile. Adesso bisogna chiedersi come fanno a variare nel tempo i sistemi fisici, visto che il nostro universo va avanti nel tempo! Questa strada ci porterà alla famigerata equazione di Schrödinger.
Cercando di portare un ragionamento euristico passiamo per la meccanica classica (che puoi approfondire con i consigli di questo articolo). Infatti nella meccanica classica un modo per trattare i sistemi è quello di impostare una funzione, chiamata hamiltoniana, che descrive le interazioni del nostro sistema e si può dimostrare essere equivalente all’energia del sistema stesso. Ma che senso ha creare questa funzione vi chiederete? Bene grazie a questa funzione si possono impostare delle equazioni (dette di Hamilton) che legano le derivate temporali delle variabili fisiche del sistema (posizione e momento) alle derivate dell’hamiltoniana. In questo modo studiare l’evoluzione temporare diventa “facile” (anche se questo termine non sarà approvato da qualunque studente di meccanica analitica).
Ma questo discorso come ci aiuta a capire la teoria quantistica? Come abbiamo imparato nello scorso articolo per passare ad un “mondo quantistico” ci basta solo considerare uno spazio di Hilbert e cambiare le nostre variabili (osservabili) con operatori giusto? Bene! L’hamiltoniana ha come variabili proprio queste quantità, ci basta quindi banalmente far diventare le nostre variabili continue operatori facendo di conseguenza diventare la nostra hamiltioniana un operatore e il gioco è fatto. In generale per un sistema fisico un hamiltoniana ha quasi sempre questa forma $H=\frac{p^2}{2m}+V(r)$, il primo pezzo è il termine cinetico (cioè di movimento) mentre $V(r)$ contiene i termini di interazione (ad esempio gravitazionale o elettromagnetica).
A questo punto torna la domanda dell’inizio: Come si evolvono nel tempo queste quantità? Se classicamente la risposta erano le equazioni di Hamilton in questo caso invece è l’equazione di Schrödinger !
Ovviamente la trattazione matematica è molto più formale di così e quest’equazione può essere ricavata da altre ipotesi e non presa come principio primo. Però il senso fisico che sta dietro a questa matematica è il seguente: L’evoulzione nel tempo del nostro stato, data dalla derivata, è collegata a come l’hamiltoniana agisce sullo stato stesso… intuzione non banale direi!
Le applicazioni di questa equazione sono infinite e non basterebbe un libro per elencarle tutte, spero almeno di avervi dato un’idea di come funzioni uno dei pilastri della meccanica quantistica. Passiamo ora all’ultimo e interessantissimo argomento.
Principio di indeterminazione
Eh si, non può mancare una trattazione della meccanica quantistica senza parlare di questo strano fenomeno. Per cercare di capirlo abbiamo accennato negli scorsi articoli al fatto che uno stato ha diverse probabilità di tornare certi autovalori quando viene misurato rispetto a un osservabile (operatore) $\hat{O}$, immaginiamo ora di avere 2 operatori $ \hat{A}$ e $\hat{B}$ e definiamo un’operazione chiamata commutatore:
Matematicamente si può dimostrare che se due osservabili non commutano, ovvero l’operazione definita prima non torna zero, allora il loro agire sullo stesso stato non sarà sulla stessa base di autostati (collegata agli autovalori di cui vi parlavo la scorsa volta). Allora che si fa? Semplice si cambia base!
Ma non dobbiamo dimenticarci che lo spazio in cui siamo è comunque di tipo $L^2$ allora come si comporta il cambio di base?… con una trasformata di Fourier!
Per vedere questo basta ricordare quando vi parlai della funzione d’onda $\psi(r)=<r|\psi>$, come base prendemmo le posizioni $|r>$ ma nessuno ci vieta di poterle cambiare con la base di autostati di qualche altro osservatore, come ad esempio $\hat{P}$. Si può dimostrare che il collegamente tra le due funzioni d’onda $\psi(r)$ e $\phi(p)$ è proprio la trasformata di Fourier, confermando quanto prima detto.
Questo ha applicazioni molto interessanti, in quanto come prima detto gli operatori $\hat{R} posizione e $\hat{P}$ l’impulso non commutano portando a questo formalismo.
Questo ci tuffa direttamente nel principio di indeterminazione in quanto le funzioni d’onda, essendo per l’appunto fenomeni ondulatori, hanno una certa indeterminazione intrinseca che è pari a:
$\sigma_A=\sqrt{<\hat{A}^2>-<\hat{A}>^2}$
E se due operatori che non commutano si trovano in gioco nello stesso momento come facciamo, ora che sappiamo che sono collegati da una trasformata di Fourier, a sapere come sono correlate tra di loro?
Esiste la dimostrazione ovviamente, lascerò la fonte ai lettori interessati ma la trovate anche su siti più comuni, l’importante è però sapere che il risultato di questo è il cosidetto principio di indeterminazione di Heisenberg:
$\sigma_A \sigma_B=\frac{|{<\hat{C}>}|}{2}$
Che nel caso di posizione e impulso, il cui commutatore è $[\hat{R},\hat{P}]=i\hbar $, ci da il più conosciuto $ \sigma_R \sigma_P=\frac{\hbar}{2} $
Vi lascio anche un video interessante sull’argomento sperando che vi aiuti meglio a capirlo meglio con la visualizzazione.
Conclusione
Con quest’ultimo articolo la mia serie sulla matematica della meccanica quantistica è finita. È stato un percorso lungo ma spero non complicato per voi da comprendere, anche se riconosco le mia scarse abilità di comunicatore. Quello che però spero sia stato chiaro e che voleva essere il mio obiettivo era far vedere come la matematica sia importantissima nelle scienze fisiche, facendolo con la scusa di parlare un po’ di meccanica quantistica. L’approccio divulgativo e filosofico a questa materia è importante e bello, ma non si può pensare di prescindere dalla matematica come sua parte fondamentale.
Per il resto le fonti per approfondire penso di averle messe un po’ tutte e mi auguro che andiate avanti con lo studio e la scoperta di questa bellissima branca della fisica, alla prossima!
“Numeri immaginari”. La prima volta che sentii questa parola nell’aula del mio liceo, durante l’ora di matematica, storsi un po’ il naso. Adesso va bene tutto, bella la matematica eh, ma pure studiare quella immaginaria mi sembra un po’ un’esagerazione, pensai tra me e me. Poi, però, approfondendo maggiormente, si scopre che di immaginario hanno ben poco, anzi: sono un’arma, e bella potente. Proseguendo negli studi scoprii che questi simpaticoni spuntano fuori quando meno te lo aspetti e ti permettono di risolvere problemi a prima vista impossibili. Ma andiamo con ordine.
Un po’ di storia
Facciamo un piccolo salto indietro, circa al 1500, ma restiamo in Italia. Tra i matematici c’era una simpatica usanza molto diffusa: 2 contendenti si sfidavano a una gara matematica, e il vincitore acquisiva fama, gloria, ed era un ottimo modo per mettersi in mostra con i potenti nobili di allora. La sfida era così costituita: ognuno doveva stilare 30 problemi matematici che era in grado di risolvere, consegnarli all’avversario e questo aveva un po’ di giorni per risolverne il più possibile. Poi, dopo una certa data, i due si ritrovavano davanti alla folla per decretare il vincitore. Potete considerarlo come un analogo delle battaglie freestyle tra rapper, solo che molto più nerd. A Bologna, questa era la piazza dove si ritrovavano, davanti alla Basilica di Santa Maria dei Servi.
Immaginatevi due matematici battagliare qui davanti alla folla
Questa usanza ebbe conseguenze curiose e forse un po’ negative. Appena un matematico faceva un’importante scoperta, invece che diffonderla, se la teneva tutta per sè. Quando poi sfidava un altro matematico, gli dava 30 problemi tutti su quell’argomento, e di solito vinceva a mani basse. Per questo motivo risalire al primo scopritore di determinate soluzioni è un po’ difficile, ma ci si prova. Questo è quello che accadde per la formula generale delle equazioni di terzo grado.
La formula per le equazioni di terzo grado
I babilonesi e i greci sapevano risolvere alcuni casi particolari, ma una formula generale era ancora sconosciuta. Il primo a scoprire una formula fu Scipione del Ferro, ma, per motivi che ormai sapete, non divulgò mai. Solo in punto di morte decise di svelare qualcosa al suo migliore studente, Antonio Maria del Fiore, obbligandolo a non rivelare nulla. Successivamente anche Niccolò Fontana, detto Tartaglia per la sua balbuzie, scoprì la stessa formula, e diventato famoso per le numerose gare matematiche vinte, fu invitato da Gerolamo Cardano e Lodovico Ferrari a Milano, e rivelò loro le sue scoperte, con la promessa di non rivelarle a nessuno.
Gerolamo Cardano
Tartaglia così descrisse a Cardano la formula scoperta, vediamo se anche voi riuscite a risolvere l’indovinello.
«Quando che’l cubo con le cose appresso Se agguaglia à qualche numero discreto Trovan dui altri differenti in esso.
Dapoi terrai questo per consueto Che’llor produtto sempre sia eguale Al terzo cubo delle cose neto,
El residuo poi suo generale Delli lor lati cubi ben sottratti Varra la tua cosa principale.»
Cardano in seguito venne a sapere dei risultato già ottenuti da Scipione del Ferro, e scoprì che erano gli stessi. Decise allora di infrangere la sua promessa e di pubblicarla, con il nome di Formula di Cardano, la quale permette di risolvere qualsiasi equazione di terzo grado, o quasi. Mai si sarebbe aspettato che questa formula avrebbe fatto sorgere problemi ben peggiori di quelli che risolveva. Per farvi capire, vi mostro qui di seguito il procedimento.
Come risolvere le equazioni di terzo grado
Partendo da una generica equazione di terzo grado, $ a x^3+bx^2+cx+d=0 $ , dovete applicare la sostituzione $x=y-\frac{b}{3a} $ così da eliminare il termine $x^2$ e ottenere un’equazione nella forma $y^3+py+q=0$ e adesso dovreste applicare questa facile facile formula:
“La bellezza è un requisito fondamentale: al mondo non c’è un posto perenne per la matematica brutta”
(Godfrey Harold Hardy)
Sarà bella questa formula? Ai posteri l’ardua sentenza. Quello che invece voglio farvi notare sono le due radici quadrate presenti nella formula. Dovreste sapere bene che un’equazione di terzo grado ha SEMPRE almeno una soluzione, e questo lo sapevano bene già i matematici ai tempi di Cardano. Però loro sapevano anche che una radice quadrata negativa non ha soluzioni, e qui nasce il problema. Partendo dal presupposto che almeno una soluzione doveva per forza esserci, per alcuni valori non riuscivano a trovarlo comunque: $\sqrt{ \frac{q^2}{4} + \frac{p^3}{27}}$ era irrisolvibile. Come trattare le radici negative? Per il momento si decise di utilizzare il termine “caso irriducibile” e arrendersi davanti alla potenza dell’ignoranza.
I “numeri silvestri”
Poi, arrivò una bella intuizione da parte di Raffaele Bombelli, matematico bolognese. La sua idea era molto semplice: “ok, le radici quadrate negative non sappiamo calcolarle…. non possiamo semplicemente ignorare il problema e andare avanti lo stesso?” decise allora di definirle “quantità silvestri” e procedette con lo studiarne le proprietà. Per Bombelli erano “quantità silvestri”, per Leibniz erano “mostri di un mondo ideale” e per Eulero erano “numeri che per la loro natura sono impossibili, che esistono solo nella nostra immaginazione”. Potete immaginare quanto abbiano scombussolato il mondo matematico. Cartesio fu il primo a dargli il nome che conosciamo, numeri immaginari.
Personalmente mi trovo un po’ in disaccordo su queste definizioni. Definire “immaginario” un campo della matematica sembra voler fare intendere che sia un qualcosa di inventato dall’uomo, che esiste solo nella sua immaginazione, quasi come se fosse falso. La parola “inventato” non deve mai essere usata in matematica. La matematica viene scoperta, non inventata.
Le leggi della matematica non sono semplici invenzioni o creazioni umane. Esse semplicemente “sono”; esistono abbastanza indipendentemente dall’intelletto umano. Il meglio che chiunque possa fare è di scoprire che queste esistono e di prenderne conoscenza.
(Maurits Cornelis Escher )
La più bella equazione della matematica
Dopo aver fatto un po’ di storia, ci terrei anche a fare un po’ di matematica. Se non avete la più pallida idea di cosa siano i numeri immaginari e di come usarli nei calcoli e vorreste una spiegazione chiara e rigorosa, vi consiglio di leggere questo articolo prima di andare avanti: https://www.mathone.it/numeri-complessi/
In questo articolo vorrei dimostrarvi come i numeri immaginari saltano fuori dove meno ve lo aspettereste. Vi ricordate quando a scuola facevate le prime funzioni, seno, coseno, logaritmo , arcocoseno e vi facevano mettere le condizioni di esistenza? Vi siete mai chiesti quali pericoli vi aspettano in quelle lande desolate al di fuori delle C.E? volete sapere quanto vale $\log{(-1)}$ o per quali valori $\cos{(x)} = 3$? Sarà che ho sempre avuto un’indole avventuriera e ho sempre odiato avere vincoli, ma io le condizioni di esistenza non le ho mai sopportate. O forse sono semplicemente pazzo, spiegherebbe molte cose. Ho sempre desiderato avventurarmi in quel regno desolato, e a fornirmi la mappa ci pensò proprio Eulero.
La più bella equazione esistente in matematica, la mappa che unisce regno reale e immaginario
Credo che anche a prima vista riuscite a capire perchè è considerata l’equazione più bella di tutta la matematica. $e$ è il numero di Nepero, $\pi$ è il rapporto tra circonferenza e diametro e $i$ è un numero immaginario dotato della proprietà tale che $i^2 = -1$. Gli altri due numeri spero li conosciate.
La formula di Eulero
Adesso, dimostrarvela interamente potrebbe essere un po’ impegnativo, magari in un prossimo articolo. Per il momento mi piacerebbe darvi una prova del fatto che sia vera, ma nel caso vogliate dimostrarla voi stessi, vi darò qualche piccolo indizio. Vi serve sapere solo gli sviluppi in serie di Taylor. Se non ne avete mai sentito parlare, vi basta sapere che è un modo per trasformare funzioni complicate in semplici polinomi di lunghezza infinita. Ecco gli esempi che mi servono, se non gli avete mai visti, potete provare a disegnarli su una qualsiasi app e vedrete che sono perfettamente valide.
$e^x = 1 + x + \frac{x^2}{2!} + \frac{x^3}{3!} + \frac{x^4}{4!} + \frac{x^5}{5!} + \frac{x^6}{6!} + \frac{x^7}{7!} $ …… e così via
$cos(x) = 1 – \frac{x^2}{2!} + \frac{x^4}{4!} – \frac{x^6}{6!} +$ …… e così via
$sin(x) = x – \frac{x^3}{3!} + \frac{x^5}{5!} – \frac{x^7}{7!} +$ ….. e così via
Notate una leggera somiglianza uno dall’altro? Sono praticamente uguali, cambia solo un po’ il segno. E qui arrivano in aiuto i numeri immaginari, e vi permettono di risolvete tutto. Sostituite $e^x$ con $e^{ix}$ e $\sin{x}$ con $i\sin{x}$ e il gioco è fatto. La prima riga è esattamente uguale alla somma delle altre due. Usiamo $z$ al posto della $x$ perchè mi piace di più e otteniamo:
A questo punto, vi basta sostituire $z=\pi$ e riotterrete la formula vista prima.
Logaritmi negativi
Ora che abbiamo tutto quello che ci serve, iniziamo ad avventurarci nella desolata landa fuori dalle C.E. Partirei dal logaritmo naturale, molto semplice. Sapete bene che quando studiate $\log{x}$ dovete sempre porre $x>0$ ma per quale motivo? Cosa succede quando $x$ assume valori negativi? E’ presto detto. Considerate la prima formula, $e^{i\pi} +1 =0$ spostate il $+1$ a destra ed eseguiamo il logaritmo da entrambe le parti dell’uguale, per ottenere $\log{(e^{i\pi})} = \log{(-1)}$ .
Applicando le formule dei logaritmi troviamo che $i\pi\log{(e)} = \log{(-1)}$ e quindi che $\log{(-1)} = i\pi$.
Ora ci basta ricordare la formula del prodotto, $\log{(ab)} = \log{(a)} + \log{(b)}$ e possiamo generalizzare per qualsiasi numero negativo. infatti, $\log{(-n)} = \log{(n)} + \log{(-1)}$ ovvero che $\log{(-n)} = \log{(n)} + i\pi$ .
Il valore di un logaritmo negativo è esattamente quello che ha per valori positivi, più $i\pi$
Se quindi volessimo disegnare il grafico di $\log{(-n)}$ dovremmo semplicemente specchiare quello di $\log{(n)}$ e traslarlo nel piano immaginario di un vettore lungo esattamente $\pi$. Fermatevi un attimo a cercare di visualizzare questa cosa. Non pensate sia un risultato incredibile? La parte immaginaria di un logaritmo in base $e$ di un qualsiasi numero negativo è sempre esattamente $\pi$.
Seni e Coseni
Un’altra delle funzioni che avevano un dominio abbastanza ristretto erano l’arcoseno e l’arcocoseno, con $x$ compreso tra -1 e 1. Perchè? Cosa succede se usiamo altri valori? Considerando che queste funzioni sono esattamente l’inversa di seno e coseno, la domanda equivale a chiedersi se esistono valori di $x$ per i quali $sin(x)>1$ o $cos(x)>1$
Per rispondere, ci serve la formula più generale di Eulero, $e^{xi}=cos(x) + i*sin(x)$ effettuare prima la sostituzione $x=n*i$ dove $n$ stà ad indicare un generico multiplo. Facciamo poi qualche passaggio algebrico, ricordando che $cos(-x)=cos(x)$ e che $sin(-x)=-sin(x)$
Ecco quello che otteniamo:
$e^{n(i)(i)}=cos(in) + isin(in)$
$e^{-n}=cos(in) + isin(in)$
E in seguito ripetere sostituendo invece $x=-i\cdot n$ per ottenere:
$e^{-n(i)(i)}=cos(-in) + isin(-in)$
$e^{n}=cos(in) – isin(in)$
Mettiamo ora la seconda e la quarta assieme per ottenere:
Sommando e sottraendo le due righe, ottenete un espressione per calcolare seni e coseni immaginari:
$cos(in) = \frac{e^n + e^{-n}}{2}$
$sin(in) = \frac{e^n-e^{-n}}{2}i$
Ci terrei giusto a farvi notare la bellezza di quello che abbiamo appena calcolato. Per prima cosa, il seno di un numero immaginario è un numero immaginario. E fin qui non sembra nulla di troppo strano. Invece, il coseno di un qualsiasi numero immaginario è un numero Reale. Vi sareste mai aspettati prima di iniziare a leggere questo articolo che $cos(i)=\frac{e+\frac{1}{e}}{2}$?
Ora lascio a voi il compito, se l’argomento vi interessa, di approfondire. Il campo della matematica coi numeri complessi è enorme e affascinante. Pensate che qualsiasi argomento abbiate studiato nel campo Reale, può essere studiato anche in campo immaginario e complesso, e le applicazioni sono innumerevoli e utilissime.
Esiste qualcosa di più complesso dei numeri complessi?
Pensate che non ci sia altro dopo i numeri complessi? Sbagliatissimo. Così come ci sono i numeri Reali, e ci sono i numeri complessi (che possiamo chiamare bidimensionali) esistono poi i Quaternioni, numeri quadri-dimesionali, scrivibili nella forma $a+bi+cj+dk$ con $a, b, c, d$ numeri reali e $i, j, k$ che sono analoghi alla $i$ dei numeri complessi. Esistono poi gli Ottetti i Sedenioni, e chi più ne ha più ne metta, seguendo gli esponenti di $2^n$.
E così come esiste l’analisi in campo reale, esiste l’analisi complessa e l’analisi ipercomplessa, che non ho mai avuto il piacere di provare ma non faccio fatica a credere sia davvero un macello. L’unica cosa davvero interessante che so dirvi è che ogni gradino che saliamo verso la complessità, la difficoltà aumenta a livelli imbarazzanti. Non solo il numero di costanti complesse aumenta di un fattore 2^n ogni volta, ma anche perdete ogni volta una proprietà.
Nei numeri Reali, avete numeri del tipo $a$ e valgono tutte le proprietà che conoscete.
Nel numeri complessi, avete numeri del tipo $a + bi$ e perdete la relazione d’ordine.
Nei quaternioni, avete numeri del tipo $a+bi+cj+dk$ e perdete anche la proprietà commutativa
Negli ottetti, avete numeri del tipo $a+bi+cj+dk+el+fm+gn+ho$ e perdete anche la proprietà associativa
Mi fermo qui, perchè direi di avervi già terrorizzato abbastanza. Potrei magari in un prossimo articolo parlarvi dei quaternioni, numeri che hanno applicazioni gigantesche e sono usati dappertutto. Pensate che i vostri telefoni li usano costantemente per capire la loro posizione e angolazione nello spazio.
Approfondimenti
Se volete approfondire bene l’argomento, sinceramente non potrei fare altro che consigliarvi di prendere libri universitari di analisi matematica. E’ un argomento così vasto, che cibarsi di bricioline non ne renderebbe sicuramente il sapore originario. Se volete giusto affacciarvi a questo argomento per cercare di capirci meglio, vi lascio sotto dei video molto interessanti che io stesso ho guardato per imparare a naufragare dolcemente in questo mare.
Cos’è un sistema integrabile? Ci sono esempi semplici di sistemi integrabili? In questo articolo cercheremo di capire il concetto di integrabilità di un sistema dinamico, partendo da degli esempi e derivando quindi qualche risultato più generale.
Introduzione al concetto di integrabilità
In un vecchio articolo sul sito abbiamo parlato di cosa sia un integrale primo ed un sistema dinamico (se vuoi lo trovi qui https://www.mathone.it/integrale-primo/ ), oggi invece andremo a scoprire quando un sistema sia integrabile.
Cosa si può intuire dal termine “integrabile”? Supponiamo di partire da una semplice equazione differenziale : $x'(t) = 6x(t)$. Secondo te questa è integrabile?
Beh, intuitivamente sì, nel senso che possiamo integrarla, ovvero possiamo calcolarne la soluzione in forma chiusa. Infatti la funzione $x(t) = x(0)e^{6t}$ risolve l’equazione, per cui siamo riusciti ad integrare l’equazione.
Bene, questo era un esempio semplice potresti dire, ma come possiamo capire se un sistema più complicato sia o meno integrabile? Cosa vuol dire che esso è integrabile?
Intanto definiamo più rigorosamente un generico sistema dinamico, seguendo però un approccio geometrico, ovvero parlando di campi vettoriali invece che di sistemi di equazioni differenziali. Riguardo la distinzione tra questi due punti di vista puoi vedere un video che ho fatto qui sotto:
Definiamo quindi un campo vettoriale $X:\mathbb{R}^n\rightarrow\mathbb{R}^n$ che sia di classe $\mathcal{C}^1(\mathbb{R}^n,\mathbb{R})$, così che valga il teorema di esistenza e unicità. Il sistema di equazioni differenziali associato è $$\dot{x}(t)=X(x(t)).$$
Tale sistema si dice integrabile se si può trovare una funzione $x=x(t)$, tramite una sequenza di operazioni algebriche e integrazioni, che risolva il sistema di equazioni differenziali qui sopra presentato.
Bene, una volta introdotto questo concetto però è interessante scoprire se ci sono dei risultati, delle ipotesi, che ci garantiscano l’integrabilità del sistema senza integrarlo direttamente.
Infatti, immagino tu ci abbia fatto caso, la semplice equazione $x’=6x$ l’abbiamo definita integrabile perchè l’abbiamo esplicitamente risolta, ovvero integrata.
Ma la domanda importante è: esistono delle ipotesi che quando soddisfatte da un sistema ci permettono di definirlo integrabile?
Ci tengo ad evidenziare un parallelismo con le equazioni algebriche e la loro risolubilità. La teoria della risolubilità in quel caso fa riferimento ai gruppi di Galois e non andremo certo ad approfondirla, visto che non so praticamente nulla a riguardo. Però se tu avessi dimestichezza con quegli argomenti, sappi che c’è uno stretto legame almeno in termini di approccio ed intuizioni tra queste due aree della mateamatica.
Prima di vedere il più semplice risultato di questo tipo (la teoria dell’integrabilità è molto ampia e richiede buone basi teoriche nel campo della geometria differenziale e teoria dei sistemi dinamici), è importante fare una precisazione.
L’integrabilità di un sistema dinamico ( o di un campo vettoriale più in generale ), è strettamente legata alla presenza di quantità/oggetti invarianti per il sistema. Per esempio in questo campo diventano molto importanti insiemi invarianti, misure invarianti, integrali primi o simmetrie dinamiche (campi vettoriali invarianti).
Se ti interessa capire cosa sia un integrale primo, qui ho fatto un video in cui introduco questo concetto:
Integrabilità algebrica: teorema di integrabilità di Lie
Supponiamo di avere ancora un generico campo vettoriale $X=X(x_1,…,x_n)$ che sia sufficientemente regolare, per esempio $\mathcal{C}^1$. Supponiamo inoltre che esso ammetta $(n-1)$ integrali primi che siano funzionalmente indipendenti.
Prima di tutti specifichiamo cosa si intenda con quest’ultima frase. Vuol dire che ci sono $(n-1)$ funzioni $f_1,…,f_{n-1}:\mathbb{R}^n\rightarrow \mathbb{R}$ che soddisfano le due seguenti proprietà:
$\mathcal{L}_Xf_i = \nabla f_i \cdot X = 0 ,\;\forall i=1,…,n-1,$
$\nabla f_i \text{ e }\nabla f_j \text{ non sono paralleli per ogni }i\neq j.$
Allora se ciò è vero, possiamo integrare il sistema. Nel caso ci sia un integrale primo, come spiego nel video, abbiamo che gli insiemi di livello di ognuna di queste funzioni è invariante. Inoltre essendo che i gradienti di queste funzioni non sono paralleli, ovvero non sono linearmente dipendenti, ciò vuol dire che gli insiemi di livello di questi integrali primi sono tutti diversi.
Quest’ultimo fatto è dovuto alla proprietà geometrica del gradiente di essere localmente ortogonale agli insiemi di livello di $f$, per esempio se $f(x,y)=x^2+y^2$, il gradiente è $\nabla f (x,y) = [2x,2y]^T$ che, come puoi vedere nel grafico qui sotto, è localmente ortogonale alle circonferenze che definiscono gli insiemi di livello di $f$.
Cosa vuol dire nel concreto questo? Vuol dire che se fissiamo un punto iniziale da cui lasciare evolvere la dinamica, $y_0\in\mathbb{R}^n$, sappiamo che per ogni $i=1,…,n-1$, la dinamica evolverà per ogni tempo $t$ nell’insieme di livello dove vive $y_0$ di $f_i$.
Quindi supponiamo che $f_i(y_0)=c_i\in\mathbb{R}$ per ogni $i=1,…,n-1$. Allora abbiamo che l’orbita del punto $y_0$ rispetto al campo vettoriale $X$, ovvero l’insieme
è contenuto nell’insieme di livello $\{x\in\mathbb{R}^n : f_i(x)=c_i\}$ per ogni $i=1,…,n-1$. Di conseguenza esso apparterrà all’insieme di livello della funzione vettoriale
$$ F : \mathbb{R}^n\rightarrow \mathbb{R}^{n-1} ,\quad F(x):=(f_1(x),…,f_{n-1}(x))$$
associato al punto $\boldsymbol{c}=(c_1,…,c_{n-1})\in\mathbb{R}^{n-1}$. Essendo gli integrali primi indipendenti, questa è una funzione suriettiva e l’insieme di livello $\{x\in\mathbb{R}^n: \,F(x)=\boldsymbol{c}\}$ è di dimensione 1, ed è invariante rispetto alla dinamica. Di conseguenza sappiamo che le orbite sono contenute in questi sottoinsiemi invarianti.
In più si vede facilmente che il sistema può essere integrato esplicitamente, questo è anche chiamato teorema di integrabilità di Lie.
Giusto per essere chiari, il fatto che sia integrabile esplicitamente non vuol dire che non rimarranno integrali da calcolare nell’espressione finale, vuol dire che a meno di essere in grado di calcolare quegli integrali, abbiamo un’espressione esplicita. Spesso infatti si incontrano i cosiddetti integrali ellittici che non sono risolvibili, ma ciò non è un problema o almeno non è un ostacolo verso la definizione di integrabilità.
Per accertarci della possibilità di integrare il sistema e trovarne l’integrale generale in forma chiusa, senza perderci in formalismi eccessivi, supponiamo di definire $n-1$ variabili come segue: $y_1=f_1$, …., $y_{n-1}=f_{n-1}$. Prendiamo poi una $n-$esima variabile da esse indipendente (questa esiste visto che abbiamo uno spazio di dimensione $n$: $\mathbb{R}^n$), chiamiamola $y_n$.
Allora siccome, per quanto abbiamo visto prima riguardo gli integrali primi, gli insiemi di livello di queste funzioni sono invarianti, esiste una funzione $g:\mathbb{R}^n\rightarrow \mathbb{R}$ tale che il sistema può essere riscritto, nelle nuove coordinate $\boldsymbol{y}$ come segue:
$$ \dot{y}_1 = 0 $$
$$ …. $$
$$ \dot{y}_{n-1} = 0 $$
$$ \dot{y}_n = g(y_1,…,y_n) $$
dove l’ultima equazione può essere integrata e possiamo quindi risolvere in forma chiusa il sistema.
Proviamo a ragionare più nel dettaglio su questa nuova formulazione del sistema. Quello che abbiamo fatto è trasformare il campo vettoriale di partenza, che era nelle coordinate $\boldsymbol{x}=(x_1,…,x_n)$, nelle nuove coordinate $\boldsymbol{y}=(y_1,…,y_n)$ che non sono prese a caso ma sono “speciali”. Per precisazione, questa operazione si dice coniugazione topologica del campo vettoriale.
Detto ciò, come possiamo sfruttare queste coordinate? Beh, vediamo facilmente che le prime $(n-1)$ equazioni sono integrabili e restituiscono $y_i=c_i$ con $i=1,…,n-1$. Da ciò segue che non resta che risolvere l’ultima equazione differenziale:
che ci permette di ricavare $y_n(t)$, a meno di risolvere integrali.
Conclusione
La teoria dell’integrabilità è un campo molto interessante sia nel caso di campi vettoriali su spazi vettoriali (o varietà) di dimensione finita che infinita (nel caso della teoria quantistica per esempio). I risultati però si fanno parecchio complicati e quindi ho preferito concentrarmi solo su uno tra i risultati più intuitivi, ovvero il teorema di Lie.
Un altro famoso e classico risultato invece riguarda i sistemi Hamiltoniani, esso è il teorema di Liouville-Arnol’d e, nel caso le sue assunzioni siano soddisfatte da un sistema Hamiltoniano, esso ci porta a definire completamente integrabile tale sistema.
Magari su questo risultato possiamo soffermarci in un articolo più avanti, dopo averne dedicato uno all’introduzione dei campi vettoriali Hamiltoniani, così da definire un po’ di contesto.
Per questo articolo direi che possiamo concludere, se hai qualche domanda o suggerimento lascia pure un commento qui sotto, appena posso ti risponderò 🙂
Cosa è il Bitcoin? Sicurezza o truffa informatica? Cosa sono le cryptovalute e la blockchain?
Sicuramente avrai sentito questi termini più di una volta negli ultimi
tempi, essendo essi parole chiave di una grande rivoluzione tecnologica che si
sta espandendo sempre di più, in molti settori e principalmente in quello della
finanza. Oggi faremo chiarezza su questi concetti , sottolineando quanto siano
importanti gli algoritmi matematici dietro tali tecnologie.
Bitcoin
Premessa: Questo articolo e gli altri della rubrica sono solamente a scopo informativo, col fine di suscitare ed approfondire l’interesse per questo argomento. Nè io nè gli altri collaboratori siamo investitori/traders professionisti e nessuna cosa che scriviamo ha come obiettivo spingerti ad investire i tuoi soldi. Detto questo, enjoy your reading!
Il Bitcoin (in acronimo BTC) è una moneta virtuale, ovvero che non viene stampata come la normale cartamoneta, ma che viene creata, distribuita e scambiata in maniera completamente virtuale. Esso introduce un vero e proprio sistema monetario globale, completamente innovativo e senza intermediari usufruendo della nuova tecnologia Blockchain di cui ne parlerò più avanti.
Nasce nel 2009, creato da un programmatore (o gruppo di programmatori) sotto lo pseudonimo di Satoshi Nakamoto, tutt’ora ancora sconosciuto, e la sua nascita dà il via alla cosidetta era delle cryptocurrencies, in italiano cryptovalute, dai termini inglesi “cryptography” (crittografia) e “currency” (valuta).
Le cryptovalute sono mezzi di scambio che utilizzano le moderne tecniche crittografiche sia per rendere sicure le transazioni sia per la creazione di altra moneta. Vengono spesso chiamate anche monete matematiche, poiché esse vengono prodotte, rese sicure (tramite la crittografia), distribuite e fatte circolare secondo algoritmi noti al pubblico. Se non sai cos’è un algoritmo ti consiglio di dare un’occhiata a questo articolo.
Ne esistono più di 2000, quelle che differiscono dal Bitcoin sono definite Altcoin (alternative-coin). Le più famose Altcoin sono Ethereum (ETH), Ripple (XRP), Litecoin (LTC).
Principali Cryptovalute
Il Bitcoin deve la sua fama principalmente per il suo alto valore nel mercato finanziario: dal 2009 ad oggi, infatti, ha avuto un incremento percentuale equivalente circa a 11666500% partendo da un prezzo di 0.06 dollari , ed arrivando tutt’ora intorno ai 7000 dollari. Il massimo storico è stato verso la fine del 2017, toccando la soglia di 20000$, e raggiungendo un incremento del 33333200% circa. Ma a cosa sono dovuti questi prezzi? La risposta si trova semplicemente nella legge della domanda e dell’offerta.
In breve: il prezzo è basso? Compro. Comprando, la domanda di quel bene (in questo caso del Bitcoin) sale, e ciò porta ad un aumento del prezzo. L’inverso succede invece quando si decide di vendere: arrivato ad un certo prezzo, chi ha comprato a poco decide di vendere sfruttando l’aumento del prezzo (si chiama speculazione): vendendo, l’offerta di quel bene aumenta, e ciò porta ad una riduzione del prezzo.
Sono ben 11 anni che il Bitcoin sta avendo questi andamenti, mostrando percentuali e numeri davvero incredibili. Il rischio, quindi, sta nel capire quando tutti comprano e quando tutti vendono. Ma la cosa che rende questa moneta così importante in realtà è la tecnologia che c’è dietro, chiamata Blockchain.
Blockchain: Il nuovo sistema decentralizzato
Lablockchain (letteralmente “catena di blocchi”) è per definizione “una struttura dati condivisa e immutabile”. È definita come un registro digitale le cui voci sono raggruppate in blocchi, collegati in ordine cronologico, e la cui sicurezza è, come abbiamo già detto, garantita dall’uso della crittografia (Qui viene spiegata dettagliatamente cosa è e la sua importanza). Ogni nodo, ovvero ogni computer connesso ai blocchi, ha una copia della blockchain: difatti la qualità dei dati è mantenuta grazie a una costante replicazione del database. Non esiste nessuna copia ufficiale centralizzata e nessun utente è più credibile di altri, tutti sono allo stesso livello. E’ proprio questa la grande novità: un sistema decentralizzato che rimpiazza quello originariamente centralizzato (ovvero che ogni operazione debba necessariamente passare per un solo grande blocco che funge da intermediario per gli altri, es: banca) , poiché quest’ultimo rende vulnerabile il sistema (in caso di attacco informatico mirato solo al blocco centrale si otterrebbe l’immediato accesso a tutti gli altri blocchi).
Dopo che una transazione è avvenuta, lo storico e tutte le informazioni
a essa collegate vengono salvate e conservate su ogni singolo blocco della
catena che è pubblico e condiviso da tutti i nodi.
Questa nuova tecnologia, oltre che nel settore finanziario e della compravendita, si sta evolvendo in tantissime aree, tra queste: sistema sanitario,industria musicale, energia rinnovabile, scuole e università, pubblica amministrazione e molti altri.
Blockchain
Il Mining: Come vengono creati i Bitcoin
Il processo che produce nuova moneta virtuale è detto Mining. Esso consiste nel decifrare i codici crittografici presenti nei Bitcoin per completare le transizioni. Per fare ciò sono necessari una serie di computer di alta potenza che utilizzano software ed hardware specializzati capaci di fare milioni di calcoli al secondo. Decifrare questi codici risulta essere un vero e proprio problema matematico estremamente complesso: quei nodi che procedono alla ricerca della soluzione sono detti “minatori” e il primo che riesce a risolvere il problema viene premiato con una quota di bitcoin generati proprio grazie a questo processo. Inizialmente la ricompensa era di 50 bitcoin per blocco, ma se tale ricompensa rimanesse sempre la stessa, la moneta in circolazione aumenterebbe infinitamente nel tempo e si verificherebbe una continua inflazione (qui viene spiegata in dettaglio cosa è). Per evitare questo problema il sistema è programmato per generare moneta secondo una serie geometrica fino a che il numero totale di Bitcoin non giunge a 21 milioni. Il sistema dimezza la ricompensa ogni 210000 blocchi minati (ovvero ogni 4 anni circa); così facendo si ottiene:
Da questo momento, tutte le transazioni contenute in quell’ultimo blocco generato vengono “incatenate” alla blockchain e diventano pubbliche; quindi chi ha pagato una somma di Bitcoin non li possiede più mentre il ricevente li possiede effettivamente.
Creazione blocchi
Il Wallet Bitcoin: un po’ di algoritmi per capirne la solidità
I wallet (letteralmente “portafoglio”) sono una componente dell’architettura bitcoin attraverso il quale gli utenti gestiscono la propria cryptovaluta. I bitcoin sono infatti associati ad indirizzi assimilabili al numero di conto corrente di una banca e ogni utente può gestire, attraverso il proprio wallet, uno o più conti.
Ogni indirizzo di un wallet Bitcoin è costituito da due parti: la chiave pubblica, ovvero il vero e proprio indirizzo che useremo per ricevere i pagamenti, e la chiave privata, che deve assolutamente rimanere tale.
‘’I grandi numeri sono il primo nemico degli hacker, ed è questo il motivo per cui le chiavi private sono a prova di penetrazione.’’
La chiave pubblica, ovvero l’indirizzo del wallet, è una serie alfanumerica
tra i 26 e i 35 caratteri in formato HEX (sistema numerico esadecimale). Questa
serie di numeri è qualcosa di mai visto: sarete i primi ed unici al mondo ad aver creato questa serie
di numeri e lettere. E’ come lanciare una moneta per 160 volte e segnare
l’ordine in cui escono testa (1) e croce (0), in quanti, al mondo, si
ritroverebbero con la vostra stessa serie binaria? Le statistiche dicono
nessuno. Quella sequenza di 160 monete lanciate è il vostro indirizzo.
Il valore della chiave privata viene generato tramite funzioni di crittografia dette “ellittiche” e successivamente usato sia come parametro di complessi algoritmi detti “algoritmi di hashing”. Essi sono in grado di elaborare una gran quantità di informazione e, sopratutto, non sono invertibili.
Questa proprietà è davvero importante, perché un algoritmo (facilmente) invertibile nel campo della sicurezza è sintomo di vulnerabilità. Basta pensare a una funzione crittografica come ad una semplice funzione matematica in cui l’input è un numero che viene elevato alla seconda e l’output è il risultato:
$x^2=81$
se così fosse, basterebbe calcolare la radice quadrata per invertire la funzione e scoprire l’input a partire dall’output:
$\sqrt{81}=x$
Questi appena descritti sono i più moderni e solidi modelli di sicurezza.