La crisi dei fondamenti: Possiamo fidarci della matematica?

Nel nostro tentativo di ripercorrere le tappe che hanno portato alla moderna concezione della matematica e della logica ci siamo fermati alla lettera di Russell al povero Frege, che ha visto crollare davanti ai propri occhi il lavoro di una vita. Era riuscito ad erigere un monumento grandioso alla potenza espressiva della pura logica, un palazzo curato nei minimi particolari, che però poggiava le proprie fondamenta sul paradosso.

fondamenti della matematica

In quegli stessi anni inoltre i lavori di Cantor stavano prendendo piede nella comunità matematica, e i suoi risultati estremamente controintuitivi non facevano altro che aumentare la preoccupazione riguardo i metodi utilizzati dalla matematica. Come possiamo essere certi che le dimostrazioni siano corrette se non abbiamo nemmeno una definizione univoca di cosa sia una dimostrazione? Come possiamo dunque fidarci della matematica?

Ed ora, proprio quando si sentiva maggiormente il bisogno di una formalizzazione dei metodi matematici, l’ennesimo paradosso salta fuori e manda all’aria il più grande tentativo di formalizzazione nella storia della matematica.

Una battaglia grandiosa e decisiva

Ben dieci anni prima di ricevere la devastante lettera di Russell, lo stesso Frege, commentando i lavori di Cantor sul transfinito, scriveva:

Alla fine, infatti, l’infinito rifiuterà di lasciarsi escludere dall’aritmetica … Possiamo dunque prevedere che questo problema costituirà lo scenario di una battaglia grandiosa e decisiva”.

Non poteva certo immaginare che la prima vittima di questa battaglia sarebbe stata proprio la sua Ideografia. È evidente infatti come il metodo diagonale di Cantor sia stato di ispirazione per la costruzione dell’insieme paradossale di Russell: l’insieme di tutti gli insiemi che non hanno se stessi come elemento.

La lettera di Russell mise nero su bianco che l’allora concezione sui fondamenti della matematica poggiava su principi contraddittori. Non sorprende quindi che i più grandi matematici dell’epoca iniziarono ad interessarsi al problema, scendendo in campo in diverse fazioni nella battaglia grandiosa e decisiva pronosticata da Frege.

I logicisti

russel
Bertrand Russell e Alfred North Whitehead

Una di queste fazioni fu quella dei logicisti. Questi, proprio come Frege, sostenevano con convinzione che la matematica discende dalla logica.

Uno dei massimi esponenti di questo lato del campo di battaglia fu proprio colui che aveva appena sferrato un colpo quasi mortale alla corrente logicista: Bertrand Russell.

Russell infatti credeva che i problemi riscontrati con l’Ideografia fossero peculiari della costruzione di Frege e non inerenti nell’approccio logicista. Tentò quindi di rimediare ai danni che provocò la scoperta del suo paradosso, elaborando con il suo ex professore a Cambridge Alfred North Whitehead, i tre volumi dei Principia Mathematica.

Secondo Russell il problema al cuore del paradosso era l’autoriferimento, che dunque andava evitato in tutti i modi. Per questo elaborò la teoria dei tipi: nella costruzione dei Principia Mathematica ogni oggetto, ogni proposizione, ogni insieme, ha un proprio livello, e ogni oggetto non può riferirsi ad oggetti di livello pari o superiore al proprio. In questo modo, per esempio, l’insieme A non può avere come elemento l’insieme A. Non può esserci alcun “insieme di tutti gli insiemi”, che dovrebbe contenere se stesso. Non può esserci una proposizione che afferma “Questa proposizione è falsa”…

Con questa costruzione estremamente cauta e vincolante Russell sperava di evitare paradossi come quello enunciato nella lettera a Frege.

Vedremo però che l’autoriferimento sarà un nemico molto più difficile da sconfiggere di quel che Russell credeva. Riuscirà infatti a celarsi tra le maglie strette della costruzione dei Principia Mathematica senza essere smascherato fino a diversi anni dopo, quando, nel 1931, proprio facendo uso dell’autoriferimento nascosto nell’opera di Russell e Whitehead, una delle più grandi menti dello scorso secolo dimostrò il risultato più sconvolgente nella storia della matematica. Ma andiamo con calma, ci arriveremo.

Gli intuizionisti

Sul lato opposto del campo di battaglia era schierata la fazione degli intuizionisti. Contrariamente ai logicisti, questi credevano che la sola logica non avrebbe mai potuto comprendere tutti i ragionamenti matematici, che non si basano sulla logica, bensì sull’intuizione. Per loro la matematica è un’attività costruttiva che precede la logica, che invece è solo descrittiva.

Tra le fila degli intuizionisti possiamo trovare grandi matematici dell’epoca come Leopold Kronecker, acerrimo oppositore di Cantor, Henri Poincaré, Hermann Weyl, e Luitzen Brouwer, il fondatore vero e proprio dell’intuizionismo.

Da sinistra a destra: L. Kronecker, H. Poincarè, H. Weyl, L. Brouwer

Per loro il concetto di “esistenza” in matematica era stato travisato ormai da tempo, ed era stato questo a portare ai risultati controintuitivi di Cantor: per dire che una qualche entità esiste in matematica occorre esporre un metodo costruttivo per trovarla, non basta dimostrare che la sua non-esistenza porta a contraddizioni. In questo modo l’intuizionismo rifiutava il ruolo del principio del terzo escluso in matematica, il principio logico su cui si basano le dimostrazioni per assurdo.

Il grande David Hilbert, che trovava assurde le pretese del costruttivismo, commentò a riguardo:

Privare un matematico della possibilità di fare dimostrazioni per assurdo sarebbe come fare combattere un pugile con le mani legate dietro la schiena.

O anche, durante una sua lezione:

“Sono certo che tra i presenti in aula c’è sicuramente qualcuno che ha in testa meno capelli di tutti gli altri, e il fatto che io non abbia un modo ovvio di individuarlo non nega la sua esistenza”.

L’approccio formalista

hilbert
David Hilbert

Le ultime citazioni ci fanno capire quanto Hilbert fosse critico nei confronti dell’approccio intuizionista. La sua concezione della matematica era del tutto diversa. Per Hilbert la matematica è pura forma e non ha, ne ha la pretesa di avere, alcun significato fisico. La matematica non si intuisce, si crea.

Proprio per questo le caratteristiche fondamentali da ricercare in un sistema formale non sono l’evidenza degli assiomi o la costruttività delle dimostrazioni, bensì la coerenza e la completezza del formalismo adottato.

Facciamo il punto della situazione. Frege aveva costruito un sistema formale in grado di rappresentare gli usuali ragionamenti matematici come manipolazione di simboli. Aveva posto alla base della sua costruzione i due assiomi che abbiamo visto essere responsabili dell’antinomia di Russell: il principio di comprensione e il principio di astrazione. Sembravano evidenti a prima vista, e questo è un punto fondamentale: se anche partendo da due principi evidenti si giunge a contraddizione, che speranza c’è di fondare la matematica su basi solide?

Ecco che viene fuori la prima caratteristica fondamentale che un sistema formale deve avere, la coerenza: non deve essere contraddittorio. Non basta che gli assiomi siano evidenti, occorre che non sia possibile derivare da essi, seguendo le regole fissate, sia una formula $A$ sia la sua negazione non-$A$.

Ora, tra tutti i possibili sistemi formali non contraddittori, ce ne serve uno in grado di rappresentare la matematica, o almeno l’aritmetica (i lavori di Dedekind e Peano avevano già mostrato che dall’aritmetica è possibile ricavare il resto della matematica), ci serve dunque che sia completo: se una proprietà è vera in matematica, deve essere possibile raggiungere, a partire dagli assiomi del nostro sistema formale, la formula corrispondente a quella proprietà.

Piccola nota: la completezza è sempre una nozione relativa all’insieme dei ragionamenti che vogliamo rappresentare nel nostro sistema formale. Per esempio la logica del primo ordine è completa nel senso che ogni formula logicamente valida è raggiungibile a partire dagli assiomi seguendo le regole di inferenza. Ovviamente le formule logicamente valide sono un sottoinsieme delle formule vere nell’aritmetica. Prendiamo ad esempio la formula “$\forall x \exists y , y>x$”. Questa è vera nella struttura dei numeri naturali, ma possiamo trovare tantissime strutture numeriche in cui non è vera, per esempio un qualunque insieme finito dotato dell’usuale relazione d’ordine $>$, quindi non è una formula logicamente valida.

Un sistema formale coerente e completo

Ora si pone il problema di trovare un tale sistema formale, che sia allo stesso tempo non contraddittorio e completo. Prima di tutto, ne esiste uno?

Certo che esiste! Basta prendere il sistema che ha per assiomi tutte le formule vere nell’aritmetica e nessuna regola di inferenza. Bene, abbiamo risolto tutti i nostri problemi? Abbiamo trovato finalmente dei fondamenti solidi per la matematica? Sfortunatamente no. Con un tale sistema, per quanto completo e coerente, non saremmo in grado né di trovare risultati nuovi, né di verificare se un risultato sia vero o meno.

Se vogliamo fare matematica ci serve un’ulteriore vincolo per il sistema: la decidibilità. Deve esistere una procedura effettiva in grado di decidere se una dimostrazione data sia corretta o meno.

Ecco dunque il Programma di Hilbert: trovare un sistema formale coerente, completo e decidibile.

Ricordate il sogno di Leibniz? Eccolo di nuovo, due secoli dopo. Certo, Leibniz sognava un sistema completo rispetto a tutto lo scibile umano, mentre Hilbert si sarebbe accontentato di comprendere anche solo la matematica, ma l’idea fondamentale è sempre la stessa.

Ora non rimane che cercare questa moderna characteristica universalis.

Da dove nascono le considerazioni di Hilbert?

Il primo risultato che rese famoso Hilbert fu la dimostrazione della congettura di Gordan, un problema della teoria degli invarianti algebrici. La dimostrazione di Hilbert all’epoca destò molto scalpore perché si trattava di una dimostrazione non costruttiva: sfruttando un risultato molto più generale e profondo, oggi noto come Teorema della base di Hilbert, dimostrò che ipotizzando falsa la congettura di Gordan si sarebbe generata una contraddizione.

Kronecker, fermo costruttivista, era un personaggio molto influente nella matematica tedesca e per questo le critiche alla dimostrazione di Hilbert non tardarono ad arrivare. Lo stesso Gordan, quando lesse per la prima volta la dimostrazione di Hilbert esclamò: “Questa non è matematica, è teologia!”. Poco tempo dopo allora Hilbert presentò una nuova dimostrazione, stavolta pienamente costruttiva. La prima dimostrazione rimaneva però un’emblema della potenza del pensiero astratto e spalancò una finestra sulla matematica del nuovo secolo.

Anni dopo, quando l’utilità del metodo di Hilbert fu universalmente riconosciuta, anche Gordan fece un passo indietro e disse pubblicamente: “Debbo ammettere che anche la teologia ha i suoi pregi.”

I fondamenti della geometria

Nel 1898 Hilbert tenne all’università di Gottinga un corso di geometria euclidea. Geometria euclidea? Ma non è un argomento troppo semplice per un corso universitario? Dopotutto oggi, così come allora, si studia alle scuole secondarie.

Ma Hilbert aveva in mente un modo del tutto nuovo di approcciare la geometria. Nel suo corso ne avrebbe esposto una nuova assiomatizzazione in modo da renderla una disciplina pienamente formale, in cui l’intuizione non avrebbe avuto più alcuno spazio.

Gli Elementi di Euclide è stata una delle opere più importanti della storia della matematica. In essa il matematico greco, a partire dai famosi cinque postulati sviluppava tutte le proposizioni ed i teoremi della geometria elementare che ci hanno insegnato a scuola. Un’opera maestosa, che dalla sua prima stesura nel IV secolo a.C. fino ad Hilbert, a inizio ‘900, fu usata per l’insegnamento della geometria, resistendo a più di due millenni di storia.

Si scoprì però che gli assiomi di Euclide non erano in realtà sufficienti a dedurre tutte le proposizioni che Euclide faceva discendere da essi, si potrebbe dire che non erano completi. Il primo ad accorgersene fu il vecchio Leibniz, che abbiamo già incontrato.

Già la prima proposizione del primo libro degli Elementi di Euclide infatti non discende direttamente dai 5 assiomi. Essa spiega come “Sopra una data retta finita (segmento), costruire un triangolo equilatero”.


Euclide prescrive di tracciare gli archi AC e BC, di centro rispettivamente A e B e ampiezza AB. Il punto in cui i due archi si intersecano sarà equidistante dai punti A e B, sarà quindi un vertice del triangolo equilatero ABC.

Ma come possiamo essere sicuri che i due archi di cerchio si incontrino? Sembra evidente, ma noi stiamo cercando di fondare la matematica sul puro formalismo, proprio perché non vogliamo che l’intuito, che più volte ci ha ingannato, continui a intrufolarsi nelle nostre deduzioni.

Come recita una famosa citazione di Hilbert, la geometria dovrebbe funzionare ugualmente se ai termini “piano”, “retta” e “punto” sostituissimo “tavoli”, “sedie” e “boccali di birra”, a patto che le relazioni tra questi oggetti siano quelle descritte dagli assiomi.

Ebbene, nessun assioma assicura che due archi, o anche due rette, se non sono parallele, debbano per forza incontrarsi in un punto. Dalla necessità di esplicitare questo fatto si formulò un nuovo assioma: l’assioma di continuità della retta.

Pian piano si scoprì che questa non fu l’unica dimenticanza di Euclide.

L’opera di Hilbert aveva lo scopo proprio di trovare tutti gli assiomi necessari a costruire la geometria descritta da Euclide.

La grande novità in questo lavoro è che Hilbert fu il primo a porsi il problema di come dimostrare la completezza e la coerenza del suo sistema di assiomi.

Riuscì nell’impresa di dimostrare che il suo sistema era coerente. Per farlo ebbe l’idea di applicare i metodi della matematica al suo sistema. Capì che per analizzare le dimostrazioni matematiche sarebbe stata necessaria una metamatematica: una teoria della dimostrazione.

(Dimostrarne anche la completezza era un problema più delicato: nel 1951 il logico polacco Alfred Tarski riuscì a dimostrare la completezza di una versione della geometria euclidea)

L’idea fondamentale della dimostrazione di coerenza della geometria fu quella di ridurre il problema alla consistenza della teoria dei numeri reali, che a sua volta poggiava le basi sull’aritmetica. In questo modo se l’aritmetica è consistente, allora deve esserlo necessariamente anche la geometria.

Ora però il problema si è spostato: chi ci dice che l’aritmetica non sia contraddittoria?

Dalla necessità di rispondere a questa domanda nacque il Programma di Hilbert, di cui abbiamo parlato qualche riga più su.

In matematica non ci sono ignorabimus

Hilbert era più che certo del fatto che il suo programma avrebbe avuto successo, si trattava solo di capire quanto tempo sarebbe stato necessario a trovare il sistema formale giusto.

Dopotutto il trovare un tale sistema significherebbe avere una prova di qualcosa che sembra essere del tutto naturale: in matematica non esistono domande senza risposta.

Chiunque si sia mai appassionato alla matematica deve sicuramente parte di questa passione a questa certezza che si instilla in noi ogni volta che incontriamo una nuova dimostrazione.

Douglas Hofstadter, autore di Gödel, Escher, Bach: un’Eterna Ghirlanda Brillante, chiama questa certezza “Il credo del matematico”, che si compone di due proposizioni:

$A$ è vero perché esiste una dimostrazione di $A$

$A$ è vero e quindi esiste una dimostrazione di $A$

Il sistema decidibile, coerente e completo del Programma di Hilbert avrebbe dato la prova definitiva che per ogni affermazione nel campo della matematica sarebbe stato possibile trovare una dimostrazione di essa o una dimostrazione della sua negazione.

Sono ormai passate alla storia le parole di Hilbert con cui mise in luce questo fatto:

Come esempio del modo in cui le questioni fondamentali possono essere trattate [nella teoria della dimostrazione], vorrei scegliere la tesi che ogni problema matematico può essere risolto. Ne siamo tutti convinti. Dopotutto, una delle cose che ci attraggono maggiormente quando ci dedichiamo a un problema matematico è precisamente che, dentro di noi, sentiamo sempre il richiamo: ecco il problema, cerca la soluzione; puoi trovarla col puro pensiero, perché in matematica non ci sono ignorabimus. Ora, certamente la mia teoria della dimostrazione non può specificare un metodo generale per risolvere ogni problema matematico, ciò non esiste. Ma la dimostrazione che l’assunzione della risolvibilità di ogni problema matematico è coerente cade interamente entro l’ambito della nostra teoria.

Wir müssen wissen, wir werden wissen

L’8 settembre 1930 a Königsberg, in occasione del suo pensionamento, Hilbert venne insignito della cittadinanza onoraria della sua città natale. Durante la cerimonia pronunciò un famoso discorso, pieno di ottimismo, che si concludeva così:

Una volta il filosofo Comte, volendo menzionare un problema insolubile, disse che la scienza non sarebbe mai riuscita a conoscere a fondo il segreto della composizione chimica dei corpi celesti, ma alcuni anni più tardi questo problema fu risolto mediante l’analisi spettrale di Kirchhoff e Bunsen. Il vero motivo per cui Comte non riuscì a trovare un problema insolubile sta, a mio parere, nel fatto che non esiste alcun problema insolubile. Al posto dello stolto ignorabimus, il nostro motto è invece wir müssen wissen, wir werden wissen, “dobbiamo sapere, sapremo”.

Le potenti parole finali furono incise sulla tomba di Hilbert a Gottinga. Paradossalmente però, le aveva pronunciate il giorno dopo, e nello stesso luogo, in cui un giovane matematico, Kurt Gödel, aveva annunciato al mondo il suo sconcertante teorema di incompletezza, che sarà il protagonista del prossimo articolo: in qualunque sistema formale contenente l’aritmetica ci sono proposizioni indecidibili, che non possono essere né dimostrate, né refutate.

Era la fine per il Programma di Hilbert e per il “credo del matematico”.

Per saperne di più

Questo capitolo della storia della matematica è estremamente affascinante e densissimo di avvenimenti, dispute, idee… sarebbe impossibile dire tutto in un articolo.

Se vi interessa l’argomento consiglio qualche risorsa su cui approfondire:

Modello matematico: cos’e’ e a cosa serve?

Questo articolo è molto importante in quanto, visti un po’ i miei interessi, mi dedicherò particolarmente al mondo della matematica applicata e in questo settore il concetto di modello matematico è fondamentale.

modello matematico

Se alla lettura preferisci la visione di un video, puoi guardare la versione video di questo articolo qui:

In futuro probabilmente andremo ad analizzare qualche modello in particolare, come per esempio modelli per la diffusione di epidemie, per il trasporto del calore, per l’andamento del traffico o quant’altro… Quindi questa introduzione sarà fondamentale.

Cos’è un modello matematico?

Infatti, nelle scienze applicate e nel mondo fisico, i modelli matematici vengono utilizzati quotidianamente, soprattutto per dare una formalizzazione a quello che succede nella realtà e poter poi avere degli strumenti per capire cosa sta succedendo, cosa potrebbe succedere e perché.

Infatti, per modello matematico, intendiamo un insieme di relazioni e/o leggi matematiche in grado di catturare gran parte delle caratteristiche di un fenomeno e permetterci poi quindi di controllarne lo sviluppo, il cambiamento, l’andamento e poter trarre informazioni utili riguardo esso.

Da ciò segue naturalmente che il modello e la struttura matematica che si va a costruire è fondamentale che sia rilevante e coerente con il mondo fisico e l’applicazione a cui andiamo a riferirci.

Questo è un approccio molto diverso rispetto a quello tipico della matematica pura. Per esempio, nella congettura di Goldbach questo legame tra applicabilità del risultato e importanza dello stesso non è necessario da un punto di vista matematico. Se non sai cosa sia la congettura di Goldbach ecco un video in cui te la introduco:

Finché le leggi della matematica si riferiscono alla realtà, non sono certe, e finché sono certe, non si riferiscono alla realtà.

(Albert Einstein)

È importante specificare inoltre, che quando parliamo di scienze applicate non stiamo solo andandoci a riferire a quelle classiche, quelle a cui riusciamo a pensare più naturalmente in quanto legate alla matematica (come per esempio la fisica o la chimica), ma facciamo riferimento a molte altre scienze complesse tra le quali ricadono la medicina, la finanza, la biologia, l’ecologia e varie altre.

Proprietà ed elementi fondamentali dei modelli matematici

La modellazione matematica intesa come

  • costruzione di un modello matematico, a cui segue poi
  • una fase di analisi e implementazione numerica e
  • un confronto dei risultati ottenuti con la realtà )quindi tramite via sperimentale),

è ormai all’ordine del giorno. Precisamente, questi modelli matematici ormai si è capito che sono davvero fondamentali e ci permetteranno di capire fenomeni complessi in maniera più rigorosa, così da poter quindi prevedere i possibili esiti degli stessi.

Sostanzialmente, l’origine di un modello matematico può essere ridotta a due elementi fondamentali: il primo sono delle leggi generali, il secondo sono delle relazioni costitutive.

Quindi vediamo che cosa sono questi due mattoni della costruzione di un modello matematico. Partiamo dalle leggi generali. Queste sono di natura abbastanza teorica, quindi possono essere per esempio le leggi della meccanica e i principi di conservazione dell’energia o del momento angolare. Esse sono quindi delle relazioni fisiche oppure delle leggi di bilanciamento chimiche e quant’altro. L’importanza di queste leggi è che non sono specifiche del singolo modello, ma possono descrivere vari fenomeni.

Per quanto riguarda invece le relazioni costitutive, abbiamo qualcosa di carattere più sperimentale. Infatti, in questo caso si vanno per esempio a utilizzare delle peculiarità del fenomeno in analisi. Tramite via sperimentale, si vanno a introdurre delle particolari costanti, oppure si va a modellizzare una particolare funzione in conseguenza a qualche risultato ottenuto sul campo. Questo secondo mattone quindi è un qualcosa di strettamente legato al modello e non generalizzabile, differentemente per esempio dalle leggi della meccanica che valgono per vari fenomeni, varie applicazioni.

Alcuni esempi di leggi costitutive sono la legge di Fourier per il flusso di calore oppure ci sono molte altre leggi che ci permettono di decidere, per esempio, che forma dare a un flusso numerico oppure a un flusso in generale. Queste scelte le faremo chiaramente in base a quello che stiamo analizzando.

Il risultato della combinazione di questi due mattoni fondamentali di un modello matematico è solitamente descrivibile in forma sintetica tramite un’equazione o un sistema di equazioni, spesso differenziali alle derivate parziali.

Questa struttura complessa non è necessaria in ogni circostanza. Può benissimo esserci qualche modello, comunque interessante e utile per certi fenomeni, che non coinvolge nemmeno equazioni differenziali. Magari vedremo qualcosa riguardo questo tema.

Comunque spesso i modelli che si vanno a costruire per analizzare situazioni che evolvono nel tempo (o nello spazio), coinvolgono equazioni alle derivate parziali e in questo ambito ti consiglio (nel caso tu sia interessato a questi temi) di guardarti questo libro: Equazioni a derivate parziali: Metodi, modelli e applicazioni. Questo libro si concentra soprattutto sulla costruzione dei modelli e fornisce anche molti strumenti per analizzare questi modelli, vederne le proprietà e magari risolvere (nel caso sia possibile) anche le equazioni alle derivate parziali sottostanti. La risoluzione di queste equazioni non è sempre possibile e magari questo sarà argomento di altri video o articoli (un argomento legato a questo sono gli spazi di Hilbert, se ti interessa puoi capire di cosa si parla in questo articolo https://www.mathone.it/spazio-hilbert/).

Esiste un solo modello per ogni fenomeno?

Un’altra cosa importante da evidenziare, è che nel momento in cui andiamo a interessarci a un fenomeno legato a una delle scienze complesse, è quasi certo che il modello che possiamo andare a costruire non sia unico. È quindi importante chiedersi se il modello che andiamo a costruire vada bene o meno e bisogna essere in grado di capire se questo modello possa funzionare o meno.

Ecco che dobbiamo introdurre il concetto di problema ben posto:

Di modelli ce ne sono un’infinità, alcuni sono di semplice comprensione e interpretazione…altri non lo sono. C’è sempre margine per complicare le cose anche se è importante evidenziare il fatto che non è detto che un modello più complicato di un altro sia in grado di spiegare meglio un certo fenomeno. Spesso la sintesi è una grande qualità di un modello a volte. Non è infatti raro che sia premiata la disponibilità a sacrificare la capacità di prevedere un fenomeno a favore di rendere il modello un po’ più semplice. Il perché dietro a questo fatto è che, grazie a questa scelta, magari possiamo abbassare i tempi di calcolo o i costi computazionali per poter elaborare le informazioni. Da ciò segue che potremmo riuscire a trovare delle informazioni utili su una situazione concreta in tempi ragionevoli. La velocità può essere davvero utile.

Per esempio, nel campo dello studio delle epidemie, la velocità e la capacità di prevedere in fretta dove potrebbe diffondersi un’epidemia, oppure le tempistiche con cui intervenire con un certo farmaco a volte possono premiare più dell’avere una descrizione estremamente accurata e dettagliata della realtà. Chiudiamo quindi notando che spesso è utile ponderare precisione con velocità di elaborazione.

Se ti interessa vedere un modello per l’analisi delle epidemie, il modello SIR, davvero snello ma comunque efficace per descrivere il numero di infetti di un’epidemia, ti consiglio di guardare questo mio video:

Meccanica quantistica (parte 3): Evoluzione temporale e principio d’indeterminazione

Bentornati con l’ultimo articolo di questa rubrica sulle basi matematiche della meccanica quantistica. Dopo aver dato un’introduzione storica e concettuale e aver dato le basi matematiche in questa parte ci occupiamo di due aspetti importanti collegati ai concetti introdotti la scorsa volta: l’evoluzione temporale di un sistema e il principio di indeterminazione!

indeterminazione

Evoluzione temporale di un sistema

Nella scorsa puntata abbiamo scoperto esattamente a cosa corrispondevano i concetti classici di sistema fisico e di osservabile. Adesso bisogna chiedersi come fanno a variare nel tempo i sistemi fisici, visto che il nostro universo va avanti nel tempo! Questa strada ci porterà alla famigerata equazione di Schrödinger.

Cercando di portare un ragionamento euristico passiamo per la meccanica classica (che puoi approfondire con i consigli di questo articolo). Infatti nella meccanica classica un modo per trattare i sistemi è quello di impostare una funzione, chiamata hamiltoniana, che descrive le interazioni del nostro sistema e si può dimostrare essere equivalente all’energia del sistema stesso. Ma che senso ha creare questa funzione vi chiederete? Bene grazie a questa funzione si possono impostare delle equazioni (dette di Hamilton) che legano le derivate temporali delle variabili fisiche del sistema (posizione e momento) alle derivate dell’hamiltoniana. In questo modo studiare l’evoluzione temporare diventa “facile” (anche se questo termine non sarà approvato da qualunque studente di meccanica analitica).

$ \begin{equation} \begin{array}{ll} \frac{dr(t)}{dt}=-\frac{\partial H(r,p)}{\partial q}\\ \frac{dp(t)}{dt}=\frac{\partial H(r,p)}{\partial p} \\ \end{array} \end{equation}$

Ma questo discorso come ci aiuta a capire la teoria quantistica? Come abbiamo imparato nello scorso articolo per passare ad un “mondo quantistico” ci basta solo considerare uno spazio di Hilbert e cambiare le nostre variabili (osservabili) con operatori giusto? Bene! L’hamiltoniana ha come variabili proprio queste quantità, ci basta quindi banalmente far diventare le nostre variabili continue operatori facendo di conseguenza diventare la nostra hamiltioniana un operatore e il gioco è fatto. In generale per un sistema fisico un hamiltoniana ha quasi sempre questa forma $H=\frac{p^2}{2m}+V(r)$, il primo pezzo è il termine cinetico (cioè di movimento) mentre $V(r)$ contiene i termini di interazione (ad esempio gravitazionale o elettromagnetica).

A questo punto torna la domanda dell’inizio: Come si evolvono nel tempo queste quantità? Se classicamente la risposta erano le equazioni di Hamilton in questo caso invece è l’equazione di Schrödinger !

$i\hbar\frac{\partial}{\partial t}\left|\Psi(t)\right>=H\left|\Psi(t)\right>$

Ovviamente la trattazione matematica è molto più formale di così e quest’equazione può essere ricavata da altre ipotesi e non presa come principio primo. Però il senso fisico che sta dietro a questa matematica è il seguente: L’evoulzione nel tempo del nostro stato, data dalla derivata, è collegata a come l’hamiltoniana agisce sullo stato stesso… intuzione non banale direi!

Le applicazioni di questa equazione sono infinite e non basterebbe un libro per elencarle tutte, spero almeno di avervi dato un’idea di come funzioni uno dei pilastri della meccanica quantistica. Passiamo ora all’ultimo e interessantissimo argomento.

Principio di indeterminazione

Eh si, non può mancare una trattazione della meccanica quantistica senza parlare di questo strano fenomeno. Per cercare di capirlo abbiamo accennato negli scorsi articoli al fatto che uno stato ha diverse probabilità di tornare certi autovalori quando viene misurato rispetto a un osservabile (operatore) $\hat{O}$, immaginiamo ora di avere 2 operatori $ \hat{A}$ e $\hat{B}$ e definiamo un’operazione chiamata commutatore:

$ [ \hat{A}, \hat{B} ]= \hat{A} \hat{B} – \hat{B} \hat{B}$

Matematicamente si può dimostrare che se due osservabili non commutano, ovvero l’operazione definita prima non torna zero, allora il loro agire sullo stesso stato non sarà sulla stessa base di autostati (collegata agli autovalori di cui vi parlavo la scorsa volta). Allora che si fa? Semplice si cambia base!

Ma non dobbiamo dimenticarci che lo spazio in cui siamo è comunque di tipo $L^2$ allora come si comporta il cambio di base?… con una trasformata di Fourier!

Per vedere questo basta ricordare quando vi parlai della funzione d’onda $\psi(r)=<r|\psi>$, come base prendemmo le posizioni $|r>$ ma nessuno ci vieta di poterle cambiare con la base di autostati di qualche altro osservatore, come ad esempio $\hat{P}$. Si può dimostrare che il collegamente tra le due funzioni d’onda $\psi(r)$ e $\phi(p)$ è proprio la trasformata di Fourier, confermando quanto prima detto.

Questo ha applicazioni molto interessanti, in quanto come prima detto gli operatori $\hat{R} posizione e $\hat{P}$ l’impulso non commutano portando a questo formalismo.

Questo ci tuffa direttamente nel principio di indeterminazione in quanto le funzioni d’onda, essendo per l’appunto fenomeni ondulatori, hanno una certa indeterminazione intrinseca che è pari a:

$\sigma_A=\sqrt{<\hat{A}^2>-<\hat{A}>^2}$

E se due operatori che non commutano si trovano in gioco nello stesso momento come facciamo, ora che sappiamo che sono collegati da una trasformata di Fourier, a sapere come sono correlate tra di loro?

Esiste la dimostrazione ovviamente, lascerò la fonte ai lettori interessati ma la trovate anche su siti più comuni, l’importante è però sapere che il risultato di questo è il cosidetto principio di indeterminazione di Heisenberg:

$\sigma_A \sigma_B=\frac{|{<\hat{C}>}|}{2}$

Che nel caso di posizione e impulso, il cui commutatore è $[\hat{R},\hat{P}]=i\hbar $, ci da il più conosciuto $ \sigma_R \sigma_P=\frac{\hbar}{2} $

Vi lascio anche un video interessante sull’argomento sperando che vi aiuti meglio a capirlo meglio con la visualizzazione.

Conclusione

Con quest’ultimo articolo la mia serie sulla matematica della meccanica quantistica è finita. È stato un percorso lungo ma spero non complicato per voi da comprendere, anche se riconosco le mia scarse abilità di comunicatore. Quello che però spero sia stato chiaro e che voleva essere il mio obiettivo era far vedere come la matematica sia importantissima nelle scienze fisiche, facendolo con la scusa di parlare un po’ di meccanica quantistica. L’approccio divulgativo e filosofico a questa materia è importante e bello, ma non si può pensare di prescindere dalla matematica come sua parte fondamentale.

Per il resto le fonti per approfondire penso di averle messe un po’ tutte e mi auguro che andiate avanti con lo studio e la scoperta di questa bellissima branca della fisica, alla prossima!

La scoperta dei numeri immaginari

“Numeri immaginari”. La prima volta che sentii questa parola nell’aula del mio liceo, durante l’ora di matematica, storsi un po’ il naso. Adesso va bene tutto, bella la matematica eh, ma pure studiare quella immaginaria mi sembra un po’ un’esagerazione, pensai tra me e me. Poi, però, approfondendo maggiormente, si scopre che di immaginario hanno ben poco, anzi: sono un’arma, e bella potente. Proseguendo negli studi scoprii che questi simpaticoni spuntano fuori quando meno te lo aspetti e ti permettono di risolvere problemi a prima vista impossibili. Ma andiamo con ordine.

Un po’ di storia

Facciamo un piccolo salto indietro, circa al 1500, ma restiamo in Italia. Tra i matematici c’era una simpatica usanza molto diffusa: 2 contendenti si sfidavano a una gara matematica, e il vincitore acquisiva fama, gloria, ed era un ottimo modo per mettersi in mostra con i potenti nobili di allora. La sfida era così costituita: ognuno doveva stilare 30 problemi matematici che era in grado di risolvere, consegnarli all’avversario e questo aveva un po’ di giorni per risolverne il più possibile. Poi, dopo una certa data, i due si ritrovavano davanti alla folla per decretare il vincitore. Potete considerarlo come un analogo delle battaglie freestyle tra rapper, solo che molto più nerd. A Bologna, questa era la piazza dove si ritrovavano, davanti alla Basilica di Santa Maria dei Servi.

Immaginatevi due matematici battagliare qui davanti alla folla

Questa usanza ebbe conseguenze curiose e forse un po’ negative. Appena un matematico faceva un’importante scoperta, invece che diffonderla, se la teneva tutta per sè. Quando poi sfidava un altro matematico, gli dava 30 problemi tutti su quell’argomento, e di solito vinceva a mani basse. Per questo motivo risalire al primo scopritore di determinate soluzioni è un po’ difficile, ma ci si prova. Questo è quello che accadde per la formula generale delle equazioni di terzo grado.

La formula per le equazioni di terzo grado

I babilonesi e i greci sapevano risolvere alcuni casi particolari, ma una formula generale era ancora sconosciuta. Il primo a scoprire una formula fu Scipione del Ferro, ma, per motivi che ormai sapete, non divulgò mai. Solo in punto di morte decise di svelare qualcosa al suo migliore studente, Antonio Maria del Fiore, obbligandolo a non rivelare nulla. Successivamente anche Niccolò Fontana, detto Tartaglia per la sua balbuzie, scoprì la stessa formula, e diventato famoso per le numerose gare matematiche vinte, fu invitato da Gerolamo Cardano e Lodovico Ferrari a Milano, e rivelò loro le sue scoperte, con la promessa di non rivelarle a nessuno.

Cardano
Gerolamo Cardano

Tartaglia così descrisse a Cardano la formula scoperta, vediamo se anche voi riuscite a risolvere l’indovinello.

«Quando che’l cubo con le cose appresso
Se agguaglia à qualche numero discreto
Trovan dui altri differenti in esso.

Dapoi terrai questo per consueto
Che’llor produtto sempre sia eguale
Al terzo cubo delle cose neto,

El residuo poi suo generale
Delli lor lati cubi ben sottratti
Varra la tua cosa principale.»

Cardano in seguito venne a sapere dei risultato già ottenuti da Scipione del Ferro, e scoprì che erano gli stessi. Decise allora di infrangere la sua promessa e di pubblicarla, con il nome di Formula di Cardano, la quale permette di risolvere qualsiasi equazione di terzo grado, o quasi. Mai si sarebbe aspettato che questa formula avrebbe fatto sorgere problemi ben peggiori di quelli che risolveva. Per farvi capire, vi mostro qui di seguito il procedimento.

Come risolvere le equazioni di terzo grado

Partendo da una generica equazione di terzo grado, $ a x^3+bx^2+cx+d=0 $ , dovete applicare la sostituzione $x=y-\frac{b}{3a} $ così da eliminare il termine $x^2$ e ottenere un’equazione nella forma $y^3+py+q=0$ e adesso dovreste applicare questa facile facile formula:

$y = \sqrt[3]{-\frac{q}{2} + \sqrt{ \frac{q^2}{4} + \frac{p^3}{27}}} + \sqrt[3]{-\frac{q}{2} – \sqrt{ \frac{q^2}{4} + \frac{p^3}{27}}} $

“La bellezza è un requisito fondamentale: al mondo non c’è un posto perenne per la matematica brutta”

(Godfrey Harold Hardy)

Sarà bella questa formula? Ai posteri l’ardua sentenza. Quello che invece voglio farvi notare sono le due radici quadrate presenti nella formula. Dovreste sapere bene che un’equazione di terzo grado ha SEMPRE almeno una soluzione, e questo lo sapevano bene già i matematici ai tempi di Cardano. Però loro sapevano anche che una radice quadrata negativa non ha soluzioni, e qui nasce il problema. Partendo dal presupposto che almeno una soluzione doveva per forza esserci, per alcuni valori non riuscivano a trovarlo comunque: $\sqrt{ \frac{q^2}{4} + \frac{p^3}{27}}$ era irrisolvibile. Come trattare le radici negative? Per il momento si decise di utilizzare il termine “caso irriducibile” e arrendersi davanti alla potenza dell’ignoranza.

I “numeri silvestri”

Poi, arrivò una bella intuizione da parte di Raffaele Bombelli, matematico bolognese. La sua idea era molto semplice: “ok, le radici quadrate negative non sappiamo calcolarle…. non possiamo semplicemente ignorare il problema e andare avanti lo stesso?” decise allora di definirle “quantità silvestri” e procedette con lo studiarne le proprietà. Per Bombelli erano “quantità silvestri”, per Leibniz erano “mostri di un mondo ideale” e per Eulero erano “numeri che per la loro natura sono impossibili, che esistono solo nella nostra immaginazione”. Potete immaginare quanto abbiano scombussolato il mondo matematico. Cartesio fu il primo a dargli il nome che conosciamo, numeri immaginari.

Personalmente mi trovo un po’ in disaccordo su queste definizioni. Definire “immaginario” un campo della matematica sembra voler fare intendere che sia un qualcosa di inventato dall’uomo, che esiste solo nella sua immaginazione, quasi come se fosse falso. La parola “inventato” non deve mai essere usata in matematica. La matematica viene scoperta, non inventata.

Le leggi della matematica non sono semplici invenzioni o creazioni umane. Esse semplicemente “sono”; esistono abbastanza indipendentemente dall’intelletto umano. Il meglio che chiunque possa fare è di scoprire che queste esistono e di prenderne conoscenza.

(Maurits Cornelis Escher )

La più bella equazione della matematica

Dopo aver fatto un po’ di storia, ci terrei anche a fare un po’ di matematica. Se non avete la più pallida idea di cosa siano i numeri immaginari e di come usarli nei calcoli e vorreste una spiegazione chiara e rigorosa, vi consiglio di leggere questo articolo prima di andare avanti: https://www.mathone.it/numeri-complessi/

In questo articolo vorrei dimostrarvi come i numeri immaginari saltano fuori dove meno ve lo aspettereste. Vi ricordate quando a scuola facevate le prime funzioni, seno, coseno, logaritmo , arcocoseno e vi facevano mettere le condizioni di esistenza? Vi siete mai chiesti quali pericoli vi aspettano in quelle lande desolate al di fuori delle C.E? volete sapere quanto vale $\log{(-1)}$ o per quali valori $\cos{(x)} = 3$? Sarà che ho sempre avuto un’indole avventuriera e ho sempre odiato avere vincoli, ma io le condizioni di esistenza non le ho mai sopportate. O forse sono semplicemente pazzo, spiegherebbe molte cose. Ho sempre desiderato avventurarmi in quel regno desolato, e a fornirmi la mappa ci pensò proprio Eulero.

identità di eulero
La più bella equazione esistente in matematica, la mappa che unisce regno reale e immaginario

Credo che anche a prima vista riuscite a capire perchè è considerata l’equazione più bella di tutta la matematica. $e$ è il numero di Nepero, $\pi$ è il rapporto tra circonferenza e diametro e $i$ è un numero immaginario dotato della proprietà tale che $i^2 = -1$. Gli altri due numeri spero li conosciate.

La formula di Eulero

Adesso, dimostrarvela interamente potrebbe essere un po’ impegnativo, magari in un prossimo articolo. Per il momento mi piacerebbe darvi una prova del fatto che sia vera, ma nel caso vogliate dimostrarla voi stessi, vi darò qualche piccolo indizio. Vi serve sapere solo gli sviluppi in serie di Taylor. Se non ne avete mai sentito parlare, vi basta sapere che è un modo per trasformare funzioni complicate in semplici polinomi di lunghezza infinita. Ecco gli esempi che mi servono, se non gli avete mai visti, potete provare a disegnarli su una qualsiasi app e vedrete che sono perfettamente valide.

$e^x = 1 + x + \frac{x^2}{2!} + \frac{x^3}{3!} + \frac{x^4}{4!} + \frac{x^5}{5!} + \frac{x^6}{6!} + \frac{x^7}{7!} $ …… e così via

$cos(x) = 1 – \frac{x^2}{2!} + \frac{x^4}{4!} – \frac{x^6}{6!} +$ …… e così via

$sin(x) = x – \frac{x^3}{3!} + \frac{x^5}{5!} – \frac{x^7}{7!} +$ ….. e così via

Notate una leggera somiglianza uno dall’altro? Sono praticamente uguali, cambia solo un po’ il segno. E qui arrivano in aiuto i numeri immaginari, e vi permettono di risolvete tutto. Sostituite $e^x$ con $e^{ix}$ e $\sin{x}$ con $i\sin{x}$ e il gioco è fatto. La prima riga è esattamente uguale alla somma delle altre due. Usiamo $z$ al posto della $x$ perchè mi piace di più e otteniamo:

numeri immaginari

A questo punto, vi basta sostituire $z=\pi$ e riotterrete la formula vista prima.

Logaritmi negativi

Ora che abbiamo tutto quello che ci serve, iniziamo ad avventurarci nella desolata landa fuori dalle C.E. Partirei dal logaritmo naturale, molto semplice. Sapete bene che quando studiate $\log{x}$ dovete sempre porre $x>0$ ma per quale motivo? Cosa succede quando $x$ assume valori negativi? E’ presto detto. Considerate la prima formula, $e^{i\pi} +1 =0$ spostate il $+1$ a destra ed eseguiamo il logaritmo da entrambe le parti dell’uguale, per ottenere $\log{(e^{i\pi})} = \log{(-1)}$ .

Applicando le formule dei logaritmi troviamo che $i\pi\log{(e)} = \log{(-1)}$ e quindi che $\log{(-1)} = i\pi$.

Ora ci basta ricordare la formula del prodotto, $\log{(ab)} = \log{(a)} + \log{(b)}$ e possiamo generalizzare per qualsiasi numero negativo. infatti, $\log{(-n)} = \log{(n)} + \log{(-1)}$ ovvero che $\log{(-n)} = \log{(n)} + i\pi$ .

Il valore di un logaritmo negativo è esattamente quello che ha per valori positivi, più $i\pi$

Se quindi volessimo disegnare il grafico di $\log{(-n)}$ dovremmo semplicemente specchiare quello di $\log{(n)}$ e traslarlo nel piano immaginario di un vettore lungo esattamente $\pi$. Fermatevi un attimo a cercare di visualizzare questa cosa. Non pensate sia un risultato incredibile? La parte immaginaria di un logaritmo in base $e$ di un qualsiasi numero negativo è sempre esattamente $\pi$.

Seni e Coseni

Un’altra delle funzioni che avevano un dominio abbastanza ristretto erano l’arcoseno e l’arcocoseno, con $x$ compreso tra -1 e 1. Perchè? Cosa succede se usiamo altri valori? Considerando che queste funzioni sono esattamente l’inversa di seno e coseno, la domanda equivale a chiedersi se esistono valori di $x$ per i quali $sin(x)>1$ o $cos(x)>1$

Per rispondere, ci serve la formula più generale di Eulero, $e^{xi}=cos(x) + i*sin(x)$ effettuare prima la sostituzione $x=n*i$ dove $n$ stà ad indicare un generico multiplo. Facciamo poi qualche passaggio algebrico, ricordando che $cos(-x)=cos(x)$ e che $sin(-x)=-sin(x)$

Ecco quello che otteniamo:

$e^{n(i)(i)}=cos(in) + isin(in)$

$e^{-n}=cos(in) + isin(in)$

E in seguito ripetere sostituendo invece $x=-i\cdot n$ per ottenere:

$e^{-n(i)(i)}=cos(-in) + isin(-in)$

$e^{n}=cos(in) – isin(in)$

Mettiamo ora la seconda e la quarta assieme per ottenere:

$\begin{cases} e^{-n}=cos(in) + isin(in) \\ e^{n}=cos(in) – isin(in) \end{cases}$

Sommando e sottraendo le due righe, ottenete un espressione per calcolare seni e coseni immaginari:

$cos(in) = \frac{e^n + e^{-n}}{2}$

$sin(in) = \frac{e^n-e^{-n}}{2}i$

Ci terrei giusto a farvi notare la bellezza di quello che abbiamo appena calcolato. Per prima cosa, il seno di un numero immaginario è un numero immaginario. E fin qui non sembra nulla di troppo strano. Invece, il coseno di un qualsiasi numero immaginario è un numero Reale. Vi sareste mai aspettati prima di iniziare a leggere questo articolo che $cos(i)=\frac{e+\frac{1}{e}}{2}$?

Ora lascio a voi il compito, se l’argomento vi interessa, di approfondire. Il campo della matematica coi numeri complessi è enorme e affascinante. Pensate che qualsiasi argomento abbiate studiato nel campo Reale, può essere studiato anche in campo immaginario e complesso, e le applicazioni sono innumerevoli e utilissime.

Esiste qualcosa di più complesso dei numeri complessi?

Pensate che non ci sia altro dopo i numeri complessi? Sbagliatissimo. Così come ci sono i numeri Reali, e ci sono i numeri complessi (che possiamo chiamare bidimensionali) esistono poi i Quaternioni, numeri quadri-dimesionali, scrivibili nella forma $a+bi+cj+dk$ con $a, b, c, d$ numeri reali e $i, j, k$ che sono analoghi alla $i$ dei numeri complessi. Esistono poi gli Ottetti i Sedenioni, e chi più ne ha più ne metta, seguendo gli esponenti di $2^n$.

E così come esiste l’analisi in campo reale, esiste l’analisi complessa e l’analisi ipercomplessa, che non ho mai avuto il piacere di provare ma non faccio fatica a credere sia davvero un macello. L’unica cosa davvero interessante che so dirvi è che ogni gradino che saliamo verso la complessità, la difficoltà aumenta a livelli imbarazzanti. Non solo il numero di costanti complesse aumenta di un fattore 2^n ogni volta, ma anche perdete ogni volta una proprietà.

Nei numeri Reali, avete numeri del tipo $a$ e valgono tutte le proprietà che conoscete.

Nel numeri complessi, avete numeri del tipo $a + bi$ e perdete la relazione d’ordine.

Nei quaternioni, avete numeri del tipo $a+bi+cj+dk$ e perdete anche la proprietà commutativa

Negli ottetti, avete numeri del tipo $a+bi+cj+dk+el+fm+gn+ho$ e perdete anche la proprietà associativa

Mi fermo qui, perchè direi di avervi già terrorizzato abbastanza. Potrei magari in un prossimo articolo parlarvi dei quaternioni, numeri che hanno applicazioni gigantesche e sono usati dappertutto. Pensate che i vostri telefoni li usano costantemente per capire la loro posizione e angolazione nello spazio.

Approfondimenti

Se volete approfondire bene l’argomento, sinceramente non potrei fare altro che consigliarvi di prendere libri universitari di analisi matematica. E’ un argomento così vasto, che cibarsi di bricioline non ne renderebbe sicuramente il sapore originario. Se volete giusto affacciarvi a questo argomento per cercare di capirci meglio, vi lascio sotto dei video molto interessanti che io stesso ho guardato per imparare a naufragare dolcemente in questo mare.

Un altro video interessante è questo : https://www.youtube.com/watch?v=19c4c3SwtS8

Fonti

https://it.wikipedia.org/wiki/Storia_dei_numeri_complessi

https://it.wikipedia.org/wiki/Gerolamo_Cardano

https://it.wikipedia.org/wiki/Rafael_Bombelli

https://st.ilsole24ore.com/art/cultura/2012-02-05/numeri-grande-schermo-081450_PRN.shtml

https://www.youmath.it/domande-a-risposte/view/6122-identita-eulero.html

Sistemi dinamici integrabili : cosa sono e alcuni esempi introduttivi

Cos’è un sistema integrabile? Ci sono esempi semplici di sistemi integrabili? In questo articolo cercheremo di capire il concetto di integrabilità di un sistema dinamico, partendo da degli esempi e derivando quindi qualche risultato più generale.

sistema integrabile

Introduzione al concetto di integrabilità

In un vecchio articolo sul sito abbiamo parlato di cosa sia un integrale primo ed un sistema dinamico (se vuoi lo trovi qui https://www.mathone.it/integrale-primo/ ), oggi invece andremo a scoprire quando un sistema sia integrabile.

Cosa si può intuire dal termine “integrabile”? Supponiamo di partire da una semplice equazione differenziale : $x'(t) = 6x(t)$. Secondo te questa è integrabile?

Beh, intuitivamente sì, nel senso che possiamo integrarla, ovvero possiamo calcolarne la soluzione in forma chiusa. Infatti la funzione $x(t) = x(0)e^{6t}$ risolve l’equazione, per cui siamo riusciti ad integrare l’equazione.

Bene, questo era un esempio semplice potresti dire, ma come possiamo capire se un sistema più complicato sia o meno integrabile? Cosa vuol dire che esso è integrabile?

Intanto definiamo più rigorosamente un generico sistema dinamico, seguendo però un approccio geometrico, ovvero parlando di campi vettoriali invece che di sistemi di equazioni differenziali. Riguardo la distinzione tra questi due punti di vista puoi vedere un video che ho fatto qui sotto:

Definiamo quindi un campo vettoriale $X:\mathbb{R}^n\rightarrow\mathbb{R}^n$ che sia di classe $\mathcal{C}^1(\mathbb{R}^n,\mathbb{R})$, così che valga il teorema di esistenza e unicità. Il sistema di equazioni differenziali associato è $$\dot{x}(t)=X(x(t)).$$

Tale sistema si dice integrabile se si può trovare una funzione $x=x(t)$, tramite una sequenza di operazioni algebriche e integrazioni, che risolva il sistema di equazioni differenziali qui sopra presentato.

Bene, una volta introdotto questo concetto però è interessante scoprire se ci sono dei risultati, delle ipotesi, che ci garantiscano l’integrabilità del sistema senza integrarlo direttamente.

Infatti, immagino tu ci abbia fatto caso, la semplice equazione $x’=6x$ l’abbiamo definita integrabile perchè l’abbiamo esplicitamente risolta, ovvero integrata.

Ma la domanda importante è: esistono delle ipotesi che quando soddisfatte da un sistema ci permettono di definirlo integrabile?

Ci tengo ad evidenziare un parallelismo con le equazioni algebriche e la loro risolubilità. La teoria della risolubilità in quel caso fa riferimento ai gruppi di Galois e non andremo certo ad approfondirla, visto che non so praticamente nulla a riguardo. Però se tu avessi dimestichezza con quegli argomenti, sappi che c’è uno stretto legame almeno in termini di approccio ed intuizioni tra queste due aree della mateamatica.

Prima di vedere il più semplice risultato di questo tipo (la teoria dell’integrabilità è molto ampia e richiede buone basi teoriche nel campo della geometria differenziale e teoria dei sistemi dinamici), è importante fare una precisazione.

L’integrabilità di un sistema dinamico ( o di un campo vettoriale più in generale ), è strettamente legata alla presenza di quantità/oggetti invarianti per il sistema. Per esempio in questo campo diventano molto importanti insiemi invarianti, misure invarianti, integrali primi o simmetrie dinamiche (campi vettoriali invarianti).

Se ti interessa capire cosa sia un integrale primo, qui ho fatto un video in cui introduco questo concetto:

Integrabilità algebrica: teorema di integrabilità di Lie

Supponiamo di avere ancora un generico campo vettoriale $X=X(x_1,…,x_n)$ che sia sufficientemente regolare, per esempio $\mathcal{C}^1$. Supponiamo inoltre che esso ammetta $(n-1)$ integrali primi che siano funzionalmente indipendenti.

Prima di tutti specifichiamo cosa si intenda con quest’ultima frase. Vuol dire che ci sono $(n-1)$ funzioni $f_1,…,f_{n-1}:\mathbb{R}^n\rightarrow \mathbb{R}$ che soddisfano le due seguenti proprietà:

  • $\mathcal{L}_Xf_i = \nabla f_i \cdot X = 0 ,\;\forall i=1,…,n-1,$

  • $\nabla f_i \text{ e }\nabla f_j \text{ non sono paralleli per ogni }i\neq j.$

Allora se ciò è vero, possiamo integrare il sistema. Nel caso ci sia un integrale primo, come spiego nel video, abbiamo che gli insiemi di livello di ognuna di queste funzioni è invariante. Inoltre essendo che i gradienti di queste funzioni non sono paralleli, ovvero non sono linearmente dipendenti, ciò vuol dire che gli insiemi di livello di questi integrali primi sono tutti diversi.

Quest’ultimo fatto è dovuto alla proprietà geometrica del gradiente di essere localmente ortogonale agli insiemi di livello di $f$, per esempio se $f(x,y)=x^2+y^2$, il gradiente è $\nabla f (x,y) = [2x,2y]^T$ che, come puoi vedere nel grafico qui sotto, è localmente ortogonale alle circonferenze che definiscono gli insiemi di livello di $f$.

Cosa vuol dire nel concreto questo? Vuol dire che se fissiamo un punto iniziale da cui lasciare evolvere la dinamica, $y_0\in\mathbb{R}^n$, sappiamo che per ogni $i=1,…,n-1$, la dinamica evolverà per ogni tempo $t$ nell’insieme di livello dove vive $y_0$ di $f_i$.

Quindi supponiamo che $f_i(y_0)=c_i\in\mathbb{R}$ per ogni $i=1,…,n-1$. Allora abbiamo che l’orbita del punto $y_0$ rispetto al campo vettoriale $X$, ovvero l’insieme

$$orb(y_0) = \{\Phi_t(y_0):\,t\in\mathbb{R}\}\subset\mathbb{R}^n$$

è contenuto nell’insieme di livello $\{x\in\mathbb{R}^n : f_i(x)=c_i\}$ per ogni $i=1,…,n-1$. Di conseguenza esso apparterrà all’insieme di livello della funzione vettoriale

$$ F : \mathbb{R}^n\rightarrow \mathbb{R}^{n-1} ,\quad F(x):=(f_1(x),…,f_{n-1}(x))$$

associato al punto $\boldsymbol{c}=(c_1,…,c_{n-1})\in\mathbb{R}^{n-1}$. Essendo gli integrali primi indipendenti, questa è una funzione suriettiva e l’insieme di livello $\{x\in\mathbb{R}^n: \,F(x)=\boldsymbol{c}\}$ è di dimensione 1, ed è invariante rispetto alla dinamica. Di conseguenza sappiamo che le orbite sono contenute in questi sottoinsiemi invarianti.

In più si vede facilmente che il sistema può essere integrato esplicitamente, questo è anche chiamato teorema di integrabilità di Lie.

Giusto per essere chiari, il fatto che sia integrabile esplicitamente non vuol dire che non rimarranno integrali da calcolare nell’espressione finale, vuol dire che a meno di essere in grado di calcolare quegli integrali, abbiamo un’espressione esplicita. Spesso infatti si incontrano i cosiddetti integrali ellittici che non sono risolvibili, ma ciò non è un problema o almeno non è un ostacolo verso la definizione di integrabilità.

Per accertarci della possibilità di integrare il sistema e trovarne l’integrale generale in forma chiusa, senza perderci in formalismi eccessivi, supponiamo di definire $n-1$ variabili come segue: $y_1=f_1$, …., $y_{n-1}=f_{n-1}$. Prendiamo poi una $n-$esima variabile da esse indipendente (questa esiste visto che abbiamo uno spazio di dimensione $n$: $\mathbb{R}^n$), chiamiamola $y_n$.

Allora siccome, per quanto abbiamo visto prima riguardo gli integrali primi, gli insiemi di livello di queste funzioni sono invarianti, esiste una funzione $g:\mathbb{R}^n\rightarrow \mathbb{R}$ tale che il sistema può essere riscritto, nelle nuove coordinate $\boldsymbol{y}$ come segue:

$$ \dot{y}_1 = 0 $$

$$ …. $$

$$ \dot{y}_{n-1} = 0 $$

$$ \dot{y}_n = g(y_1,…,y_n) $$

dove l’ultima equazione può essere integrata e possiamo quindi risolvere in forma chiusa il sistema.

Proviamo a ragionare più nel dettaglio su questa nuova formulazione del sistema. Quello che abbiamo fatto è trasformare il campo vettoriale di partenza, che era nelle coordinate $\boldsymbol{x}=(x_1,…,x_n)$, nelle nuove coordinate $\boldsymbol{y}=(y_1,…,y_n)$ che non sono prese a caso ma sono “speciali”. Per precisazione, questa operazione si dice coniugazione topologica del campo vettoriale.

Detto ciò, come possiamo sfruttare queste coordinate? Beh, vediamo facilmente che le prime $(n-1)$ equazioni sono integrabili e restituiscono $y_i=c_i$ con $i=1,…,n-1$. Da ciò segue che non resta che risolvere l’ultima equazione differenziale:

$$ \frac{dy_n}{dt}(t) = g(c_1,…,c_{n-1},y_n) = \tilde{g}_{\boldsymbol{c}}(y_n(t)), $$

che ci permette di ricavare $y_n(t)$, a meno di risolvere integrali.

Conclusione

La teoria dell’integrabilità è un campo molto interessante sia nel caso di campi vettoriali su spazi vettoriali (o varietà) di dimensione finita che infinita (nel caso della teoria quantistica per esempio). I risultati però si fanno parecchio complicati e quindi ho preferito concentrarmi solo su uno tra i risultati più intuitivi, ovvero il teorema di Lie.

Un altro famoso e classico risultato invece riguarda i sistemi Hamiltoniani, esso è il teorema di Liouville-Arnol’d e, nel caso le sue assunzioni siano soddisfatte da un sistema Hamiltoniano, esso ci porta a definire completamente integrabile tale sistema.

Magari su questo risultato possiamo soffermarci in un articolo più avanti, dopo averne dedicato uno all’introduzione dei campi vettoriali Hamiltoniani, così da definire un po’ di contesto.

Per questo articolo direi che possiamo concludere, se hai qualche domanda o suggerimento lascia pure un commento qui sotto, appena posso ti risponderò 🙂