Il mondo della probabilità: il caso esiste?

Sin dall’antichità gli uomini sono stati affascinati dal mondo del gioco d’azzardo, del betting e di tutto ciò che sembra imprevedibile e sul quale vale la pena scommettere per avere quel brivido dato dalla speranza che un evento avvenga. Su come sia nata la probabilità ve ne avevamo già parlato in questo articolo molto interessante, ma adesso vogliamo andare un po’ oltre e chiederci: ma la probabilità esiste? Ossia, il caso (quindi la fortuna) governa questo mondo? Se lo dovessimo chiedere a Woody Allen, avremmo già la risposta nell’incipit del suo film “Match Point”.

Ma chiaramente questo non è un articolo di cinema, quindi andiamo ad analizzare velocemente i due rami filosofici che hanno caratterizzato il pensiero umano dagli antichi greci in poi. Sostanzialmente ci si può riferire a due filoni diversi: per primi ci sono quelli che pensano che il caso non esista e dunque quello che comunemente viene definito come tale è soltanto “ignoranza” sul fenomeno in analisi. Cioè si attribuisce una probabilità ad eventi che aleatori non sono semplicemente perché non si può fare di meglio con gli strumenti che si hanno a disposizione. Si parla quindi di probabilità epistemica.

Questo atteggiamento è adottato dalla filosofia cristiana, secondo cui tutto sta nel disegno della Provvidenza, e da altri filosofi quali Spinosa ad esempio. Ma anche gli scettici, che pensavano che la verità assoluta fosse irraggiungibile, assumevano una posizione di questo tipo – detta probabilismo gnoseologico. Dunque sospettiamo che un evento sia casuale, ma approfondiamo la conoscenza per arrivare il più possibile alla verità.

Se vi sembra un atteggiamento banale, ricordiamo che inizialmente i fenomeni meteorologici erano considerati totalmente casuali, mentre oggi sappiamo che le leggi che lo governano sono caotiche e deterministiche – e della differenza tra caos e caso già vi abbiamo detto qui.

Il secondo filone risponde che sì, il caso esiste perché non vi è nessuna legge deterministica (di tipo lineare) che governa il fenomeno in analisi. Ossia il caso è insito nell’essenza dell’evento che stiamo studiando, per questo parliamo di probabilismo ontico. Dunque non ha senso andarne ad analizzare il suo carattere dinamico – o perché non vi è niente di deterministico sotto o piuttosto perché le leggi che lo governano sono troppo intricate – piuttosto accettiamo di studiarlo soltanto dal punto di vista stocastico/probabilistico. Questo ramo è quello che ha preso maggiormente largo grazie alla meccanica quantica, dove alcuni fenomeni sono fisicamente stocastici.

Per fare un esempio pratico, è inutile studiare le leggi che governano il lancio di una monetina – a seconda di come viene lanciata, del peso, ecc. – piuttosto accettiamo di assegnare una probabilità agli eventi testa e croce.

L’ultima frase ci permette di spostarci dal campo filosofico a quello matematico: che cosa significa “assegnare una probabilità”? Cos’è la probabilità? Allora diamo velocemente le quattro diverse definizioni di probabilità che hanno preso piede dal 1600 fino ad oggi. Iniziamo con la definizione classica:

Definizione 1 (Probabilità Classica)

Si definisce probabilità di un evento $E$ il rapporto fra i casi favorevoli in cui si verifica $E$, diciamo $m$, e il numero di casi totali che indicheremo con $n$, con la condizione che tutti i casi siano equiprobabili. Ossia:

\[ \mathbb{P}(E)=\frac{m}{n} \]

dove con $\mathbb{P}(E)$ stiamo indicando la probabilità dell’evento E. Dunque, in un esempio, se il caso in analisi è il lancio di una moneta e $E$ è l’evento testa , allora $m=1$ e $n=2$, in quanto i casi totali sono testa e croce. Per cui $\mathbb{P}(E)=\frac{1}{2}$, che è effettivamente la probabilità naturale che diamo alle facce di una moneta. La definizione però ha enormi pecche: innanzitutto dobbiamo sapere quanti sono i casi che fanno sì che si verifichi $E$, si applica solo al caso discreto ma soprattutto tutti i casi devono essere equiprobabili. Ma che significa equiprobabili se ho appena definito la probabilità? Insomma, la definizione è circolare e non può essere utilizzata. Viene anche detta probabilità a priori in quanto assegno un numero ad ogni evento prima che questo si verifichi.

Definizione 2 (Probabilità Frequentista)

Si supponga di poter svolgere $n$ prove tutte nelle stesse condizioni e indipendenti. Si definisce probabilità di un evento $E$ il rapporto tra le prove in cui l’evento $E$ si è verificato, che indichiamo con $m$ e le prove che sono state effettuate, che facciamo tendere ad infinito. Ossia:

\[ \mathbb{P}(E)=\lim_{n \to +\infty} \frac{m}{n} \]

Per cui, facendo un esempio, per valutare la probabilità dell’evento testa in un lancio di moneta, farò un numero elevato di prove e segnerò tutte le volte in cui è effettivamente uscito testa. La probabilità classica e quella frequentista vanno a coincidere nei casi in cui sono entrambe calcolabili. Anche in questo caso abbiamo un problema: non è sempre possibile svolgere $n$ esperimenti – se vogliamo calcolare la probabilità che un determinato asteroide colpisca la Terra, evidentemente non possiamo farlo. Questa viene definita anche probabilità a posteriori in quanto assegno una probabilità agli eventi dopo che essi si sono verificati. Ora stiamo per dare la definizione probabilmente meno matematica che abbiate mai visto – eppure molto più efficace delle due precedenti.

Definizione 3 (Probabilità Soggettiva)

Si definisce probabilità di un evento $E$ il grado di fiducia che un individuo razionale pone al realizzarsi di quell’evento, date le conoscenze che possiede in quel momento. Per grado di fiducia si intende un prezzo $p \in [0,1]$ che si è disposti a pagare per ricevere $1$ nel caso in cui $E$ si realizzi.

Facciamo un esempio pratico: quanto siete disposti a pagare per ricevere un euro nel caso in cui, lanciando una moneta, esca testa? Poiché l’individuo è razionale, con le conoscenze che ha dirà ovviamente 50 centesimi, cosicché se esce testa vince 50 centesimi mentre se esce croce ha perso quelli della scommessa. Questo però si applica anche a casi in cui gli eventi non siano bilanciati né di tipo dicotomico – ossia due soli eventi.

La prospettiva è totalmente rivoltata: la probabilità è dentro di noi, non fuori. Quanto volete scommettere per ricevere un euro nel caso in cui la Juventus riesca a battere il Chievo? Qualcuno dirà 90 centesimi, qualcun altro 85, a seconda delle informazioni che hanno e del grado di fiducia. Per una partita di calcio, le altre due definizioni non erano applicabili – posso dire che vittoria, pareggio e sconfitta siano equiprobabili in Real Madrid-Pergolettese? Né posso far giocare mille e mille volte la stessa partita nelle stesse condizioni. E arriviamo finalmente alla definizione che viene attualmente utilizzata e che racchiude le tre precedenti.

Definizione 4 (Probabilità Assiomatica di Kolmogorov)

Sia $\Omega$ l’insieme degli eventi elementari del fenomeno in analisi e sia $\mathcal{F}$ la $\sigma$-algebra costruita su $\Omega$, ossia una famiglia di sottoinsieme delle informazioni – o eventi composti. Allora definiamo probabilità una funzione $\mathbb{P}: (\Omega, \mathcal{F}) \to [0,1]$ tale per cui

  1. $\mathbb{P}(\Omega)=1$
  2. Siano $A,B \in \mathcal{F}$ due eventi incompatibili (ossia $A  \cap B= \emptyset  $), allora \[
    \mathbb{P} (A \cup B)= \mathbb{P}(A)+\mathbb{P}(B) \]

Questa definizione, una volta capiti cosa siano $\Omega$ e una $\sigma$-algebra, è di sicuro la più rigorosa dal punto di vista matematico nonché quella più applicabile. Per capirla bene, però, vi rimandiamo ai prossimi appuntamenti in cui parleremo anche di processi stocastici – un esempio, la rovina del giocatore.

Se ti è piaciuto il mio primo articolo su Mathone, fammelo sapere così possiamo andare avanti con questi nostri incontri. Fammi sapere anche se ti interessa il campo probabilistico-statistico, un ramo della matematica che ultimamente trova tantissime richieste in ambito lavorativo e tantissima attenzione anche nell’opinione pubblica, e se vorresti qualche approfondimento particolare o qualche curiosità!

Alla prossima da Federico!

Un commento

  • Giuseppe Duso

    Il nostro è un mondo “bayesiano” , ma la matematica ci aiuta ad entrare in un campo di regole che, anche se statistiche, aiutano a decidere.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.