Imprint | Privacy Policy

Fondamenti di Probabilità

(Press ? for help, n and p for next and previous slide; usage hints)

andrea venuti (License Information)

A separate Howto for Text-To-Speech (TTS) with emacs-reveal exists as well...

Fondamenti di probabilita’

General

La prima parte consiste nel trovare metodi razionali per la caratterizazione di fenomeni casuali La seconda parte invece consiste nel descrivere gli eventi ( segnali ) aletori dipendenti dal tempo.

Definizioni generali

  • Evento : risultato osservato;
  • Descrizione di un singolo evento : associazione di un singolo evento del fenomeno casuale ad un valore reale mediante l’uso della probabilita’ ( prob calssica / prob. statistica);
  • Insieme Campionario Insieme formato da tutti i possibili risultati di un esperimento. Può essere continuo o discreto;
  • Classe Insieme C formato da sottoinsiemi di S;
  • Campo Si denota con \(\mathcal{F}\) ed è una particolare classe in cui ogni elemento costituisce un evento L’utilizzo dei campi permette di definire in modo analitico gli eventi di modo che questi siano sempre associati a risultati dell’ esperimento. Ad esempio in caso nel caso del lancio di una moneta abbiamo \(\mathcal{F}=\{\oslash, testa, croce, S\}\) con \(S=\{testa,croce\}\) e con \(P(s_i)=\frac{1}{2}\).
  • Variabile Aleatoria Associa ad ogni risultato di un esperimento, oppure ad un sottoinsieme di risultati, un valore reale permettendo implicitamente una numerazione dello spazio campionario. Puo’ essere discreta oppure continua a seconda se l’insieme campionario e’ discreto o continuo. In questo seondo caso si considerano solo intervalli.
  • Descrizione di esperimento Raggruppamento dei possibili eventi di un fenomeno casuale con associazione di un evento casuale ad un valore reale ( variabili aleatorie ) e rappresentazione mendiante la Funzione di distribuzione e la funzione della densita’ di probabilita’ il cui gli argomenti sono le variabili aleatorie.
  • Indici di un esperimento Insieme di valori che permettono di caratterizzare un esperimento conoscendo le v.a. senza ricorrre allo studio delle funzioni che lo descrivono.

La Probabilita’

\(P(A \cup B)=P(A)+P(B) - P(A \cap B) \leq P(A) + P(B)\)

che si giustifica la definizione, infatti se la probalilita’ e’ la misura della superficie allora la probabilita’ totale e’ la somma delle superficie dei sottoinsiemi A e B meno la supericie comune;

paub.png

Figure 1: \(P(A \cup B)=P(A)+P(B) - P(A \cap B)\)

Postulati della Probabilità

  1. \(P(A) \geq 0 \ \forall A\);
  2. \(P(S)=1\) \(P(\oslash)=0\);
  3. \(\forall \ A \cap B=\oslash \ \rightarrow P(A \cup B)=P(A)+P(B)\) eventi mutuamente esclusivi;
  4. \(\forall \ A \cap B \neq \oslash \ \rightarrow P(A \cup B)=P(A)+P(B) - P(A \cap B)\)

Teorema dell’esperimento

Usando le proprieta’ della FDD una funzione \(G(x)\) reale rappresenta una funzione di distribuzione se :

  1. \(G:R \rightarrow R_x\)
  2. \(G(\infty)=1\)
  3. \(G(-\infty) =0\)
  4. \(G(x_1) \leq G(x_2) \ \forall \ x_1 \leq x_2\)

COROLLARIO : Se esiste una funzione \(G(x)\) con le proprietà di cui sopra allora esiste un esperimento \(E\) t.c. la funzione di distribuzione dell’esperimento è coincide con \(G(x)\).

Descrizione dell’evento mediante funzioni

Funzione di distribuzione di probabilita’ - FDP

La funzione di distribuzione di probabilità (FDP), detta anche funzione di ripartizione cumulativa di una variabile aleatoria X è una funzione che descrive la probabilità che X assuma un valore inferiore o uguale a un certo valore \(x_i\). In altre parole, la FDP fornisce la probabilità che l’evento \(X \leq x_i\) si verifichi e ne rappresenta il grafico. La definizione formale e’

\begin{equation} \label{eq:101} \begin{split} sia \ F_X: R \rightarrow [0,1] \\ allora \\ F_X(x_i)=P(X \leq x_i)= \left \{ \begin{matrix} \int_{-\infty}^{i} f_X(x_i) d_x && in\ campo\ continuo \\ \sum_{k=-\infty}^{i} P(X=x_i) && in\ campo\ discreto \end{matrix} \right. \end{split} \end{equation}

Proprieta’ della FDP

  • La FDP e’ una funzione non decrescente;
  • La FDP e’ sempre compresa tra 0 e 1;
  • \(F_X(- \infty)=0\) evento impossibile;
  • \(F_X(\infty)=1\) evento certo;
  • Se X e’ una variabile aleatoria continua la FDP è una funzione continua infatti :
\begin{equation} \label{eq:5101} \begin{split} F_X(x_{0}^{-}) - F_X(x_{0}^{ + }) = \int_{-\infty}^{x_{0}^-}f(x) d_x - \int_{-\infty}^{ x_{0}^+} f(x) d_x=\\ \int_{x_{0}^-}^{x_0^+}f(x)d_x = 0 \end{split} \end{equation}
  • Se X e’ una v.a. discreta il grafico della FDP presenta discontinuità ( limiti dx e sx tendono ad un valore diverso ) a sx della v.a. l’ampiezza del salto indica la probabilità associata all’i-esima v.a. \(F_X ( x_i ) = P_X ( X \leq x_i ) \neq 0\). Ad esempio nel lancio di un dado vale 1/6. Da notare che le probabilità a sx e a dx volgono, rispettivamente, \(P_X ( X \leq x_0 )\) e \(1 - P_X(X \leq x_0)\) e per ogni intervallo \([x_i,x_i + 1(\) la \(F_X(x_i)\) rimane costante .

Metodo Pratico di calcolo della FDP

Sia N il numero di esperimenti o realizzazione della v.a. la funzione fdp, e sia \(\#\) il numero di prove con l esito sperato.

\begin{equation} \label{eq:1011} \begin{split} F_X(x) \approx \frac{\# \{ x \leq X \}}{N} \end{split} \end{equation}

Funzione di densita’ di probabilita’ - fdp

La fdp una funzione che descrive la probabilità che una variabile aleatoria continua assuma un certo valore. È una funzione non negativa, il cui integrale su tutto l’insieme di definizione di S è uguale a 1. La fdp può essere utilizzata per calcolare probabilità, medie, varianze e per modellare fenomeni reali. Definita come :

\begin{equation} \label{eq:1103} \begin{split} f(x)=\frac{dF_X(x)}{dx} \end{split} \end{equation}

La fdp rappresenta una probabilita’ solo quando si considera un intervallo e non quando e’ puntuale cioe :

\begin{equation} \label{eq:1101} \begin{split} f(x)= \lim_{\Delta X \rightarrow 0} \frac{P(X + \Delta X) - P(X)}{\Delta X} = \lim_{\Delta X \rightarrow 0} \frac{P(X < x \leq X + \Delta X) }{\Delta X} \end{split} \end{equation}

Proprieta’ della fdp

  1. \(f(x) \geq 0\);
  2. \(\int_{-\infty}^{\infty} f(x)dx =F_X(\infty) - F_X(-\infty)=1\);
  3. \(P(\{x_1 < x(s) \leq x_2\})=\int_{x_1}^{x_2}f(x)dx\);

La probabilità che X assuma un valore in un certo intervallo \([x_1, x_2]\) è uguale all’integrale della PDF su quell’intervallo:

\begin{equation} \label{eq:1104} \begin{split} P(x_1 \leq X \leq x_2)=\int_{x_1}^{x_2} f(x) d_x \end{split} \end{equation}

Metodo pratico di calcolo fdp

Sia N il numero di esperimenti o realizzazione della v.a. la funzione fdp, e sia \(\#\) il numero di prove con l esito sperato.

\begin{equation} \label{eq:1021} \begin{split} f(x) \approx \frac{\# \{X \leq x \leq X + \Delta \} } {N * \Delta X } \end{split} \end{equation}

Posizione di due v.a.

v.a. indipendenti

Due v.a. sono indipendenti quando

\(p(X_0 , X_1 ) = p(X_0 ) · p(X_1 )\)

Probabilita’ condizionata - teorema di Bayes

probabilita’ che si verifichi l’evento \(x_1\) quando si verifica \(x_0\)

\(p(X_1 |X_0 ) = \frac{p(X_1 , X_0 )}{p(X_0 )}\)

  • P(X1∣ X0) rappresenta la probabilità dell’evento X1 dato che l’evento X0 si è verificato, detta anche probabilità condizionata di X1 rispetto a X0.
  • P(X0) e P(X1) sono le probabilità marginali di X0 e X1 rispettivamente, cioè le probabilità di X0 e X1 senza alcuna condizione.

In termini più intuitivi, il teorema di Bayes afferma che la probabilità che un evento X0 si verifichi, data l’occorrenza di un evento X1, è proporzionale alla probabilità dell’evento X1, dato che l’evento X0 si è verificato, moltiplicata per la probabilità dell’evento X0, e divisa per la probabilità dell’evento X1.

Probabilità Congiunta

Modella il concetto di un esperimento descritto con n v.a. ( teoria per n = 2 ) :

Siano X, Y due v.a. definite come :

\begin{equation} \label{xmfprob} X: \Omega \rightarrow \mathbb{R} \end{equation}
\begin{equation} \label{ymfprob} Y: \Omega \rightarrow \mathbb{R} \end{equation}

Funzione di distribuzione di probabilita’ - FDP

In modo analogo a come si e’ definita l’analoga funzione per una variabile si ha che la FDP in piu’ variabili e’ definita come

\begin{equation} \label{mfprob} \begin{split} sia\ F_{XY} : R^2 \rightarrow [0,1] \\ allora \\ F_{XY}(x_i,y_i)= P_{XY} (X \leq x_i, Y \leq y_i)= \left \{ \begin{split} \sum_{X \leq x_i} \sum_{X \leq y_j} P( x_i, y_j ) = \sum_{X \leq x_i} \sum_{X \leq y_j} p_{ij} && per \ v.a. \ discrete \\ \int_{-\infty}^{x_i} \int_{-\infty}^{y_j} f_{XY}(x,y) d_x d_y && per \ v.a. \ continue \end{split} \right. \end{split} \end{equation}

in cui

\begin{equation} \label{eq:0101} \begin{split} f_{XY}(x,y)=\frac{\delta ^2 F_{XY}(x,y)}{\delta_x \delta_y}= P(X < x \leq X + \Delta X, Y < y \leq Y +\Delta Y) \end{split} \end{equation}

Vettore di v.a.

Sia \(\vec{x}=[x_1, \ldots, x_n]\) un vettore di v.a. allora la definizione di funzione di probabilita’ diviene come quella indicata nella \eqref{eq:0102}

\begin{equation} \label{eq:0102} \begin{split} f(x_1, \ldots, x_n)=\frac{\delta^n F_X(x_1, \ldots, x_n)}{\delta_1x \ldots \delta_n} \end{split} \end{equation}

Momenti di una v.a

Sono indici che descrivono il comportamento di una v.a. e l’ordine indica il numero di v.a. considerate

Definizione di momento

Permettono la caratterizzazione di un p.a. anche senza conoscere la FDP associata ad una v.a.

In generale, il k-esimo momento di una variabile casuale discreta X è definito come:

\begin{equation} \label{eq:45102} \begin{split} \mu^k=\sum_{n=1}^{N}x_{i}^{k}p_i \end{split} \end{equation}

mentre per il caso continuo

\begin{equation} \label{eq:45103} \begin{split} \mu_k=\int x^k f(x) d_x \end{split} \end{equation}

in cui

  1. \(\mu^k\) è il k-esimo momento centrale;
  2. \(x_i\) è la variabile casuale;

Definizione di momento centrale

I momenti centrali di una variabile aleatoria sono una serie di statistiche che forniscono informazioni riguardo alla distribuzione della variabile stessa. Essi sono calcolati rispetto alla media della distribuzione e aiutano a descrivere la forma e la dispersione dei dati e per il caso discreto sono definiti come :

\begin{equation} \label{eq:55102} \begin{split} \mu^k=\sum_{n=1}^{N}(x_{i} - m)^k p_i \end{split} \end{equation}
  1. \(\mu^k\) è il k-esimo momento centrale;
  2. \(x_i\) è la variabile casuale;
  3. \(m\) è la media della variabile casuale.

Media o Valore atteso

Analoga alla media matematica. quando la media e’ nulla allora una probabilita’ equa significa che si ha la stessa probabilita’ che un evento si verifichi o meno. Dal punto di vista analiticho per v.a. continue la f(x) e’ simmetrica.

  • Media del primo ordine
    1. v.a. discrete : \(m_x = \sum_{x_i} p_i x_i\)
    2. v.a. continua : \(m_x = \int_{-\infty}^{\infty} xf(x) d_x\)
  • Media del secondo ordine
    1. v.a. discrete : \(m_{xy} = \sum_{i,j}x_i y_j f(x,y)\)
    2. v.a. continue : \(m_{xy} = \int_{X} \int_{Y} xy f_{XY}(x, y) d_x d_y\)
      1. Medie marginali (o valori attesi marginali): Le medie marginali di X e Y sono definite rispettivamente come:
        1. \(m_x = \int x f_X(x) dx\)
        2. \(m_y = \int y f_Y(y) dy\)

          dove \(f_X(x)\) e \(f_Y(y)\) sono le densità marginali di X e Y rispettivamente.

  • Potenza Nel caso di v.a. con media nulla la varianza si ha :

    \begin{equation} \label{pot} P = E\{x^2(\omega)\}=\int x^2f_x(x)d_x \end{equation}

Varianza, Covarianza e Correlazione

E’ una misura della variabilita’ della v.a. . La sola media non e’ sufficente a caratterizzare una v.a. allora si definisce una variabile intesa come la sommatoria della differenze tra la media e le singole v.a. . Essendo una sommatoria puo’ accadere che la somma sia nulla e allora si usa il quadrato delle singole differenze. Da notare che \(x_i - m_i\) rappresenta una distanza.

  • Varianza ( primo ordine )
    1. v.a. discreta : \(\sigma^2 = \sum_{i}(x_i - m_i)^2\);
    2. v.a. continua : \(\sigma^2 = \int_{-\infty}^{\infty} (x - m)^2 f(x) d_x\)
    3. Da notare che la varianza puo’ essere definita come \(\sigma^2=P - m\)
  • Scarto quadratico medio o deviazione standard Definito come \(\sigma=\sqrt{\sigma ^2}\) ed e’ utilizzato per poter confrontare media e varianza.
  • Correlazione Questa equazione deriva da quella della covarianza ma con v.a. a media nulla e le conclusioni sono le stesse della covarianza.
\begin{equation} \label{eq:10002} R_{xy} = \iint_{-\infty}^{\infty} xyf_{xy}(x,y)d_xd_y \end{equation}
  • Covarianza ( secondo ordine ) Indica come le variazioni di una variabile sono associate alle variazioni dell’altra variabile.
\begin{equation} \label{eq:103} \begin{split} C_{xy}= \left \{ \begin{matrix} \sum_i \sum_j (x_i - m_x) ( y_j - m_y) p_{ij} && v.a. \ discrete \\ \iint_{-\infty}^{\infty} (x- m_x)(y - m_y) f_{xy}(x,y)d_xd_y && v.a. \ continue \end{matrix} \right. \end{split} \end{equation}

Autocovarianza - Autocorrelazione

  1. autocovarianza
    • Tempo discreto : \(C_{xx}[n,n+m]= \iint_{-\infty}^{\infty} (x_n - m_{x[n]})(x_{(n+m)} - m_{x[n+m]}) f_{x[n],x[n+m]}(X,Y)d_X d_Y\)
    • Tempo continuo : \(C_{xx}(t,t+\tau)=\iint_{-\infty}^{\infty}(x(t) - m_t)(x(t + \tau) - m_{t+\tau})f_{xx}(x(t),x(t + \tau))\)
  2. autocorrelazione Funzione del valor medio dipendente solamente da due istanti diversi:
    • Tempo discreto : \(R_{xx}[x_n,x_{n+m}]=\iint_{-\infty}^{\infty} x_n x_{(n+m)} f_{xx}(x[n],x[n+m])d_X d_Y\);
    • Tempo continuo: \(R_{xx}(\tau)=\int_{-\infty}^{\infty} x(t)x(t-\tau)d_t\)

Statistiche del secondo ordine - Crossvarianza

Misura la similarita’ tra due serie temporali diverse, ma ad intervalli temporali diversi. È utilizzata per valutare se due serie temporali sono correlate tra loro e come questa correlazione varia nel tempo. Può essere usata per esaminare le relazioni causa-effetto tra due serie temporali o per identificare se ci sono legami temporali tra di esse. Da come risultato una matrice ed e’ definita come segue :

Sia \(x=x(t_1)\) e \(y=y(t_2)\) allora \(CR_{xy}(x,y)=E\{(x - \mu_x)(y -\mu_y)^*\}\)

che per

  1. Sistemi a tempo discreto vale
\begin{equation} \label{eq:7101} \begin{split} CR_{xy}(X,Y) = \frac{1}{n-1} \sum_{i=1}^{n} (x_i - \mu_{x(i)}) (y_i - \mu_{y(i)}) \end{split} \end{equation}
  1. Sistemi a tempo continuo vale
\begin{equation} \label{eq:7102} \begin{split} CR_{xy}(X,Y) = \int_{t_1}^{t_2} (x_i - \mu_{x(i)}) (y_i - \mu_{y(i)}) d_t \end{split} \end{equation}

Statistiche del secondo ordine - Crossrelazione

La cross-correlazione è una misura di quanto due segnali o serie temporali siano simili tra loro in momenti diversi. Confronta due serie temporali per vedere se esiste una relazione tra di esse. È utilizzata per determinare se ci sono ritardi o avanzamenti tra i due segnali e per identificare eventuali relazioni di causa-effetto. Ad esempio, la cross-correlazione potrebbe essere utilizzata per determinare se c’è una relazione tra la temperatura e la domanda di energia elettrica: una forte correlazione positiva potrebbe indicare che un aumento della temperatura porta a un aumento della domanda di energia elettrica.

Sia \(x=x(t_1)\) e \(y=y(t_2)\) allora \(CC_{xy}(x,y)=E\{(x)(y)^*\}\)

  1. Tempo discreto : sia \(\tau \in Z\) allora la crossrelazione e’ definita come \(CC_{xy}[\tau]=E=\{XY^T\}E\{x[n]y[n+\tau]^T\}=\sum_{t=-\infty}^{\infty}x[n]y[n+\tau]^T\)

Nel caso reale si ha che

\begin{equation} \label{eq:3101} \begin{split} CC_{xy}[\tau]=E\{XY^T\}E\{x[n]y[n+\tau]^T\}=\sum_{t=1}^{N}x[n]y[n+\tau]^T= \\ \begin{matrix} E[X_1Y_1] && E[X_1Y_2] && \cdots && E[X_1Y_m] \\ \cdots \\ E[X_nY_1] && E[X_1Y_2] && \cdots && E[X_1Y_m] \end{matrix} \end{split} \end{equation}
  1. Tempo continuo

    \(CC_{xy}(\tau)=E\{x(t)y^*(t - \tau)\}= \int_{-\infty}^{\infty}x(t)y^*(t-\tau) d_t\)

V.A. Gaussiane

Definizione di v.a. gauassiana

E’ un tipo di variabile aleatoria continua completamente caratterizzata da due parametri: la sua media (o valore atteso) e la sua deviazione standard.

La distribuzione gaussiana è simmetrica rispetto alla sua media e ha la forma di una curva a campana, comunemente nota come curva a forma di “campana di Gauss”. Questa distribuzione è ampiamente utilizzata in statistica e in molti campi scientifici e ingegneristici per modellare fenomeni naturali, e molte leggi del mondo reale tendono a seguire questa distribuzione.

La funzione di densità di probabilità di una variabile casuale gaussiana è data dalla formula:

\begin{equation} \label{eq:55101} \begin{split} f(x)=\frac{1}{\sigma_x \sqrt{2 \pi}}e^{-\frac{1}{2}(\frac{x - \mu_x}{\sigma_x})^2 } \end{split} \end{equation}

Densità di probabilità di N v.a. congiuntamente Gaussiane

Rappresenta la generalizzazione della distribuzione Gaussiana al caso multivariato. Sia x un vettore composto da N v.a. congiuntamente Gaussiane è caratterizzato da una funzione di densita’ di probabilita’ pdf avente la seguente espressione:

\begin{equation} \label{eq:55104} \begin{split} f(x)=\frac{1}{\sqrt{(2\pi)^N det(C_x)}}e^{-\frac{1}{2}(X- m_x)^TC_{x}^{-1}(X- m_x) } \end{split} \end{equation}

in cui \(C_x\) e’ la matrice di covarianza del vettore x

Nel caso di 2 v.a. si ha che

\begin{equation} \label{eq:11101} \begin{split} f(x,y)= \frac{1}{2\pi \sigma_x \sigma_y \sqrt{1 - \rho^2}} e^{ -\frac{2}{1 - \rho^2} \left [ \frac{(x - m_x)^2}{\sigma^2_x} -2 \rho \frac{(x - m_x)(y - m_y)}{\sigma_x \sigma_y} + \frac{(y - m_y)^2}{\sigma^2_y} \right ] } \end{split} \end{equation}

Proprieta’ della gaussiana

  • se \(\rho\) è zero (v.a. incorrelate), la densita’ di probabilita’ diventa separabile nelle variabili \(x\) e \(y\) (v.a. statisticamente indipendenti );
  • le pdf marginali sono ancora Gaussiane;
  • le pdf condizionali sono ancora Gaussiane. In particolare, vale
\begin{equation} \label{eq:102} \begin{split} f_{(x|y)}(x|y)=\frac{f_{xy}(x,y)}{f_y(y)} = \frac{1}{\sqrt{2 \pi \sigma^2_{(x|y)}} } e^ { -\frac{(x - m_{(x|y)})^2}{2\sigma^2_{(x|y)}} } \end{split} \end{equation}

dove

  • \(m_{x|y}=m_1 +\rho \frac{\sigma_1}{\sigma_2}(y - m_y)\)
  • \(\sigma^2=(1 -\rho^2)\sigma_x\)

V.A. Complessa

Definizione

Dalla definizione ricavata dal * a pag 190 una v.a. complessa è una funzione del tipo \(Z(\omega):\Omega \rightarrow \mathbb{C}\) avente struttura di un numero complesso \(z(\omega)=x(\omega)+jv(\omega)\) e pertanto la relazione tra DDP e ddp è ridefinita come segue :

\begin{equation} \label{eq:02} \begin{split} F_{Z(\omega)}(z({\omega}))=F_{Z(\omega)}(x_{\omega},y_{\omega})=\\ =\int_{Iz=[Ix,Iy]} zf_{Z(\omega)}(z)d_z=\int_{Ix} \int_{Iy} f_{x(\omega),y(\omega)}(x,y)d_x d_y=\\ =\int_{Ix} \int_{Iy} (f_{reale}(\omega)+jf_{immagin.}(\omega))d_x d_y=\int_{Ix} \int_{Iy} [x(\omega) + jy(\omega)]d_x d_y=\\ =\int_{Ix}x(\omega)d_x +j\int_{Iy}y(\omega)d_y \end{split} \end{equation}