# Vettori aleatori
Introduzione vettori di più variabili aleatorie. Nel caso di n=2 è comodo utilizzare tabelle per rappresentare i valori di probabilità.
$(X_1 , X_2, X_3,...):\Omega \rightarrow \mathbb{R}\times\mathbb{R}\times\mathbb{R}....$
## Funzione densità congiunta
caso discreto:
$f(x,y)= \sum_i \sum_j P(x=X_i,y=Y_j)$
caso continuo:
$f(x,y)= \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} P(x,y) dx dy$
## Densità marginale
Fun Fact: si chiama così perchè (in situazioni con due vettori di dimensione $n=2$) è la probabilità che si trova 'ai margini' della tabella tipicamente utilizzata per rappresentare le probabilità.
Molto semplicemente è la probabilità di una delle variabili fissate le altre.
Nel caso n=2:
- caso discreto:
$fx_i(x) = \sum_{y} f(x_i,y)$
- caso continuo: $f_{x_i}(x)=\int _{-\infty}^{+\infty}f(x,y)dy$
## Funzione di ripartizione congiunta
$F(x,y)=P(X\le x,Y\le y)$
caso discreto:
$F(x,y)= \sum_{x<X} \sum_{y<Y}f(x,y)$
caso continuo:
$F(x,y)= \int_{-\infty}^{X} \int_{-\infty}^{Y} f(x,y) dx dy$
Posso ricavare la funzione di ripartizione di x dalla funzione di ripartizione congiunta:
$F_x(x)=\lim_{y\rightarrow \infty}F_{x,y}(x,y)$
## Momenti
Sia X una v.a. ass. cont. o discreta tale che $|X^k|$ ammetta valore atteso. Il numero $\mathbb{E}[X^k]$ è detto momento k-esimo.
### Generatrice dei momenti
Funzione generatrice degli eventi, dove il momento n-esimo è la derivata ennesima della funzione $\phi$.
caso discreto:
$\phi(X)=\sum _x e^{tx}p(x)$
caso continuo:
$\phi(X) = \int _{-\infty}^{+ \infty}e^{tx}f(x) dx$
## Vettori di v.a. indipendenti
Cosa si intendi per indipendenza?
$f(x,y)=f_x(x)f_y(y)$
L'indipendenza di vettori aleatori risulta comodo in diversi conti.
Come si dimostra/controlla se c'è la dipendenza (nel pratico)?
Controlli che il prodotto delle densità marginali (ai margini della tabella) sia uguale al rispettivo elemento dentro la tabella. *lo devi fare per ognuno degli elementi, DEVE VALERE PER TUTTI*
NB: (NB forse scontato ma occhio) negli esercizi risulta particolarmente furbo controllare le caselle dove c'è lo zero ... così che si 'sgama' subito se le variabili non sono indipendenti.
## Trasformazioni vettori aleatori
ysy: $g(x_1, x_2, ...., x_n)=(g(x_1),g(x_2)...,g(x_n))$
Esempio classicone:
v.a. $S$ definita come $S=x+y$
caso discreto:
$f(S)==\sum_x f_{x,y}(x,S -x)$
caso discreto con v.a. indipendenti:
$f(S)==\sum_x f_{x}(x)f_y(S -x)$
caso continuo:
$f(S)=\int_{-\infty}^{+\infty}f_{x,y}(x,S-x)dx$
caso continuo con v.a. indipendenti:
$f(S)=\int_{-\infty}^{+\infty}f_{x}(x)f_y(S-x)dx$
NB: 'Questo procedimento' è valido per le somme di variabili aleatorie, non confonderti con ad esempio calcolare l'integrale doppio per trovare la funzione di partizione in una 'zona' di piano.
### Max E Min di v.a. indipendenti
Sia $max(x)=max(X_1 , ... X_n)$ e $min(x)=min(X_1 ... X_n)$ allora:
$F_{max}(x)=\prod_{i=1}^{n}F_i(x)$
$F_{min}(x)=1-\prod_{i=1}^{n}S_i(x)$
NB: se i.i.d. (indipendenti identicamente distribuite, cioè stessa legge e stessi parametri) allora: $F_{max}(x)=F_1(x)^n$ e $F_{min}(x)=S_{1}(x)^n$
### Valore atteso di funzione di vettori aleatori
Moolto molto gradito il fatto che non è necessario alcun tipo di ragionamento su funzioni o trasformazioni.
caso discreto:
$\mathbb{E}[g(x,y)]=\sum_{(x,y)} g(x,y)f(x,y) $
caso continuo:
$\mathbb{E}[g(x,y)]=\int_{-\infty}^{+\infty}g(x,y)f(x,y)dxdy$
*NB: questi esempi sono fatti con due $n=2$ .. ma ovviamente i vettori possono essere fatti di $n$ variabili aleatorie.*
#### Somma di varie funzioni notevoli
Somma di gaussiane fa gaussiane.
Somma di binomiali con p comuni sono ancora binomiali.
Somma di v.a. con distribuzione di Poisson (con parametri uguali) sono Poisson con parametri somma di parametri.
#### Covarianza
Definizione generale:
$Cov(X,Y)=\mathbb{E}[(x-\mu_x)(y-\mu_y)]$
Definizione che ci piace:
$Cov(X,Y)=\mathbb{E}[XY]-\mathbb{E}[X]\mathbb{E}[Y]$
Da notare come il caso particolare di X=Y corrisponde alla definizione di varianza.
$Cov(X,X)= Var(X)=\mathbb{E}[(x-\mu_x)^2]$
La covarianza è un 'indice' che indica di quando le variabili si influenzano a vicenda, di quanto variano insieme e quindi della loro reciproca dipendenza.
Se due variabili sono **indipendenti** allora varrà sicuramente che la $Cov[X,Y]=0$ MA NON VALE VICEVERSA! Se la covarianza è uguale a zero non si può dire nulla! Sulla dipendenza delle variabili.
##### Indice di correlazione di Pearson
$p(X,Y)=\frac{Cov[X,Y]}{\sigma _x \sigma_y}$
l'indice di correlazione di Pearson (anche detto coefficiente di correlazione lineare) tra due variabili aleatorie è un indice che esprime un'eventuale relazione di linearità tra esse.
Ha sempre un valore compreso tra +1 e -1, dove +1 e -1 corrispondono alla perfetta correlazione lineare (positiva/negativa) e 0 corrisponde a un'assenza di correlazione lineare.
### Media campionaria/empirica
Media empirica delle variabili aleatorie $X_1 , X_2 , ...$ è la variabile aleatoria:$\bar X=\frac{X_1 + X_2 + X_3 + ... X_n}{n}$
Per linearità del **valore atteso** , se tutte le v.a. hanno **stessa legge** allora:
$\mathbb{E}[\bar{X}]=\frac{1}{n}\sum_{i=1}^{n}\mathbb{E}[X_i]=\mathbb{E}[X_i]$
### Varianza campionaria
$S^2_n:=\frac{1}{n-1}\sum^n_{i=1}(X_i-\bar X_n)^2$
### Deviazione standard campionaria
$S_n=\sqrt{S_n^2}$
### Legge debole dei grandi numeri
$\lim _{n \rightarrow \infty}P(\mid { \frac{\sum X_i }{n} - \mu \mid \le \epsilon )=1}$ $\forall \epsilon > 0$
### Legge forte dei grandi numeri
$P(\lim _{n \rightarrow \infty} \frac{\sum X_i }{n} = \mu )=1$
## Vettori e matrici
Sia $Y=[Y_1 , Y_2 , Y_3 , Y_4 ..]^T$ vettore aleatorio, allora:
$\mathbb{E}[Y]=\mu=\begin{bmatrix} u_1 \\ u_2 \\ u_3 \\ .... \\ . ..\end{bmatrix}$
## Matrice di varianza-covarianza
La matrice $\Sigma$ rappresenta la variazione di ogni variabile rispetto alle altre (inclusa se stessa). È simmetrica.
## Gaussiana multivariata
Un vettore aleatorio $X=[X_1 , X_2 , ...]$ si dice gaussiano multivariato $N(\mu,\Sigma)$ se esiste una matrice A tale che $AA^T=\Sigma$ e un vettore $Z=(Z_1, ... , Z_m)^T$ iid $N(0,1)$ tale che $X=AZ + \mu$
E' una generalizzazione della distribuzione normale a dimensioni più elevate. La sua importanza deriva principalmente dal fatto che è spesso utilizzata per descrivere, almeno approssimativamente, un qualunque insieme di v.a a valori reali (possibilmente) correlate, ognuna delle quali è clusterizzata attorno ad un valore medio.
## Teorema Centrale del Limite
$\lim _{n \rightarrow \infty} \frac{x - \mu}{\sqrt{\frac{\sigma^2}{n}}} \approx N(0,1)$
quindi
$P(\lim _{n \rightarrow \infty} \frac{x - \mu}{\sqrt{\frac{\sigma^2}{n}}}\le \epsilon) \approx \phi(\epsilon)$
### Correzione del continuo
La correzione di continuità è una modifica dell'intervallo di integrazione che si applica quando si approssima una distribuzione discreta con una distribuzione continua (nel nostro caso la normale).
La correzione di continuità consiste nell' ampliare / allargare di 0.5 (convenzionalmente) gli estremi dell'intervallo sul quale si integra la densità di probabilità continua usata per approssimare una distribuzione discreta.
Con tale correzione, la precisione dell'approssimazione è maggiore.