# Probabilità [ Variabili Aleatorie Discrete](01.%20Variabili%20Aleatorie%20Discrete.md) [ Variabili Aleatorie Assolutamente Continue](02.%20Variabili%20Aleatorie%20Assolutamente%20Continue.md) [ Medie e varianze notevoli](03.%20Medie%20e%20varianze%20notevoli.md) [ Vettori aleatori](03.%20Vettori%20aleatori.md) ## Evento Il mattone elementare della logica probabilistica: **evento** . Formalmente, un evento è un insieme di esiti possibili, ovvero un sottoinsieme dello spazio campionario. Lo spazio campionario è l'insieme di tutti i possibili risultati di un esperimento. $E \in \Omega$ dove $\Omega$ è l'insieme universale dei casi elementari. $A \cup B$ indica che si verifica o A o B $A \cap B$ indica che si verifica sia A che B $A \backslash B$ indica che si verifica A ma non B $A \triangle B$ indica che $(A \backslash B) \cup (B \backslash A)$ Legge di De Morgan interpretata con apice 'c' .. cioè la negazione è il complementare dell'evento. La misura di Probabilità è una funzione che associa un evento a un numero $P$. La funzione probabilità ha le seguenti proprietà: - $P$ è compreso tra $0$ e $1$ - P($\Omega$) è $1$ - Gli eventi sono a $2$ a $2$ incompatibili, cioè disgiunti. $\sum \cup E_n = \sum P(E_n)$ Def: probabilità uniforme = ogni evento ha la stessa probabilità di accadere cioè $P(E) = \frac{|E|}{|\Omega|}$ in gergo: casi favorevoli / casi possibili $P(A) + P(A^c)=1$ ***Importante la formula inversa!!*** $P(A) \cup P(B) = P(A) + P(B) - P(A\cap B)$ ### Fattoriale e permutazioni $n!$ cioè tutte le possibili permutazioni, cioè disposizioni (senza ovviamente la ripetizione). Ese: in quanti modi posso disporre 4 lettere? $4*3*2*1 = 24$ La prima lettera la posso scegliere tra n possibilità, la seconda tra $n-1$ ... ### Coefficiente binomiale $\binom n k = \frac {n!}{k!(n-k)!}$ Ci permette di contare tutti i possibili sottoinsiemi di cardinalità k da un insieme di cardinalità n . Ovviamente a livello insiemistico $\{ a,b\}=\{b,a\}$ di conseguenza è ovvio anche capire che il coefficiente binomiale non considera l'ordine e di conseguenza vede elementi come *ab* e *ba* come lo stesso. ### Indipendenza Stocastica $P(A \cap B) = P(A)P(B)$ Due elementi stocasticamente indipendenti hanno questa relazione. La cui generalizzazione risulta intuitivamente: $P(A \cap B \cap C) = P(A)P(B)P(C)$ ma attenzione! La relazione sopra vale solo se valgono le condizioni a 2 a 2: $P(A \cap C ) = P(A)P(C)$ $P(A \cap B) = P(A)P(B)$ $P(B \cap C) = P(B)P(C)$ ### Probabilità condizionata $P(A\cap B) = P(A | B)P(B)$ La probabilità condizionata di A rispetto a B è la probabilità che si verifichi A sapendo che si è verificato B. Da questa relazione abbiamo un importante risultato, il teorema di Bayes: ## Teorema di Bayes Il teorema di Bayes, anche noto come regola di Bayes, è una formula matematica utilizzata per determinare la probabilità condizionata degli eventi. In sostanza, il teorema di Bayes descrive la probabilità di un evento basata sulla conoscenza pregressa delle condizioni che possono essere rilevanti per l'evento in questione. $P(B|A) = \frac{P(A|B)P(B)}{P(A)}$ e sappiamo anche che $P(B|A) = 1 - P(B^c,A)$ Questa relazione vale **SOLO** per l'elemento condizionato, non il condizionante!!! Il teorema di Bayes ha poi un'ulteriore generalizzazione: $P(A) = \sum P(A|B_i)P(B_i)$ ### Formula di fattorizzazione $P(A\cap B) = P(A | B)P(B)$ A quanto pare la formula della probabilità condizionata di un evento rispetto ad un altro evento è una 'formula di fattorizzazione' , buona a sapersi. In effetti risulta effettivamente buona da sapere in piccolo esercizietti. ### Indipendenza condizionale $P(A \cup B|E) = P(A|E)P(B|E)$ Come suggerisce il nome questa formula sta ad indicare la indipendenza condizionale. Cioè A e B sono sempre **dipendenti** eccetto per la condizione E. In tal caso allora sono indipendenti .. appunto una indipendenza condizionata da E.