# Test delle ipotesi ## Singola popolazione ### Ipotesi statistica Un'ipotesi statistica è un'affermazione riguardo la media o la varianza di una determinata distribuzione. ### Ipotesi nulla $H_0$ Un'ipotesi nulla/alternativa è una coppia di ipotesi nel quale la veridicità di una ipotesi sui campioni esclude l'altra. ### Ipotesi semplice e composta Un'ipotesi semplice è un'ipotesi la quale, se vera con i nostri campioni, ci permette di descrivere completamente la nostra distribuzione. Composta viceversa. ### Errore di prima specie e di seconda specie Un **errore di prima specie** è quando consideriamo $H_0$ non compatibile con i nostri dati ma in realtà è vera. Un **errore di seconda specie** è quando accettiamo l'ipotesi $H_0$ compatibile con la popolazione ma in realtà è falsa. Consideriamo gli errori di prima specie più gravi degli errori di seconda. ### P-value P-value è il valore più basso di $\alpha$ per cui **non accettiamo la nostra ipotesi $H_1$**, quindi per $\alpha$ maggiori del p-value continueremo a non accettare l'ipotesi. Un P-value quasi uguale a zero significa che siamo praticamente certi di non sbagliare rifiutando l’ipotesi $H_0$. Un P-value molto maggiore indica invece che a qualsiasi livello ragionevole di significatività, non rifiutiamo l’ipotesi nulla; in questo caso si può anche dire che il test ci porta ad accettare l’ipotesi. Il P-value può essere difficile da calcolare con precisione usando le tavole, quindi negli esercizi ci limiteremo a fare stime intervallari di quest'ultime (in un software ovviamente possiamo facilmente trovare una stima puntuale). ### Curva OC $\beta$ è definita come la probabilità di accettare l'ipotesi **nulla** in funzione del parametro che stiamo testando. Di conseguenza se il parametro incognita soddisfa l'ipotesi alternativa, la curva OC rappresenta una probabilità d'errore di II specie. ### Potenza del test $\pi(\theta)=1 - \beta$ è la funzione in funzione del parametro incognito $\theta$ che è definita come la probabilità di rifiutare l'ipotesi nulla e quindi accettare l'ipotesi alternativa. *La potenza del test è la possibilità di rigettare l'ipotesi nulla quando è giusto farlo ( cioe' quando $H_0$ è falsa ).* **Esempio:** *Nel caso in l'ipotesi alternativa viene soddisfatta per $T_0 >t$* $\pi(\theta)=P_{\theta}(T_o>t_{\theta})$ con $\theta = \frac{\Theta }{\Theta _0}$ La potenza del test aumenta quanto maggiore è il numero dei soggetti del campione. La potenza del test aumenta passando da un $\alpha$ di 0.05 a uno di 0.1 ma così facendo aumenta anche il rischio di rigettare una ipotesi nulla vera. ### Test Z Test su media di una popolazione gaussiana con varianza nota. ### Test T Test su media una popolazione gaussiana con varianza incognita. ## Test su due popolazioni ### Test T Test su medie con varianze incognite ma uguali (f di Fisher). $T_0=\frac{\bar X_n - \bar Y_n}{\sqrt{S_p^2(\frac{1}{n_x}+\frac{1}{n_y})}}$ dove $S_p²$ è la stima combinata della deviazione standard generale: $S_p^2=\frac{(n_x-1)S_x^2+(n_y-1)S^2_y}{n_x+n_y-2}$ ### Test F Il test F viene utilizzato per confrontare la varianza di due popolazioni normali indipendenti, assumendo che le popolazioni siano normalmente distribuite e abbiano la stessa media. Il test F é basato sulla distribuzione F di Fisher. Caso unilaterale: $P(\frac{\frac{S^2_x}{\sigma ^2 _x}}{\frac{S^2_x}{\sigma^2_y}}>f_{0.01 , n,m})=P({\frac{\sigma^2_y}{\sigma^2_x}} > f_{0.01 , n,m}\frac{S^2_y}{S^2_x})=P({\frac{\sigma^2_x}{\sigma^2_y}} \le f_{0.99 , m,n}\frac{S^2_x}{S^2_y})$ ### Test $\chi ²$ di buon adattamento Il test chi-quadrato consiste nel verificare se le frequenze osservate corrispondono alle frequenze attese. Nel caso di una sola variabile di misura, si utilizza il test della bontà di adattamento del chi-quadrato. L'idea alla base del test è di confrontare i valori osservati nei dati e quelli attesi qualora l'ipotesi nulla fosse vera. Dato $f_i$ le frequenze osservate di ciascuna modalità, $p_i$ le probabilità teoriche di ciascuna modalità e $n$ la numerosità del campione e k il numero delle modalità/classi del campione. $X^2 = \sum ^k _{i=1}\frac{(f_i - np_i)}{np_i}$ Rifiuto $H_0$ se $X^2 \ge X^2_{v,\alpha}$ (dove $\alpha$ è la significatività e $v$ sono $k-1$).