Mějme náhodný výběr $\mathbf{X}=(X_1,\ldots,X_n)'$ rozsahu $n$ z rozdělení o distribuční funkci $F(x;\boldsymbol\theta),$ kde $\boldsymbol\theta=(\theta_1,\ldots,\theta_m)' \in \boldsymbol\Theta \subset \mathbb{R}^m.$ Množina $\boldsymbol\Theta$ nechť je neprázdná a otevřená.
Předpokládejme, že o parametru $\boldsymbol\theta$ existují dvě konkurující si hypotézy: | ${H_0}$: $\boldsymbol\theta\in\boldsymbol\Theta_0\subset\boldsymbol\Theta$ |
${H_1}$: $\boldsymbol\theta\in\boldsymbol\Theta_1=\boldsymbol\Theta-\boldsymbol\Theta_0$ |
Tvrzení | $\boxed{H_0}$ | se nazývá | nulovou | hypotézou. | . |
$\boxed{H_1}$ | alternativní | hypotézou. |
Je-li | $\boxed{\boldsymbol\Theta_0}$ | jednobodová, nazývá se jednoduchou, v opačném případě složenou hypotézou. |
$\boxed{\boldsymbol\Theta_1}$ |
O platnosti této hypotézy se má rozhodnout na základě náhodného výběru $\mathbf{X}=(X_1,\ldots,X_n)'$, a to tak, že | $\nearrow$zamítneme nebo | platnost hypotézy $H_0.$ |
$\searrow$nezamítneme |
Na testování použijeme statistiku $T_n=T(\mathbf{X})$, kterou nazýváme testovací statistikou. Množinu hodnot, které může testovací statistika nabýt, rozdělíme na dvě disjunktní oblasti. Jednu označíme ${W_\alpha}$ , a nazveme ji kritickou oblastí (nebo také oblastí zamítnutí hypotézy) a druhá je doplňkovou oblastí (oblast nezamítnutí testované hypotézy).
Na základě realizace náhodného výběru $\mathbf{x}=(x_1,\ldots,x_n)'$ vypočítáme hodnotu testovací statistiky $t_n=T(\mathbf{x})$.
Toto rozhodnutí nemusí však být správné. V následující tabulce jsou uvedeny možné situace
$H_0$ | PLATÍ | NEPLATÍ |
ZAMÍTÁME ${t_n=T(\mathbf{x})\in W_\alpha}$ |
chyba 1. druhu ($\alpha_0$ je hladina testu) $\alpha_0\!=\!\sup_{\boldsymbol\theta\in\boldsymbol\Theta_0}P_\boldsymbol\theta(T(\mathbf{X})\in W_\alpha|H_0)\!\leq\! \alpha$ | O.K. (tzv. síla testu či silofunkce) $1\!-\!\beta(\boldsymbol\theta)\!=\!P_\boldsymbol\theta(T(\mathbf{X})\in W_\alpha|H_1)$ pro $\boldsymbol\theta\in\boldsymbol\Theta_1$ |
NEZAMÍTÁME ${t_n=T(\mathbf{x})\notin W_\alpha}$ |
O.K. | chyba 2. druhu $\beta(\boldsymbol\theta)=P_\boldsymbol\theta(T(\mathbf{X})\not\in W_\alpha|H_1)$ pro $\boldsymbol\theta\in\boldsymbol\Theta_1$ |
Volba kritického oboru $W_\alpha$ se řídí požadavky:
Vidíme, že postavení obou hypotéz je nesymetrické. Za nulovou hypotézu volíme tu, jejíž neoprávněné zamítnutí (chyba 1. druhu) je závažnější.
Chybu, která spočívá v nesprávném zamítnutí nulové hypotézy, i když je správná, budeme nazývat chybou prvého druhu, pravděpodobnost
$${\;\alpha_0=\sup_{\boldsymbol\theta\in\boldsymbol\Theta_0}P_\boldsymbol\theta(T(\mathbf{X})\in W_\alpha|H_0)\;}$$nazveme hladinou významnosti (též hladinou testu).
Chybu, která spočívá v nesprávném přijetí nulové hypotézy, i když neplatí, budeme nazývat chybou druhého druhu a její pravděpodobnost pro $\forall\boldsymbol\theta\in\boldsymbol\Theta_1$ označíme
$${\;\beta(\boldsymbol\theta)=P_\boldsymbol\theta(T(\mathbf{X})\not\in W_\alpha|H_1)\;}.$$Pravděpodobnost $1-\beta(\boldsymbol\theta)$ nazýváme silou testu (též silou kritické oblasti $W_\alpha$) a jakožto funkci $\boldsymbol\theta\in\boldsymbol\Theta_1$ ji také nazveme silofunkcí testu.
Nejprve rozebereme nejjednodušší případ, kdy ${\boldsymbol\Theta=\{\boldsymbol\theta_0,\boldsymbol\theta_1\}}$.
V dalším budeme značit symbolem $\nu$ $\sigma-$konečnou míru na $(\mathbb{R}^n,\mathcal{B}^n)$ (např. Lebesgueova nebo čítací) a $f(\mathbf{x};\boldsymbol\theta)$ nezápornou měřitelnou funkci, tzv. hustotu pravděpodobnosti vzhledem k míře $\nu$. Tedy $f(\mathbf{x};\boldsymbol\theta)$ jsou jak hustoty absolutně spojitých náhodných veličin, tak pravděpodobnostní funkce.
Budeme předpokládat, že pravděpodobnostní míry $P_{\boldsymbol\theta_0}$ a $P_{\boldsymbol\theta_1}$ jsou absolutně spojité vzhledem k $\sigma$-konečné míře $\nu$.
Označme hustoty | $p_0(\mathbf{x})=f(\mathbf{x};\boldsymbol\theta_0),$ |
$p_1(\mathbf{x})=f(\mathbf{x};\boldsymbol\theta_1).$ |
Nechť k danému $\alpha\in(0,1)$ existuje takové kladné číslo $c\gt 0$, že pro množinu ${W_0=\{\mathbf{x}\in\mathbb{R}^n:p_1(\mathbf{x})\geq c p_0(\mathbf{x})\}}$ platí ${\int_{W_0}p_0(\mathbf{x})\;d\nu(\mathbf{x})=\alpha}$. Pak pro libovolnou množinu $W\in\mathcal{B}^n$ splňující podmínku ${\int_{W}p_0(\mathbf{x})\;d\nu(\mathbf{x})\leq\alpha}$ platí
$$ {\int_{W_0}p_1(\mathbf{x})\;d\nu(\mathbf{x}) \geq \int_{W}p_1(\mathbf{x})\;d\nu(\mathbf{x})}.$$Pro jednoduchost pro $j=0,1$ místo $\int_{W_0}p_j(\mathbf{x})\;d\nu(\mathbf{x})$ pišme $\int_{W_0}p_j\;d\nu.$ Vzhledem k tomu, že množiny $W$ a $W_0$ lze psát jako disjunktní sjednocení, tj.
$$ W=(W-W_0)\cup (W\cap W_0) \qquad\text{ a }\qquad W_0=(W_0-W)\cup (W\cap W_0),$$pak platí
$\displaystyle\int\limits_{W_0}\!p_1\;d\nu - \int\limits_{W}\!p_1\;d\nu$ | $\displaystyle =\int\limits_{W_0-W} p_1\; d\nu + \int\limits_{W\cap W_0}p_1\; d\nu - \int\limits_{W-W_0} p_1\; d\nu - \int\limits_{W\cap W_0}p_1\; d\nu$ | |
$\displaystyle =\int\limits_{W_0-W} p_1\; d\nu - \int\limits_{W-W_0} p_1\; d\nu .$ | (14) |
Integrační obor prvního integrálu v (14) je částí množiny $W_0$, takže vzhledem k definici této množiny můžeme ho odhadnout zdola. Obdobně integrační obor druhého integrálu v (14) není částí $W_0$, takže ho můžeme opět díky definici $W_0$ odhadnout shora, tj.
$$\begin{align*} \int\limits_{W_0}\!p_1\;d\nu - \int\limits_{W}\!p_1\;d\nu & =\int\limits_{W_0-W\in W_0}\underbrace{p_1}_{\geq cp_0}\; d\nu \quad -\int\limits_{W-W_0\notin W_0}\underbrace{p_1}_{\lt cp_0}\; d\nu\\ & \geq \int\limits_{W_0-W}c\;p_0\; d\nu \quad -\int\limits_{W-W_0}c\;p_0\; d\nu = c\left(\underbrace{\int_{W_0}p_0}_{=\alpha}\; d\nu - \underbrace{\int_{W}p_0\; d\nu}_{\leq \alpha}\right)\geq 0. \end{align*}$$Předpoklady lemmatu požadují, aby kritické obory $W_0$ a $W$ měly za platnosti nulové hypotéz v prvém případě pravděpodobnost $\alpha$ a v druhém případě pravděpodobnost nejvýše $\alpha$. Tvrzení lemmatu porovnává pro dva kritické obory $W_0$ a $W$ pravděpodobnost, s jakou zamítnou nulovou hypotézu, když platí hypotéza alternativní, tj. porovnává sílu testu obou kritických oborů. Pro kritický obor $W_0$ je síla testu stejná nebo větší než pro libovolný kritický obor $W$, to znamená, že kritický obor $W_0$ je mezi kritickými obory s danou hladinou $\alpha$ nejsilnější možný.
Předchozí lemma lze vyslovit takto:
Test s kritickým oborem ${W_0=\{\mathbf{x}\in\mathbb{R}^n:p_1(\mathbf{x})\geq c p_0(\mathbf{x})\}}$ (pro $c\gt 0$) určuje nejsilnější test hypotézy $H_0$ proti $H_1$ na dané hladině $\alpha$.
Mějme , kde $\sigma^2$ je známé.
Nechť $\mu_0,\mu_1\in\mathbb{R}$.
Je třeba najít kritický obor ${W_0}$ nejsilnějšího
testu
Platí
$$\begin{array}{rl}\mathbf{X}\sim {f_\mathbf{X}(\mathbf{x};\mu)}&=\prod_{i=1}^nf_{X_i}(x_i;\mu) =\prod_{i=1}^n \tfrac{1}{\sqrt{2\pi}\sigma} e^{-\frac{1}{2}\left(\frac{x_i-\mu}{\sigma}\right)^2}\\&= {(2\pi\sigma^2)^{-\tfrac{n}{2}}\exp\left\{-\tfrac{1}{2\sigma^2} \sum_{i=1}^n(x_i-\mu)^2\right\}}.\end{array}$$Dále si připomeňme, že položíme-li $\bar{X}=\tfrac{1}{n}\sum_{i=1}^n X_i$, resp. pro realizace $\bar{x}=\tfrac{1}{n}\sum_{i=1}^n x_i$, pak za platnosti nulové hypotézy ${H_0}$
$\bar{X}\;\sim\; N\left(\mu_0,\tfrac{\sigma^2}{n}\right) \qquad\Rightarrow\qquad U_{\bar{X}}=\frac{\bar{X}-E_{\mu_0}(\bar{X})}{\sqrt{D_{\mu_0}(\bar{X})}} =\frac{\bar{X}-\mu_0}{\sigma/\sqrt{n}} \;\sim\; N(0,1).$ | (15) |
Dále využijeme vztah
$\begin{array}{rl}\sum_{i=1}^n (x_i-\bar{x})^2&=\sum_{i=1}^n (x_i-\mu)^2-n(\bar{x}-\mu)^2\\ &\Rightarrow\quad\sum_{i=1}^n (x_i-\mu)^2=\sum_{i=1}^n (x_i-\bar{x})^2+n(\bar{x}-\mu)^2.\end{array}$ | (16) |
Označme $\qquad$ $p_0(\mathbf{x})=f_\mathbf{X}(\mathbf{x};\mu=\mu_0)$ $\qquad \text{ a }\qquad$ $p_1(\mathbf{x})=f_\mathbf{X}(\mathbf{x};\mu=\mu_1).$
Podmínku ${p_1(\mathbf{x})\geq c p_0(\mathbf{x})}$ lze napsat také takto ${\tfrac{p_1(\mathbf{x})}{p_0(\mathbf{x})}\geq c\gt 0}.$
Počítejme s využitím vztahu (16)
$$ \tfrac{p_1(\mathbf{x})}{p_0(\mathbf{x})} = \exp\left\{\tfrac{n}{2\sigma^2} \left[(\bar{x}-\mu_0)^2-(\bar{x}-\mu_1)^2 \right]\right\}\geq c. $$Po zlogaritmování dostaneme
$\tfrac{n}{2\sigma^2} \left[(\bar{x}-\mu_0)^2-(\bar{x}-\mu_1)^2 \right] =\tfrac{n}{2\sigma^2} \left[ 2\bar{x}(\mu_1-\mu_0)-(\mu_1^2-\mu_0^2) \right]\geq \ln c$ | (17) |
Pak nerovnost (17) dále upravujme takto
$$\bar{x}\geq \underbrace{\tfrac{\mu_1+\mu_0}{2} +\tfrac{\sigma^2\ln c}{n(\mu_1-\mu_0)}}_{\scriptsize{\text{označme }} k_1}$$Dokážeme najít takové ${k_1}$, aby platilo ${P_{\mu_0}(\bar{X}\geq k_1)=\alpha}$?
Díky normalitě výběrového průměru (viz (15)) však můžeme počítat a upravovat
$$\alpha=P_{\mu_0}(\bar{X}\geq k_1)= P_{\mu_0}\left( \tfrac{\bar{X}-\mu_0}{\sigma/\sqrt{n}}\geq \tfrac{k_1-\mu_0}{\sigma/\sqrt{n}}\right) =1-\Phi\left(\tfrac{k_1-\mu_0}{\sigma/\sqrt{n}} \right)$$takže
$$\Phi\left(\tfrac{k_1-\mu_0}{\sigma/\sqrt{n}} \right)=1-\alpha \qquad\Rightarrow\qquad u_{1-\alpha}=\tfrac{k_1-\mu_0}{\sigma/\sqrt{n}} \qquad\Rightarrow\qquad {k_1= \mu_0 + \tfrac{\sigma}{\sqrt{n}}u_{1-\alpha} }$$a kritický obor lze vyjádřit takto
Pak nerovnost (17) dále upravujme takto
$$\bar{x}\leq \underbrace{\tfrac{\mu_1+\mu_0}{2} -\tfrac{\sigma^2\ln c}{n(\mu_0-\mu_1)}}_{\scriptsize{\text{ označme }} k_2}$$Díky normalitě výběrového průměru (viz (15)) však můžeme počítat a upravovat
$$\alpha=P_{\mu_0}(\bar{X}\leq k_2)= P_{\mu_0}\left( \tfrac{\bar{X}-\theta_0}{\sigma/\sqrt{n}}\leq \tfrac{k_2-\mu_0}{\sigma/\sqrt{n}}\right) =\Phi\left(\tfrac{k_2-\mu_0}{\sigma/\sqrt{n}} \right)$$takže
$$\Phi\left(\tfrac{k_2-\mu_0}{\sigma/\sqrt{n}} \right)=\alpha \qquad\Rightarrow\qquad u_{\alpha}=-u_{1-\alpha}=\tfrac{k_2-\mu_0}{\sigma/\sqrt{n}} \qquad\Rightarrow\qquad {k_2=\mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}}$$a kritický obor lze vyjádřit takto
Všimněme si, že při jednoduché hypotéze i alternativě
při | (1) | $\quad \mu_0 \quad \lt \underbrace{\mu_1}_{\tiny\text{libovolné}}$ | má $W_0$ stejný tvar nezávislý na $\mu_1$ |
(2) | $\quad \mu_0 \quad \gt \underbrace{\mu_1}_{\tiny\text{libovolné}}$ | má $W_0$ stejný tvar nezávislý na $\mu_1$ |
Říkáme, že
test je stejnoměrně nejsilnější vůči všem alternativám typu | (1) $ \mu_0 \lt \mu_1$ |
(2) $ \mu_0 \gt \mu_1$ |
Mějme pro jednoduchost náhodný výběr rozsahu $n=1$, tj. jedinou náhodnou veličinu $X$ z rozdělení s hustotou
$$f(x;\theta)= \begin{cases} \theta x^{\theta-1} & x\in (0,1), \\ 0 & \text{jinak}. \end{cases} $$Najdeme nejsilnější test hypotézy
$$H_0:\theta=1 \qquad\text{ proti }\qquad H_1: \theta=2 \qquad \text{ na dané hladině }\alpha=0.05.$$Je třeba najít kritický obor ${W_0}=\{x\in\mathbb{R}:p_1(x)\geq c p_0(x)\}$ (pro $c\gt 0$), přičemž
$$ p_j(x) = f(x;\theta_j) =\begin{cases} \theta_j x^{\theta_j-1} & x\in (0,1),j=0,1 \\ 0 & \text{jinak}. \end{cases} $$Podmínku ${p_1(x)\geq c p_0(x)}$ lze napsat také takto ${\tfrac{p_1(x)}{p_0(x)}\geq c\gt 0},$ takže
$$\tfrac{p_1(x)}{p_0(x)}=2x^{2-1}\geq c \quad\Rightarrow\quad x\geq \underbrace{\tfrac{c}{2}}_{=k}$$a $k$ určíme z požadavku na hladinu významnosti, tj.
$$\alpha=0.05=\int_k^1p_0 dx=\int_k^1 dx=1-k \quad\Rightarrow\quad k=1-0.05=0.95$$a
$${W_0}=\{x\in\mathbb{R}:x\geq 0.95\} $$Všimněme si dále, že pokud bychom zvolili alternativní hypotézu trochu jinak, např.
$$H_1:\theta=3 \quad\Rightarrow\quad \tfrac{p_1(x)}{p_0(x)}=3x^{3-1}\geq c \quad\Rightarrow\quad x^2\geq \underbrace{\tfrac{c}{3}}_{=k^*},$$pak zřejmě dostaneme jinou kritickou oblast, neboť tvar kritické oblasti závisí jak na nulové hypotéze, tak na alternativní.
V současné době běžný statistický software (Statistika, SPSS, S$^+$, R, SAS) udává dosaženou hladinu (v anglicky psané literatuře P–value, significance value). Je to nejmenší hladina testu, při které bychom ještě hypotézu $H_0$ zamítli.
Nechť parametrický prostor $\boldsymbol\Theta$ má nejméně 3 různé body, z nichž jeden je $\boldsymbol\theta_0$. Položme $\boldsymbol\Theta_0=\{\boldsymbol\theta_0\}$. Je třeba otestovat hypotézu
Nejprve si představme, že bychom se snažili najít pomocí N-P lemmatu nejsilnější test hypotézy $H_0$ proti alternativě
$$H_1':\boldsymbol\theta=\boldsymbol\theta_1\in\boldsymbol\Theta-\boldsymbol\Theta_0.$$Obecně je třeba počítat s tím, že každý takovýto dílčí test bude mít jiný kritický obor. Může se však stát, že kritické obory budou stejné pro všechny zmíněné dílčí testy. Pak je rozumné test $H_0$ proti složené alternativě $H_1$ založit právě na tomto společném kritickém oboru. V tomto případě říkáme, že jde o
Pokud však tato situace nenastane, vzniká otázka, jak postupovat v tomto případě. Zaveďme si proto nejprve pojem zkreslený (vychýlený) test.
Testujme jednoduchou hypotézu $H_0:\boldsymbol\theta=\boldsymbol\theta_0$ proti alternativě $H_0:\boldsymbol\theta\neq \boldsymbol\theta_0$ na základě náhodného výběru s hustotou $f(\mathbf{x};\boldsymbol\theta)$. Nechť $W_\alpha$ je kritický obor testu. Řekneme, že test je zkreslený (vychýlený), jestliže existuje taková hodnota parametru $\boldsymbol\theta_1\neq\boldsymbol\theta_0$, pro kterou platí nerovnost
$$\underbrace{\int_{W_\alpha}p_1(\mathbf{x})d\nu} _{\scriptsize{\text{síla testu }}} \lt \underbrace{\int_{W_\alpha}p_0(\mathbf{x})d\nu} _{\scriptsize{\text{chyba 1. druhu}}}, $$kde $ p_0(\mathbf{x})=f(\mathbf{x};\boldsymbol\theta_0)$ a $p_1(\mathbf{x})=f(\mathbf{x};\boldsymbol\theta_1)$.
Tato podmínka říká, že existuje parametr $\boldsymbol\theta_1$, pro který je síla testu menší než chyba 1. druhu, tedy
pravděpodobnost zamítnutí pravdivé hypotézy |
$\gt $ | pravděpodobnost zamítnutí nepravdivé hypotézy |
což je naprosto nežádoucí vlastnost.
Tedy v případech, kdy nebude existovat rovnoměrně nejsilnější test, budeme se snažit vytvořit alespoň nezkreslený test.
Mějme , kde $\sigma^2$ je známé.
Nechť $\mu_0,\mu_1\in\mathbb{R}$.
Jak jsme již ukázali v příkladě 2.3, kritický obor je jiný pro $\mu_1\lt \mu_0 $ a $\mu_2\gt \mu_0 $, takže nenajdeme kritický obor stejnoměrně nejsilnějšího testu
$${H_0}:\mu=\mu_0 \qquad\text{proti}\qquad {H_1}:\mu\neq \mu_0 \quad\text{na hladině}\quad \alpha\in(0,1),$$proto se budeme snažit najít kritický obor alespoň nezkresleného testu.
Pak silofunkce (což je síla testu jakožto funkce parametru $\boldsymbol\theta\in \boldsymbol\Theta-\boldsymbol\Theta_0$) je tvaru
$$\begin{align*} \beta^*(\boldsymbol\theta) & =1\!-\!\beta(\boldsymbol\theta) \!=\!\beta^*(\mu)\!=\!\int_{W_\alpha}\!\! p_1\;d\nu \\ &= P_{\mu,\sigma}(\bar{X}\geq k_1)\\ & =P_{\mu,\sigma}(\bar{X}\geq \mu_0 +\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha})\\ & =P_{\mu,\sigma}\left(\tfrac{\bar{X}-\mu}{\sigma/\sqrt{n}}\geq \tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}+u_{1-\alpha}\right)\\ &=1\!-\!\Phi\left(\tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}+u_{1-\alpha} \right) \end{align*}$$Zřejmě platí
Pak silofunkce je tvaru
$$\begin{align*} \beta^*(\boldsymbol\theta) & =1\!-\!\beta(\boldsymbol\theta) \!=\!\beta^*(\mu)\!=\!\int_{W_\alpha}\!\! p_1\;d\nu \\ &= P_{\mu,\sigma}(\bar{X}\leq k_2)\\ & =P_{\mu,\sigma}(\bar{X}\leq \mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha})\\ & =P_{\mu,\sigma}\left(\tfrac{\bar{X}-\mu}{\sigma/\sqrt{n}}\leq \tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}-u_{1-\alpha}\right)\\ &=\Phi\left(\tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}-u_{1-\alpha} \right) \end{align*}$$Zřejmě opět platí
a pro $\mu_1\gt \mu_0$
Pak silofunkce je tvaru
$$\begin{align*} \beta^*(\boldsymbol\theta) & \!=\!1\!-\!\beta(\boldsymbol\theta) \!=\!\beta^*(\mu)\!=\!\int_{W_\alpha}\!\! p_1\;d\nu \\ &\!=\! P_{\mu,\sigma}(\bar{X}\leq k_1\wedge\bar{X}\geq k_2)\\ & \!=\!1\!-\!P_{\mu,\sigma}(\mu_0 \!-\!\tfrac{\sigma}{\sqrt{n}}u_{1-\frac{\alpha}{2}}\!\leq\! \bar{X}\!\leq\! \mu_0 \!+\!\tfrac{\sigma}{\sqrt{n}}u_{1-\frac{\alpha}{2}})\\ & \!=\!1\!-\!P_{\mu,\sigma}\left(\tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}\!-\!u_{1-\frac{\alpha}{2}} \!\leq\!\tfrac{\bar{X}\!-\!\mu}{\sigma/\sqrt{n}}\!\leq\! \tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}\!+\!u_{1-\frac{\alpha}{2}}\right)\\ &\!=\!1\!-\!\Phi\left(\tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}\!+\!u_{1-\frac{\alpha}{2}} \right) \!+\!\Phi\left(\tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}\!-\!u_{1-\frac{\alpha}{2}} \right) \end{align*}$$Zřejmě platí
a neexistuje žádné $\mu\neq\mu_0$, pro které je síla testu menší než chyba 1. druhu, takže jde o nezkreslený test.
Neymanovu-Pearsonovu větu nelze bezprostředně aplikovat na případ, kdy množiny $\boldsymbol\Theta_0$, $\boldsymbol\Theta_1$ nejsou obě jednobodové. Její princip konstrukce kritického oboru lze však použít s tím, že na místě $p_j(\mathbf{x})$, $j=0,1$, píšeme $\sup\limits_{\boldsymbol\theta\in\boldsymbol\Theta_j}p(x;\boldsymbol\theta)$. Dostáváme tedy kritický obor tvaru
Pokud $c\gt 1$ (což je pravidlem) je ekvivalentně
$$W_0^*=\left\{\mathbf{x}\in \mathbb{R}^n: \sup\limits_{\boldsymbol\theta\in\boldsymbol\Theta}p(x;\boldsymbol\theta) \geq c\sup\limits_{\boldsymbol\theta\in\boldsymbol\Theta_0}p(x;\boldsymbol\theta) \right\}=\left\{\mathbf{x}\in \mathbb{R}^n: p(x;\widehat{\boldsymbol\theta}_{\scriptscriptstyle{\mathrm{MLE}}}) \geq c p(x;\widehat{\boldsymbol\theta}_{0,{\scriptscriptstyle{\mathrm{MLE}}}}) \right\}, $$kde $\widehat{\boldsymbol\theta}_{\scriptscriptstyle{\mathrm{MLE}}}$ je maximálně věrohodný odhad $\boldsymbol\theta\in \boldsymbol\Theta$ a $\widehat{\boldsymbol\theta}_{0,{\scriptscriptstyle{\mathrm{MLE}}}}$ je maximálně věrohodný odhad za hypotézy $H_0$.
Mějme , kde $\mu$ a $\sigma^2$ jsou neznámé parametry.
Máme testovat hypotézu
Parametr $\boldsymbol\theta=(\mu,\sigma^2)$ je zde dvourozměrný, množina $\boldsymbol\Theta=\{(\mu,\sigma^2):\mu\in\mathbb{R},0\lt \sigma^2\lt \infty \}$. Maximálně věrohodné odhady jsou
Dosadíme-li tyto odhady za $\boldsymbol\theta=(\mu,\sigma^2)$ do výrazu
$$p(\mathbf{x};\boldsymbol\theta)= \prod_{i=1}^n\left( \tfrac{1}{\sqrt{2\pi\sigma^2}}\exp\left\{ -\tfrac{x_i-\mu)^2}{2\sigma^2} \right\}\right)= \left(2\pi\sigma^2\right)^{-\frac{n}{2}} \exp\left\{-\tfrac{1}{2\sigma^2}\sum_{i=1}^n(x_i-\mu)^2 \right\},$$dostaneme pro $W_0^*$ nerovnost
$$\left( \tfrac{2\pi}{n}\sum_{i=1}^n(x_i-\bar{x})^2 \right)^{-\frac{n}{2}} \exp\left\{-\tfrac{n}{2}\right\} \geq c \left( \tfrac{2\pi}{n}\sum_{i=1}^n(x_i-\mu_0)^2 \right)^{-\frac{n}{2}} \exp\left\{-\tfrac{n}{2}\right\}, $$což je
$$\sum\limits_{i=1}^n(x_i-\bar{x})^2\leq c_1 \sum\limits_{i=1}^n(x_i-\mu_0)^2.$$Dále využijeme vztah
$$\underbrace{\sum\limits_{i=1}^n (x_i\!-\!\bar{x})^2}_{=(n-1)s^2} \!=\!\sum_{i=1}^n (x_i\!-\!\mu)^2-n(\bar{x}-\mu_0)^2 \quad\Rightarrow\quad \sum\limits_{i=1}^n (x_i\!-\!\mu_0)^2=\sum\limits_{i=1}^n (x_i\!-\!\bar{x})^2+n(\bar{x}\!-\!\mu_0)^2,$$takže
$$\quad\sum\limits_{i=1}^n(x_i-\bar{x})^2 \leq c_1\left[\sum\limits_{i=1}^n(x_i-\bar{x})^2 +n(\bar{x}-\mu)^2\right]$$což nakonec můžeme vyjádřit takto
Protože veličina $T_n=\frac{\bar{X}-\mu_0}{S}\sqrt{n}$ má za platnosti nulové hypotézy Studentovo $t$–rozdělení o $n-1$ stupních volností, pak na základě tohoto rozdělení můžeme určit kritickou hodnotu
neboť
$$\alpha=P_{(\mu_0,\sigma^2)}(|T_n|\geq c_2)= P_{(\mu_0,\sigma^2)}\left( \tfrac{|\bar{X}-\mu_0|}{S}\sqrt{n}\geq t_{1-\frac{\alpha}{2}}(n-1) \right) $$nebo ekvivalentně
$$1-\alpha= P_{(\mu_0,\sigma^2)}\left( \bar{X}-\tfrac{S}{\sqrt{n}}t_{1-\frac{\alpha}{2}}(n-1) \leq \mu_0\leq \bar{X}+\tfrac{S}{\sqrt{n}}t_{1-\frac{\alpha}{2}}(n-1) \right) $$Hypotézu ${H_0}:\mu=\mu_0$ tedy zamítáme ve prospěch alternativy ${H_1}:\mu\neq \mu_0$ na hladině významnosti ${\alpha}$, pokud realizace
Výsledky příkladů 2.3 a 4.1 naznačují, že existuje určitý VZTAH MEZI TESTY A INTERVALOVÝMI ODHADY, který lze popsat následovně.
Mějme náhodný výběr $\mathbf{X}=(X_1,\ldots,X_n)'$ rozsahu $n$ z rozdělení, které závisí na parametru $\boldsymbol\theta=(\theta_1,\ldots,\theta_m)' \in \boldsymbol\Theta$ a parametrickou funkci $\gamma(\boldsymbol\theta)$.
Mějme intervalový odhad $\left( D_n(\mathbf{X}),H_n(\mathbf{X}) \right)$ parametrické funkce $\gamma(\boldsymbol\theta)$ o spolehlivosti $1-\alpha$. Pokud platí nulová hypotéza, pak
$$1-\alpha=P_{\boldsymbol\theta}\left( D_n(\mathbf{X})\leq \gamma(\boldsymbol\theta_0) \leq H_n(\mathbf{X})\right), $$takže kritický obor tohoto testu má tvar:
Zjistíme-li v konkrétní situaci, že
potom
Protože při obvyklé volbě $\alpha=0.05$ nebo $\alpha=0.01$ je tento jev „prakticky nemožný“, proto nulovou hypotézu ${H_0}$ zamítáme ve prospěch alternativy ${H_1}$.
V opačném případě, tj. pokud
nulovou hypotézu ${H_0}$ nezamítáme.
V tomto případě využijeme dolní odhad $D_n(\mathbf{X})$ parametrické funkce $\gamma(\boldsymbol\theta)$ o spolehlivosti ${1-\alpha}$. Pokud platí nulová hypotéza, pak
$$1-\alpha=P_{\boldsymbol\theta}\left( D_n(\mathbf{X})\leq \gamma(\boldsymbol\theta_0) \right), $$takže kritický obor tohoto testu má tvar:
$$W_\alpha=\left\{ \mathbf{X}\in \mathbb{R}^n: D_n(\mathbf{X}) \gt \gamma(\boldsymbol\theta_0) \right\}. $$takže kritický obor tohoto testu má tvar:
$$W_\alpha=\left\{ \mathbf{X}\in \mathbb{R}^n: H_n(\mathbf{X}) \lt \gamma(\boldsymbol\theta_0) \right\}. $$Předchozí úvahy shrňme do následující tabulky:
$H_0$ | $H_1$ | Hypotézu $H_0$ zamítáme, pomocí | |
intervalu spolehlivosti | kritické oblasti, tj. pokud $\mathbf{x}\in W_\alpha$, kde $W_\alpha=$ |
||
$\gamma(\boldsymbol\theta)= \gamma(\boldsymbol\theta_0)$ | $\gamma(\boldsymbol\theta)\neq \gamma(\boldsymbol\theta_0)$ | $\gamma(\boldsymbol\theta_0)\notin \left( d_n(\mathbf{x}),h_n(\mathbf{x}) \right)$ | $\left\{\mathbf{X}\in \mathbb{R}^n\!:\!\gamma(\boldsymbol\theta_0) \notin \left( D_n(\mathbf{X}) , H_n(\mathbf{X}) \right)\right\}$ |
$\gamma(\boldsymbol\theta)= \gamma(\boldsymbol\theta_0)$ | $\gamma(\boldsymbol\theta)\gt \gamma(\boldsymbol\theta_0)$ | $\gamma(\boldsymbol\theta_0) \lt d_n(\mathbf{x})$ | $\left\{\mathbf{X}\in \mathbb{R}^n: D_n(\mathbf{X}) \gt \gamma(\boldsymbol\theta_0)\right\}$ |
$\gamma(\boldsymbol\theta)= \gamma(\boldsymbol\theta_0)$ | $\gamma(\boldsymbol\theta)\lt \gamma(\boldsymbol\theta_0)$ | $\gamma(\boldsymbol\theta_0)\gt h_n(\mathbf{x}) $ | $\left\{\mathbf{X}\in \mathbb{R}^n: H_n(\mathbf{X}) \lt \gamma(\boldsymbol\theta_0)\right\}$ |
Pomocí intervalových (dolních, horních) odhadů, které jsme již dříve odvodili v sekci 4, dostáváme celou řadu kritických oblastí testů o parametrech normálního rozdělení. Poznamenejme, že se shodují s testy podílem věrohodností.
Přehled takto získaných testů pro jeden náhodný výběr
podáváme v následující tabulce:
$H_0$ | $H_1$ | Hypotézu $H_0$ zamítáme, pokud $\mathbf{X}\in W_\alpha$, tj. | Předpoklady |
$\mu=\mu_0$ | $\mu\neq\mu_0$ | $|\bar{X}-\mu_0|\sqrt{n} \geq \sigma u_{1-\frac{\alpha}{2}}$ | $\sigma^2$ známé |
$\mu=\mu_0$ | $\mu\gt \mu_0$ | $(\bar{X}-\mu_0)\sqrt{n} \geq \sigma u_{1-\alpha}$ | $\sigma^2$ známé |
$\mu=\mu_0$ | $\mu\lt \mu_0$ | $(\bar{X}-\mu_0)\sqrt{n} \leq - \sigma u_{1-\alpha}$ | $\sigma^2$ známé |
$\mu=\mu_0$ | $\mu\neq\mu_0$ | $|\bar{X}-\mu_0|\sqrt{n} \geq St_{1-\frac{\alpha}{2}}(n-1)$ | $\sigma^2$ neznámé |
$\mu=\mu_0$ | $\mu\gt \mu_0$ | $(\bar{X}-\mu_0)\sqrt{n} \geq St_{1-\alpha}(n-1)$ | $\sigma^2$ neznámé |
$\mu=\mu_0$ | $\mu\lt \mu_0$ | $(\bar{X}-\mu_0)\sqrt{n} \leq - St_{1-\alpha}(n-1)$ | $\sigma^2$ neznámé |
$\sigma^2=\sigma_0^2$ | $\sigma^2\neq\sigma_0^2$ | $\tfrac{(n-1)S^2}{\sigma_0^2} \notin \left(\chi_{\frac{\alpha}{2}}^2(n-1),\chi_{1-\frac{\alpha}{2}}^2(n-1)\right)$ | $\mu$ neznámé |
$\sigma^2=\sigma_0^2$ | $\sigma^2\gt \sigma_0^2$ | $\tfrac{(n-1)S^2}{\sigma_0^2}\geq\chi_{1-\alpha}^2(n-1) $ | $\mu$ neznámé |
$\sigma^2=\sigma_0^2$ | $\sigma^2\lt \sigma_0^2$ | $\tfrac{(n-1)S^2}{\sigma_0^2}\leq\chi_{\alpha}^2(n-1) $ | $\mu$ neznámé |
V případě dvou nezávislých výběrů
pak následující tabulka se týká testů rovnosti středních hodnot a rozptylů:
$H_0$ | $H_1$ | Hypotézu $H_0$ zamítáme, pokud $(\mathbf{X}',\mathbf{Y}')'\in W_\alpha$, tj. | Předpoklady |
$\mu_1=\mu_2$ | $\mu_1\neq\mu_2$ | $|\bar{X}-\bar{Y}|\geq u_{1-\frac{\alpha}{2}} \sqrt{\tfrac{\sigma_1^2}{n_1}+\tfrac{\sigma_2^2}{n_2}}$ | $\sigma_1^2,\sigma_2^2$ známé |
$\mu_1=\mu_2$ | $\mu_1\neq\mu_2$ | $|\bar{X}-\bar{Y}|\ge t_{1-\frac{\alpha}{2}}(n_1\!+\!n_2\!-\!2) \;S_{12}\sqrt{\tfrac{n_1\!+\!n_2}{n_1n_2}}$ | $\sigma_1^2=\sigma_2^2$ neznámé |
$\sigma_1^2=\sigma_2^2$ | $\sigma_1^2\neq\sigma_2^2$ | $\frac{S_1^2}{S_2^2}\notin \left(F_{\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1), F_{1-\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1)\right)$ | $\mu_1,\mu_2$ neznámé |
Následující tabulka nabízí
asymptotické testy pro náhodné výběry
s konečnými druhými momenty (s výběrovým průměrem
$\bar{X}=\tfrac{1}{n}\sum\limits_{i=1}^n X_i$
a se $S_*^2=S_*^2(\mathbf{X})$, což je (slabě)
konzistentní odhad rozptylu $\sigma^2(\boldsymbol\theta$):
$H_0$ | $H_1$ | Hypotézu $H_0$ zamítáme, pokud $\mathbf{X}\in W_\alpha$, tj. | Předpoklady |
$\mu=\mu_0$ | $\mu\neq\mu_0$ | $\frac{|\bar{X}-\mu_0|}{S_*}\sqrt{n} \geq \ u_{1-\frac{\alpha}{2}}$ | $0\lt \sigma^2(\boldsymbol\theta)\lt \infty$ |
$\mu=\mu_0$ | $\mu\neq\mu_0$ | $\frac{|\bar{X}-\mu_0|}{\sqrt{\bar{X}}}\sqrt{n} \geq u_{1-\frac{\alpha}{2}}$ | ![]() |
$p=p_0$ | $p\neq p_0$ | $\frac{|\bar{X}-p_0|}{\sqrt{p_0(1-p_0)}}\sqrt{n} \geq u_{1-\frac{\alpha}{2}}$ | ![]() |
Abychom si uvědomili vztah mezi oběma chybami, ukážeme jednoduchý příklad.
Dva chlapci, Honzík a František, mají každý svůj pytlík s barevnými kuličkami. Honzík má 80 bílých a 20 modrých kuliček, František 30 bílých a 70 modrých kuliček. Oba pytlíky jsou k nerozeznání. Vybereme náhodně jeden z pytlíků a chceme rozhodnout, kterému z chlapců patří. Za tím účelem provedeme následující test:
Výchozí test A:
Vypočítejme chybu prvního i druhého druhu a pokusme se najít takový test, který by zajistil, aby chyby prvního i druhého druhu byly vůči chlapcům co nejvíce spravedlivé.
Označme jako ${Y}$ náhodnou veličinu, která značí počet bílých kuliček mezi deseti vybranými. Náhodná veličina $Y\in\{0,1,\ldots,n\}$, $n=10$. Zřejmě má binomické rozdělení, což pro $j=0,1$ značíme
$Y\sim Bi(n,\theta)$ | s pravděpodobnostní funkcí | $ p_j(x)= \begin{cases} {n\choose y}\theta_j^y(1-\theta_j)^{n-y} & y=0,\ldots,n, \\ 0 & \text{jinak}. \end{cases} $ |
Budeme testovat hypotézu $H_0:\theta=\theta_0=0.8$ proti alternativě $H_1:\theta=\theta_1=0.3$}, kde kritický obor je {$W_\alpha=\{0,1,\ldots,k-1\}$}. „Spravedlivý“ test budeme hledat pomocí procedury v Matlabu s využítím příkazů „binocdf(y,n,theta)“
Optimální test B:
Teprve nyní je pravděpodobnost chyby prvního i druhého druhu vyvážená, srovnejme
$$\begin{align*} \alpha & =\int_{W_\alpha} p_0 \;d\nu=\sum_{i=1}^{k-1} 0.8^y(1-0.8)^{n-y}= \begin{cases} 0.3222 & \text{A} \\ 0.0328 & \text{B} \end{cases} & 1-\alpha= \begin{cases} 0.6778 & \text{A} \\ 0.9672 & \text{B} \end{cases} \\ \beta &= \int_{W_1} p_1 \;d\nu=\sum_{i=k}^{10} 0.3^y(1-0.3)^{n-y}= \begin{cases} 0.0016 & \text{A} \\ 0.0473 & \text{B} \end{cases} & 1-\beta= \begin{cases} 0.9984 & \text{A} \\ 0.9527 & \text{B} \end{cases} \end{align*}$$Tedy pravděpodobnost, že se v testu B vyvarujeme | chyby 1. druhu je ${1-\alpha=0.9672}$ chyby 2. druhu je ${1-\beta =0.9527}$. |
V předchozím příkladě jsme se snažili najít takový test, aby obě dvě chyby vyhovovaly našim představám.
Nyní se opět vrátíme k příkladu 3.2 a ukážeme, že síla testu je pro pevně danou chybu prvého druhu ovlivněna rozsahem výběru.
Nechť je normální náhodný výběr, ve kterém je $\mu$ je
neznámý parametr a $\sigma^2\gt 0$ je známá konstanta. Uvažujme test
hypotéz
V příkladu 3.2 jsme zkonstruovali nezkreslený test pro oboustrannou alternativu a v příkladu 2.3 stejnoměrně nejsilnější testy pro jednostranné alternativy.
Na následujících grafech ukážeme, jak při pevně dané chybě prvého druhu roste hodnota silofunkce při rostoucím rozsahu výběru. Toho se právě využívá, pokud si předepíšeme obě chyby a hledáme rozsah výběru, při kterém nepřekročíme stanovené chyby.
V roce 1961 byla u 15 náhodně vybraných chlapců z populace všech desetiletých chlapců žijících v Československu zjištěna výška
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 |
130 | 140 | 136 | 141 | 139 | 133 | 149 | 151 | 139 | 136 | 138 | 142 | 127 | 139 | 147 |
Je známo, že každá následující generace je v průměru o něco vyšší než generace předcházející. Můžeme se tedy ptát, zda průměr $\bar{x}=139.133$ zjištěný v náhodném výběru rozsahu
$n=15$ znamená, že na 5\% hladině máme zamítnout nulovou hypotézu ${H_0:\mu=136.1}$ (zjištění z roku 1951) ve prospěch alternativní hypotézy ${H_1:\mu\gt 136.1}$.
Rozptyl $\sigma^2=6.4^2\text{ cm}^2$, zjištěný v roce 1951 (kdy se provádělo rozsáhlé šetření), můžeme považovat za známý, neboť variabilita výšek zůstává (na rozdíl od střední výšky) téměř nezměněná.
Protože kritický obor $W_0$ lze ekvivalentně vyjádřit i takto
počítejme $u_{\bar{x}}=\tfrac{139.133-136.1}{6.4}\sqrt{15}=1.835.$ Protože $u_{\bar{x}}=1.835$ překračuje kritickou hodnotu $u_{1-\alpha}=u_{0.95}=1.645$ (získáme pomocí Matlabu, a to příkazem „norminv(0.95)“) nulovou hypotézu na 5% hladině zamítneme ve prospěch alternativní hypotézy, že se střední výška desetiletých hochů zvětšila.
Dosažená hladina odpovídající testové statistice (tj. tzv. $p$-hodnota, anglicky P-value, significance value), což je nejmenší hladina testu, při které bychom ještě hypotézu $H_0$ zamítli, je rovna $0.033$ (opět získáme pomocí Matlabu příkazem „1 - normcdf(mean(x),136.1,6.4/sqrt(n))“, takže například při $\alpha=2.5$% by již dosažený výsledek nebyl statisticky významný.
Protože $p$-hodnota je menší než zvolená hladina významnosti $\alpha=0.05$, hypotézu zamítáme.
Protože jde o jednostranný test, použijeme dolní odhad střední hodnoty $\mu$
$$ d=\bar{x}-\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}=139.133-\tfrac{6.4}{\sqrt{15}} 1.645=136.415 $$Protože interval spolehlivosti $\langle 136.415,+\infty) $ nepokrývá hodnotu $136.1$, proto nulovou hypotézuna na hladině významnosti $\alpha=0.05$ zamítáme.
Mějme , kde $\sigma^2=25$ je známé.
Chceme testovat hypotézu
Naším úkolem je zjistit rozsah výběru tak, aby chyba 1. druhu byla rovna 0.05 a druhého druhu 0.01.
V příkladě 2.3 jsme, ukázali, že kritický obor pro rovnoměrně nejsilnější test pro alternativu typu $\mu_0\gt \mu_1$ je tvaru
Jeli $\alpha=0.05$, pak $u_{1-\alpha}=1.645$. Při této volbě máme zajištěnu chybu prvního druhu rovnou $0.05$, tj.
$$P_{\mu_0}(\bar{X}\leq k_2)=\Phi\left(\tfrac{k_2-\mu_0}{\sigma/\sqrt{n}} \right)=\alpha=0.05.$$Nyní musíme zvolit $n$ tak, aby pro chybu druhého druhu platilo
$$P_{\mu_1}(\bar{X}\gt k_2)=1-\Phi\left(\tfrac{k_2-\mu_1}{\sigma/\sqrt{n}} \right)\leq\beta=0.01,$$takže
$$u_{1-\beta}=\frac{k_2-\mu_1}{\sigma/\sqrt{n}} =\frac{\mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}-\mu_1}{\sigma/\sqrt{n}} =\frac{\mu_0-\mu_1}{\sigma/\sqrt{n}}-u_{1-\alpha}$$a odtud již dostaneme, že
$$u_{1-\beta}+u_{1-\alpha}=\tfrac{\mu_0-\mu_1}{\sigma/\sqrt{n}},$$takže
$$\sqrt{n}= \tfrac{u_{1-\beta}+u_{1-\alpha}}{\mu_0-\mu_1}\sigma=19.8560$$tj.
kde symbol $\lceil c \rceil$ značí zaokrouhlení na celé číslo nahoru.
Pokud ovšem bychom $\sigma$ neznali, pak by úloha nešla vyřešit.
Pokud ovšem bychom $\sigma$ neznali, pak by úloha nešla vyřešit.
Na sedmi rostlinách byl posuzován vliv fungicidního přípravku podle počtu skrvn na listech před a týden po použití přípravku. Otestujte, zdali má přípravek vliv na počet skrvn na listech. Data udávající počet skrvn na listech před a po použití přípravku:
před použitím přípravku | $X_1$ | 9 | 17 | 31 | 7 | 8 | 20 | 10 |
po použití přípravku | $X_2$ | 10 | 11 | 18 | 6 | 7 | 17 | 5 |
Za předpokladu, že náhodný výběr pochází z normálího rozdělení, tj.
Protože interval spolehlivosti pokrývá hodnotu $Z=0$, na dané hladině významnosti hypotézu nemůžeme zamítnout.
Vypočítáme-li hodnotu statistiky
$$T=\tfrac{\bar{X}_1-\bar{X}_2}{S/\sqrt{n}}$$a porovnáme s kvantilem Studentova rozdělení, tj.
$$t=\tfrac{\bar{x}_1-\bar{x}_2}{s/\sqrt{n}}=2.2736 \ngtr t_{1-\alpha/2}(n-1)=2.4469,$$hypotézu
$$H_0:\mu_1-\mu_2=0 $$nezamítáme.
Vypočítáme-li $p$-hodnotu a porovnáme se zvolenou hladinou významnosti $\alpha=0.05$
$$p=P(|T|\gt t)=2(1-P(|T|\leq t))=0.06335 \gt \alpha$$takže hypotézu
$$H_0:\mu_1-\mu_2=0$$nezamítáme.
Shrneme-li předchozí výsledky slovně, pak nulovou hypotézu o tom, že
na hladině významnosti $\alpha=0.05$ nemůžeme zamítnout oproti alternativě o jeho vlivu.
Bylo vybráno 13 polí stejné kvality. Na 8 z nich se zkoušel nový způsob hnojení, zbývajících 5 bylo ošetřeno běžným způsobem. Výnosy pšenice uvedené v tunách na hektar jsou označeny $X_i$ u nového a $Y_i$ u běžného způsobu hnojení. (převzato z knihy Anděl, J.: Statistické metody, str. 82, př. 8.2).
Je třeba zjistit, zda způsob hnojení má vliv na výnos pšenice.
$X_i$ | 5.7 | 5.5 | 4.3 | 5.9 | 5.2 | 5.6 | 5.8 | 5.1 |
$Y_i$ | 5.0 | 4.5 | 4.2 | 5.4 | 4.4 |
Nechť je
náhodný výběr rozsahu $n_1$ z normálního rozdělení
$N(\mu_1,\sigma_1^2)$, $\bar{X}$ je jeho výběrový průměr a $S_1^2$
jeho výběrový rozptyl.
Dále nechť je
náhodný výběr rozsahu $n_2$ z normálního rozdělení
$N(\mu_2,\sigma_2^2)$, $\bar{Y}$ je jeho výběrový průměr a $S_2^2$
jeho výběrový rozptyl.
Předpokládejme, že oba výběry jsou stochasticky nezávislé, tj. $\mathbf{X} \perp \mathbf{Y}$.
Chceme-li testovat hypotézu, že rozdíl středních hodnot je nulový (při neznámém rozptylu $\sigma^2=\sigma_1^2=\sigma_2^2$), za pivotovou statistiku zvolíme statistiku
$$T_{\bar{X}-\bar{Y}} =\frac{\bar{X}-\bar{Y}-(\mu_1-\mu_2)}{S_{12}} \sqrt{\frac{n_1 n_2}{n_1+n_2}} \;\sim\; t(n_1+n_2-2), $$kde
$$S_{12}^2= \frac{(n_1\!-\!1)S_1^2 +(n_2\!-\!1)S_2^2} {n_1+n_2-2}.$$Chceme-li použít $T_{\bar{X}-\bar{Y}}$, měli bychom být přesvědčeni o tom, že rozptyly obou výběrů se významně neliší. Budeme tedy nejprve testovat hypotézu $H_0: \frac{\sigma_1^2}{\sigma_2^2}=1 $, že podíl obou rozptylů je roven jedné proti alternativě, že se nerovná $H_1: \frac{\sigma_1^2}{\sigma_2^2}\neq 1 $ Za pivotovou statistiku zvolíme statistiku
$$F=\frac{S_1^2}{S_2^2}\frac{\sigma_2^2}{\sigma_1^2} \;\sim\; F(n_1-1,n_2-1).$$Můžeme například vypočítat statistiku $F$ za platnosti nulové hypotézy a porovnat ji s příslušnými oboustrannými kvantily.
Protože
$$\begin{array}{lc} f=1.1243 \\ F_{\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1)=0.1811 \\ F_{1-\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1)=9.0741 \ \end{array}$$vidíme, že $f$ není ani větší než horní kritický bod, ani menší než dolní kritický bod, takže hypotézu o rovnosti rozptylů proti alternativě nerovnosti nezamítáme a můžeme konstatovat, že data nejsou v rozporu s testovanou hypotézou.
Další možností je spočítat dosaženou hladinu významnosti, tj. $p$-hodnotu (pomocí Matlabu: 2*min(1-fcdf(var(x)/var(y),n1-1,n2-1), fcdf(var(x)/var(y),n1-1,n2-1) a srovnat se zvolenou hladinou testu $\alpha$:
$$p-value=0.9656\gg 0.05$$Protože $p$-hodnota je výrazně větší než zvolená hladina testu, hypotézu o rovnosti rozptylů proti alternativě nerovnosti nezamítáme. Můžeme také říci, že data nejsou v rozporu s testovanou hypotézou.
A naposledy můžeme ještě zkostruovat $100(1-\alpha)$\% interval spolehlivosti pro podíl rozptylů $\frac{\sigma_1^2}{\sigma_2^2}$
$$\left\langle \frac{S_1^2}{S_2^2}\frac{1} {F_{1-\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1)}, \frac{S_1^2}{S_2^2}\frac{1} {F_{\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1)} \right\rangle.$$a zjistit, zda pokrývá hodnotu $1$. Protože dostáváme interval {$\langle 0.1239,6.2088\rangle$}, který pokrývá jedničku, hypotézu nezamítáme.
Díky předchozímu zjištění již můžeme bez obav testovat hypotézu $H_0: \mu_1-\mu_2=0$ proti alternativě $H_1: \mu_1-\mu_2\neq 0$ provedeme to opět třemi způsoby:
Protože interval spolehlivosti nepokrývá nulu, na dané hladině významnosti hypotézu zamítáme ve prospěch alternativy.
Vypočítáme-li hodnotu statistiky
$$T_{\bar{X}-\bar{Y}} =\frac{\bar{X}-\bar{Y}-(\mu_1-\mu_2)}{S_{12}} \sqrt{\frac{n_1 n_2}{n_1+n_2}}$$a porovnáme s kvantilem Studentova rozdělení, tj.
$$t_{\bar{x}-\bar{y}}=2.3697 \gt t_{1-\alpha/2}(11)=2.201,$$takže hypotézu
$$H_0:\mu_1-\mu_2=0 $$zamítáme.
Vypočítáme-li $p$-hodnotu a porovnáme se zvolenou hladinou významnosti $\alpha=0.05$
$$p=P(|T_{\bar{X}-\bar{Y}}|\gt t)=2(1-P(|T_{\bar{X}-\bar{Y}}|\leq t))=0.037169 \lt \alpha$$takže hypotézu
$$H_0:\mu_1-\mu_2=0$$zamítáme.
Shrneme-li předchozí výsledky slovně, pak nulovou hypotézu o tom, že
na hladině významnosti $\alpha=0.05$ zamítáme ve prospěch alternativy, že má rozdílné účinky.
Centrum interaktivních a multimediálních studijních opor pro inovaci výuky a efektivní učení | CZ.1.07/2.2.00/28.0041