Přechod na menu, Přechod na obsah, Přechod na patičku
     

Testování statistických hypotéz


1. Úvod

Mějme náhodný výběr $\mathbf{X}=(X_1,\ldots,X_n)'$ rozsahu $n$ z rozdělení o distribuční funkci $F(x;\boldsymbol\theta),$ kde $\boldsymbol\theta=(\theta_1,\ldots,\theta_m)' \in \boldsymbol\Theta \subset \mathbb{R}^m.$ Množina $\boldsymbol\Theta$ nechť je neprázdná a otevřená.

Předpokládejme, že o parametru $\boldsymbol\theta$ existují dvě konkurující si hypotézy: ${H_0}$: $\boldsymbol\theta\in\boldsymbol\Theta_0\subset\boldsymbol\Theta$
${H_1}$: $\boldsymbol\theta\in\boldsymbol\Theta_1=\boldsymbol\Theta-\boldsymbol\Theta_0$
Tvrzení $\boxed{H_0}$ se nazývá nulovou hypotézou. .
$\boxed{H_1}$ alternativní hypotézou.
Je-li $\boxed{\boldsymbol\Theta_0}$ jednobodová, nazývá se jednoduchou, v opačném případě složenou hypotézou.
$\boxed{\boldsymbol\Theta_1}$
O platnosti této hypotézy se má rozhodnout na základě náhodného výběru $\mathbf{X}=(X_1,\ldots,X_n)'$, a to tak, že $\nearrow$zamítneme nebo platnost hypotézy $H_0.$
$\searrow$nezamítneme

Na testování použijeme statistiku $T_n=T(\mathbf{X})$, kterou nazýváme testovací statistikou. Množinu hodnot, které může testovací statistika nabýt, rozdělíme na dvě disjunktní oblasti. Jednu označíme ${W_\alpha}$ , a nazveme ji kritickou oblastí (nebo také oblastí zamítnutí hypotézy) a druhá je doplňkovou oblastí (oblast nezamítnutí testované hypotézy).

Na základě realizace náhodného výběru $\mathbf{x}=(x_1,\ldots,x_n)'$ vypočítáme hodnotu testovací statistiky $t_n=T(\mathbf{x})$.

  • Pokud hodnota testovací statistiky $t_n$ nabude hodnoty z kritické oblasti, tj. $\boxed{t_n=T(\mathbf{x})\in W_\alpha}$, pak nulovou hypotézu zamítáme.
  • Pokud hodnota testovací statistiky nabude hodnoty z oblasti nezamítnutí, tj. $\boxed{t_n=T(\mathbf{x})\notin W_\alpha}$, tak nulovou hypotézu nezamítáme, což ovšem neznamená že přijímáme alternativu.

Toto rozhodnutí nemusí však být správné. V následující tabulce jsou uvedeny možné situace

$H_0$ PLATÍ NEPLATÍ
ZAMÍTÁME
${t_n=T(\mathbf{x})\in W_\alpha}$
chyba 1. druhu ($\alpha_0$ je hladina testu) $\alpha_0\!=\!\sup_{\boldsymbol\theta\in\boldsymbol\Theta_0}P_\boldsymbol\theta(T(\mathbf{X})\in W_\alpha|H_0)\!\leq\! \alpha$ O.K. (tzv. síla testu či silofunkce) $1\!-\!\beta(\boldsymbol\theta)\!=\!P_\boldsymbol\theta(T(\mathbf{X})\in W_\alpha|H_1)$ pro $\boldsymbol\theta\in\boldsymbol\Theta_1$
NEZAMÍTÁME
${t_n=T(\mathbf{x})\notin W_\alpha}$
O.K. chyba 2. druhu $\beta(\boldsymbol\theta)=P_\boldsymbol\theta(T(\mathbf{X})\not\in W_\alpha|H_1)$ pro $\boldsymbol\theta\in\boldsymbol\Theta_1$

Volba kritického oboru $W_\alpha$ se řídí požadavky:

  1. Chceme, aby pravděpodobnost chyby 1. druhu byla menší nebo rovna předem zvolenému malému $\alpha\in(0,1)$ (obvykle se volí $\alpha=0.01$ nebo $\alpha=0.05$), tj. aby platilo pro $\forall\boldsymbol\theta\in\boldsymbol\Theta_0$ $$\alpha_0=\sup_{\boldsymbol\theta\in\boldsymbol\Theta_0}P_\boldsymbol\theta(T(\mathbf{X})\in W_\alpha|H_0)\leq \alpha.$$ Pro spojitá rozdělení je vždy možné (i když ne nutné) zvolit test, jehož hladina je právě rovna $\alpha$. U diskrétních rozdělení jsou možnými hladinami testu jen některé diskrétní hodnoty. Není-li zvolená hladina mezi nimi, rozhodneme se pro hladinu, která je nejbližší nižší (nebo nejbližší vyšší).
  2. Mezi testy na hladině $\alpha$ se pak snažíme zvolit test s co nejmenší pravděpodobností chyby druhého druhu, tj. co nejsilnější test.

Vidíme, že postavení obou hypotéz je nesymetrické. Za nulovou hypotézu volíme tu, jejíž neoprávněné zamítnutí (chyba 1. druhu) je závažnější.

Definice 1.1.

Chybu, která spočívá v nesprávném zamítnutí nulové hypotézy, i když je správná, budeme nazývat chybou prvého druhu, pravděpodobnost

$${\;\alpha_0=\sup_{\boldsymbol\theta\in\boldsymbol\Theta_0}P_\boldsymbol\theta(T(\mathbf{X})\in W_\alpha|H_0)\;}$$

nazveme hladinou významnosti (též hladinou testu).

Chybu, která spočívá v nesprávném přijetí nulové hypotézy, i když neplatí, budeme nazývat chybou druhého druhu a její pravděpodobnost pro $\forall\boldsymbol\theta\in\boldsymbol\Theta_1$ označíme

$${\;\beta(\boldsymbol\theta)=P_\boldsymbol\theta(T(\mathbf{X})\not\in W_\alpha|H_1)\;}.$$

Pravděpodobnost $1-\beta(\boldsymbol\theta)$ nazýváme silou testu (též silou kritické oblasti $W_\alpha$) a jakožto funkci $\boldsymbol\theta\in\boldsymbol\Theta_1$ ji také nazveme silofunkcí testu.

2. Jednoduchá hypotéza a jednoduchá alternativa

Nejprve rozebereme nejjednodušší případ, kdy ${\boldsymbol\Theta=\{\boldsymbol\theta_0,\boldsymbol\theta_1\}}$.

V dalším budeme značit symbolem $\nu$ $\sigma-$konečnou míru na $(\mathbb{R}^n,\mathcal{B}^n)$ (např. Lebesgueova nebo čítací) a $f(\mathbf{x};\boldsymbol\theta)$ nezápornou měřitelnou funkci, tzv. hustotu pravděpodobnosti vzhledem k míře $\nu$. Tedy $f(\mathbf{x};\boldsymbol\theta)$ jsou jak hustoty absolutně spojitých náhodných veličin, tak pravděpodobnostní funkce.

Budeme předpokládat, že pravděpodobnostní míry $P_{\boldsymbol\theta_0}$ a $P_{\boldsymbol\theta_1}$ jsou absolutně spojité vzhledem k $\sigma$-konečné míře $\nu$.

Označme hustoty $p_0(\mathbf{x})=f(\mathbf{x};\boldsymbol\theta_0),$
$p_1(\mathbf{x})=f(\mathbf{x};\boldsymbol\theta_1).$
Lemma 2.1. (Neymanovo–Pearsonovo).

Nechť k danému $\alpha\in(0,1)$ existuje takové kladné číslo $c\gt 0$, že pro množinu ${W_0=\{\mathbf{x}\in\mathbb{R}^n:p_1(\mathbf{x})\geq c p_0(\mathbf{x})\}}$ platí ${\int_{W_0}p_0(\mathbf{x})\;d\nu(\mathbf{x})=\alpha}$. Pak pro libovolnou množinu $W\in\mathcal{B}^n$ splňující podmínku ${\int_{W}p_0(\mathbf{x})\;d\nu(\mathbf{x})\leq\alpha}$ platí

$$ {\int_{W_0}p_1(\mathbf{x})\;d\nu(\mathbf{x}) \geq \int_{W}p_1(\mathbf{x})\;d\nu(\mathbf{x})}.$$
Důkaz.

Pro jednoduchost pro $j=0,1$ místo $\int_{W_0}p_j(\mathbf{x})\;d\nu(\mathbf{x})$ pišme $\int_{W_0}p_j\;d\nu.$ Vzhledem k tomu, že množiny $W$ a $W_0$ lze psát jako disjunktní sjednocení, tj.

$$ W=(W-W_0)\cup (W\cap W_0) \qquad\text{ a }\qquad W_0=(W_0-W)\cup (W\cap W_0),$$

pak platí

$\displaystyle\int\limits_{W_0}\!p_1\;d\nu - \int\limits_{W}\!p_1\;d\nu$ $\displaystyle =\int\limits_{W_0-W} p_1\; d\nu + \int\limits_{W\cap W_0}p_1\; d\nu - \int\limits_{W-W_0} p_1\; d\nu - \int\limits_{W\cap W_0}p_1\; d\nu$
$\displaystyle =\int\limits_{W_0-W} p_1\; d\nu - \int\limits_{W-W_0} p_1\; d\nu .$ (14)

Integrační obor prvního integrálu v (14) je částí množiny $W_0$, takže vzhledem k definici této množiny můžeme ho odhadnout zdola. Obdobně integrační obor druhého integrálu v (14) není částí $W_0$, takže ho můžeme opět díky definici $W_0$ odhadnout shora, tj.

$$\begin{align*} \int\limits_{W_0}\!p_1\;d\nu - \int\limits_{W}\!p_1\;d\nu & =\int\limits_{W_0-W\in W_0}\underbrace{p_1}_{\geq cp_0}\; d\nu \quad -\int\limits_{W-W_0\notin W_0}\underbrace{p_1}_{\lt cp_0}\; d\nu\\ & \geq \int\limits_{W_0-W}c\;p_0\; d\nu \quad -\int\limits_{W-W_0}c\;p_0\; d\nu = c\left(\underbrace{\int_{W_0}p_0}_{=\alpha}\; d\nu - \underbrace{\int_{W}p_0\; d\nu}_{\leq \alpha}\right)\geq 0. \end{align*}$$

Předpoklady lemmatu požadují, aby kritické obory $W_0$ a $W$ měly za platnosti nulové hypotéz v prvém případě pravděpodobnost $\alpha$ a v druhém případě pravděpodobnost nejvýše $\alpha$. Tvrzení lemmatu porovnává pro dva kritické obory $W_0$ a $W$ pravděpodobnost, s jakou zamítnou nulovou hypotézu, když platí hypotéza alternativní, tj. porovnává sílu testu obou kritických oborů. Pro kritický obor $W_0$ je síla testu stejná nebo větší než pro libovolný kritický obor $W$, to znamená, že kritický obor $W_0$ je mezi kritickými obory s danou hladinou $\alpha$ nejsilnější možný.

\(\Box\)
Poznámka 2.2.

Předchozí lemma lze vyslovit takto:

Test s kritickým oborem ${W_0=\{\mathbf{x}\in\mathbb{R}^n:p_1(\mathbf{x})\geq c p_0(\mathbf{x})\}}$ (pro $c\gt 0$) určuje nejsilnější test hypotézy $H_0$ proti $H_1$ na dané hladině $\alpha$.

Příklad 2.3. (Jednoduchá hypotéza i alternativa pro náhodný výběr z normálního rozdělení při známém rozptylu).

Mějme \vDash\{X_1,\ldots,X_n\} \simeq N(\mu,\sigma^2), kde $\sigma^2$ je známé. Nechť $\mu_0,\mu_1\in\mathbb{R}$. Je třeba najít kritický obor ${W_0}$ nejsilnějšího testu

$${H_0}:\mu=\mu_0 \qquad\text{proti}\qquad {H_1}:\mu=\mu_1 \quad\text{na hladině}\quad \alpha\in(0,1).$$

Platí

$$\begin{array}{rl}\mathbf{X}\sim {f_\mathbf{X}(\mathbf{x};\mu)}&=\prod_{i=1}^nf_{X_i}(x_i;\mu) =\prod_{i=1}^n \tfrac{1}{\sqrt{2\pi}\sigma} e^{-\frac{1}{2}\left(\frac{x_i-\mu}{\sigma}\right)^2}\\&= {(2\pi\sigma^2)^{-\tfrac{n}{2}}\exp\left\{-\tfrac{1}{2\sigma^2} \sum_{i=1}^n(x_i-\mu)^2\right\}}.\end{array}$$

Dále si připomeňme, že položíme-li $\bar{X}=\tfrac{1}{n}\sum_{i=1}^n X_i$, resp. pro realizace $\bar{x}=\tfrac{1}{n}\sum_{i=1}^n x_i$, pak za platnosti nulové hypotézy ${H_0}$

$\bar{X}\;\sim\; N\left(\mu_0,\tfrac{\sigma^2}{n}\right) \qquad\Rightarrow\qquad U_{\bar{X}}=\frac{\bar{X}-E_{\mu_0}(\bar{X})}{\sqrt{D_{\mu_0}(\bar{X})}} =\frac{\bar{X}-\mu_0}{\sigma/\sqrt{n}} \;\sim\; N(0,1).$ (15)

Dále využijeme vztah

$\begin{array}{rl}\sum_{i=1}^n (x_i-\bar{x})^2&=\sum_{i=1}^n (x_i-\mu)^2-n(\bar{x}-\mu)^2\\ &\Rightarrow\quad\sum_{i=1}^n (x_i-\mu)^2=\sum_{i=1}^n (x_i-\bar{x})^2+n(\bar{x}-\mu)^2.\end{array}$ (16)

Označme $\qquad$ $p_0(\mathbf{x})=f_\mathbf{X}(\mathbf{x};\mu=\mu_0)$ $\qquad \text{ a }\qquad$ $p_1(\mathbf{x})=f_\mathbf{X}(\mathbf{x};\mu=\mu_1).$

Podmínku ${p_1(\mathbf{x})\geq c p_0(\mathbf{x})}$ lze napsat také takto ${\tfrac{p_1(\mathbf{x})}{p_0(\mathbf{x})}\geq c\gt 0}.$

Počítejme s využitím vztahu (16)

$$ \tfrac{p_1(\mathbf{x})}{p_0(\mathbf{x})} = \exp\left\{\tfrac{n}{2\sigma^2} \left[(\bar{x}-\mu_0)^2-(\bar{x}-\mu_1)^2 \right]\right\}\geq c. $$

Po zlogaritmování dostaneme

$\tfrac{n}{2\sigma^2} \left[(\bar{x}-\mu_0)^2-(\bar{x}-\mu_1)^2 \right] =\tfrac{n}{2\sigma^2} \left[ 2\bar{x}(\mu_1-\mu_0)-(\mu_1^2-\mu_0^2) \right]\geq \ln c$ (17)
  1. Předpokládejme, že $ \mu_0 \lt \mu_1$.

    Pak nerovnost (17) dále upravujme takto

    $$\bar{x}\geq \underbrace{\tfrac{\mu_1+\mu_0}{2} +\tfrac{\sigma^2\ln c}{n(\mu_1-\mu_0)}}_{\scriptsize{\text{označme }} k_1}$$

    Dokážeme najít takové ${k_1}$, aby platilo ${P_{\mu_0}(\bar{X}\geq k_1)=\alpha}$?

    Diskrétní rozdělení

    Díky normalitě výběrového průměru (viz (15)) však můžeme počítat a upravovat

    $$\alpha=P_{\mu_0}(\bar{X}\geq k_1)= P_{\mu_0}\left( \tfrac{\bar{X}-\mu_0}{\sigma/\sqrt{n}}\geq \tfrac{k_1-\mu_0}{\sigma/\sqrt{n}}\right) =1-\Phi\left(\tfrac{k_1-\mu_0}{\sigma/\sqrt{n}} \right)$$

    takže

    $$\Phi\left(\tfrac{k_1-\mu_0}{\sigma/\sqrt{n}} \right)=1-\alpha \qquad\Rightarrow\qquad u_{1-\alpha}=\tfrac{k_1-\mu_0}{\sigma/\sqrt{n}} \qquad\Rightarrow\qquad {k_1= \mu_0 + \tfrac{\sigma}{\sqrt{n}}u_{1-\alpha} }$$

    a kritický obor lze vyjádřit takto

    $W_0=\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\geq k_1\}= \left\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\geq \mu_0 +\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}\right\}.$
  2. Nyní předpokládejme, že $ \mu_0 \gt \mu_1$.

    Pak nerovnost (17) dále upravujme takto

    $$\bar{x}\leq \underbrace{\tfrac{\mu_1+\mu_0}{2} -\tfrac{\sigma^2\ln c}{n(\mu_0-\mu_1)}}_{\scriptsize{\text{ označme }} k_2}$$
    Diskrétní rozdělení

    Díky normalitě výběrového průměru (viz (15)) však můžeme počítat a upravovat

    $$\alpha=P_{\mu_0}(\bar{X}\leq k_2)= P_{\mu_0}\left( \tfrac{\bar{X}-\theta_0}{\sigma/\sqrt{n}}\leq \tfrac{k_2-\mu_0}{\sigma/\sqrt{n}}\right) =\Phi\left(\tfrac{k_2-\mu_0}{\sigma/\sqrt{n}} \right)$$

    takže

    $$\Phi\left(\tfrac{k_2-\mu_0}{\sigma/\sqrt{n}} \right)=\alpha \qquad\Rightarrow\qquad u_{\alpha}=-u_{1-\alpha}=\tfrac{k_2-\mu_0}{\sigma/\sqrt{n}} \qquad\Rightarrow\qquad {k_2=\mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}}$$

    a kritický obor lze vyjádřit takto

    $W_0=\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\leq k_2\}= \left\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\leq \mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}\right\}.$

Všimněme si, že při jednoduché hypotéze i alternativě

${H_0}:\mu=\mu_0 \qquad\text{proti}\qquad {H_1}:\mu=\mu_1 \quad\text{na hladině}\quad \alpha\in(0,1)$
při (1) $\quad \mu_0 \quad \lt \underbrace{\mu_1}_{\tiny\text{libovolné}}$ má $W_0$ stejný tvar nezávislý na $\mu_1$
(2) $\quad \mu_0 \quad \gt \underbrace{\mu_1}_{\tiny\text{libovolné}}$ má $W_0$ stejný tvar nezávislý na $\mu_1$

Říkáme, že

test je stejnoměrně nejsilnější vůči všem alternativám typu (1) $ \mu_0 \lt \mu_1$
(2) $ \mu_0 \gt \mu_1$
Příklad 2.4.

Mějme pro jednoduchost náhodný výběr rozsahu $n=1$, tj. jedinou náhodnou veličinu $X$ z rozdělení s hustotou

$$f(x;\theta)= \begin{cases} \theta x^{\theta-1} & x\in (0,1), \\ 0 & \text{jinak}. \end{cases} $$

Najdeme nejsilnější test hypotézy

$$H_0:\theta=1 \qquad\text{ proti }\qquad H_1: \theta=2 \qquad \text{ na dané hladině }\alpha=0.05.$$

Je třeba najít kritický obor ${W_0}=\{x\in\mathbb{R}:p_1(x)\geq c p_0(x)\}$ (pro $c\gt 0$), přičemž

$$ p_j(x) = f(x;\theta_j) =\begin{cases} \theta_j x^{\theta_j-1} & x\in (0,1),j=0,1 \\ 0 & \text{jinak}. \end{cases} $$

Podmínku ${p_1(x)\geq c p_0(x)}$ lze napsat také takto ${\tfrac{p_1(x)}{p_0(x)}\geq c\gt 0},$ takže

$$\tfrac{p_1(x)}{p_0(x)}=2x^{2-1}\geq c \quad\Rightarrow\quad x\geq \underbrace{\tfrac{c}{2}}_{=k}$$

a $k$ určíme z požadavku na hladinu významnosti, tj.

$$\alpha=0.05=\int_k^1p_0 dx=\int_k^1 dx=1-k \quad\Rightarrow\quad k=1-0.05=0.95$$

a

$${W_0}=\{x\in\mathbb{R}:x\geq 0.95\} $$

Všimněme si dále, že pokud bychom zvolili alternativní hypotézu trochu jinak, např.

$$H_1:\theta=3 \quad\Rightarrow\quad \tfrac{p_1(x)}{p_0(x)}=3x^{3-1}\geq c \quad\Rightarrow\quad x^2\geq \underbrace{\tfrac{c}{3}}_{=k^*},$$

pak zřejmě dostaneme jinou kritickou oblast, neboť tvar kritické oblasti závisí jak na nulové hypotéze, tak na alternativní.

Poznámka 2.5.

V současné době běžný statistický software (Statistika, SPSS, S$^+$, R, SAS) udává dosaženou hladinu (v anglicky psané literatuře P–value, significance value). Je to nejmenší hladina testu, při které bychom ještě hypotézu $H_0$ zamítli.

3. Jednoduchá hypotéza a složená alternativa


Nechť parametrický prostor $\boldsymbol\Theta$ má nejméně 3 různé body, z nichž jeden je $\boldsymbol\theta_0$. Položme $\boldsymbol\Theta_0=\{\boldsymbol\theta_0\}$. Je třeba otestovat hypotézu

$H_0:\boldsymbol\theta=\boldsymbol\theta_0 \qquad\text{proti}\qquad H_1:\boldsymbol\theta\in\boldsymbol\Theta-\boldsymbol\Theta_0$.

Nejprve si představme, že bychom se snažili najít pomocí N-P lemmatu nejsilnější test hypotézy $H_0$ proti alternativě

$$H_1':\boldsymbol\theta=\boldsymbol\theta_1\in\boldsymbol\Theta-\boldsymbol\Theta_0.$$

Obecně je třeba počítat s tím, že každý takovýto dílčí test bude mít jiný kritický obor. Může se však stát, že kritické obory budou stejné pro všechny zmíněné dílčí testy. Pak je rozumné test $H_0$ proti složené alternativě $H_1$ založit právě na tomto společném kritickém oboru. V tomto případě říkáme, že jde o

stejnoměrně nejsilnější test ${H_0}$ proti ${H_1}$.

Pokud však tato situace nenastane, vzniká otázka, jak postupovat v tomto případě. Zaveďme si proto nejprve pojem zkreslený (vychýlený) test.

Definice 3.1.

Testujme jednoduchou hypotézu $H_0:\boldsymbol\theta=\boldsymbol\theta_0$ proti alternativě $H_0:\boldsymbol\theta\neq \boldsymbol\theta_0$ na základě náhodného výběru s hustotou $f(\mathbf{x};\boldsymbol\theta)$. Nechť $W_\alpha$ je kritický obor testu. Řekneme, že test je zkreslený (vychýlený), jestliže existuje taková hodnota parametru $\boldsymbol\theta_1\neq\boldsymbol\theta_0$, pro kterou platí nerovnost

$$\underbrace{\int_{W_\alpha}p_1(\mathbf{x})d\nu} _{\scriptsize{\text{síla testu }}} \lt \underbrace{\int_{W_\alpha}p_0(\mathbf{x})d\nu} _{\scriptsize{\text{chyba 1. druhu}}}, $$

kde $ p_0(\mathbf{x})=f(\mathbf{x};\boldsymbol\theta_0)$ a $p_1(\mathbf{x})=f(\mathbf{x};\boldsymbol\theta_1)$.

Tato podmínka říká, že existuje parametr $\boldsymbol\theta_1$, pro který je síla testu menší než chyba 1. druhu, tedy

pravděpodobnost zamítnutí
pravdivé hypotézy
$\gt $ pravděpodobnost zamítnutí
nepravdivé hypotézy

což je naprosto nežádoucí vlastnost.

Tedy v případech, kdy nebude existovat rovnoměrně nejsilnější test, budeme se snažit vytvořit alespoň nezkreslený test.

Příklad 3.2. (Jednoduchá hypotéza a složená alternativa pro náhodný výběr z normálního rozdělení při známém rozptylu).

Mějme \vDash\{X_1,\ldots,X_n\} \simeq N(\mu,\sigma^2), kde $\sigma^2$ je známé. Nechť $\mu_0,\mu_1\in\mathbb{R}$.

Jak jsme již ukázali v příkladě 2.3, kritický obor je jiný pro $\mu_1\lt \mu_0 $ a $\mu_2\gt \mu_0 $, takže nenajdeme kritický obor stejnoměrně nejsilnějšího testu

$${H_0}:\mu=\mu_0 \qquad\text{proti}\qquad {H_1}:\mu\neq \mu_0 \quad\text{na hladině}\quad \alpha\in(0,1),$$

proto se budeme snažit najít kritický obor alespoň nezkresleného testu.

  1. Zvolíme-li kritický obor typu
    $W_\alpha=\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\geq k_1\}= \left\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\geq \mu_0 +\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}\right\}. $

    Pak silofunkce (což je síla testu jakožto funkce parametru $\boldsymbol\theta\in \boldsymbol\Theta-\boldsymbol\Theta_0$) je tvaru

    $$\begin{align*} \beta^*(\boldsymbol\theta) & =1\!-\!\beta(\boldsymbol\theta) \!=\!\beta^*(\mu)\!=\!\int_{W_\alpha}\!\! p_1\;d\nu \\ &= P_{\mu,\sigma}(\bar{X}\geq k_1)\\ & =P_{\mu,\sigma}(\bar{X}\geq \mu_0 +\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha})\\ & =P_{\mu,\sigma}\left(\tfrac{\bar{X}-\mu}{\sigma/\sqrt{n}}\geq \tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}+u_{1-\alpha}\right)\\ &=1\!-\!\Phi\left(\tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}+u_{1-\alpha} \right) \end{align*}$$

    Zřejmě platí

    $\beta^*(\mu_0)=\alpha$
    Diskrétní rozdělení
    a pro $\mu_1\lt \mu_0$ je síla testu $\lt $ chyba 1. druhu.
  2. Zvolíme-li kritický obor typu
    $W_\alpha=\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\leq k_2\}= \left\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\leq \mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}\right\}. $
    Diskrétní rozdělení

    Pak silofunkce je tvaru

    $$\begin{align*} \beta^*(\boldsymbol\theta) & =1\!-\!\beta(\boldsymbol\theta) \!=\!\beta^*(\mu)\!=\!\int_{W_\alpha}\!\! p_1\;d\nu \\ &= P_{\mu,\sigma}(\bar{X}\leq k_2)\\ & =P_{\mu,\sigma}(\bar{X}\leq \mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha})\\ & =P_{\mu,\sigma}\left(\tfrac{\bar{X}-\mu}{\sigma/\sqrt{n}}\leq \tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}-u_{1-\alpha}\right)\\ &=\Phi\left(\tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}-u_{1-\alpha} \right) \end{align*}$$

    Zřejmě opět platí

    $\beta^*(\mu_0)=\alpha$

    a pro $\mu_1\gt \mu_0$

    je síla testu $\lt $ chyba 1. druhu.
  3. Abychom se vyvarovali předchozích obtíží, zvolme nyní kritický obor takto
    $\begin{array}{rl}W_\alpha&=\!\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\notin(k_1,k_2),\text{ kde } k_1\lt k_2\}\\&=\! \left\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\notin \left(\mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\frac{\alpha}{2}}, \mu_0+\tfrac{\sigma}{\sqrt{n}}u_{1-\frac{\alpha}{2}}\right)\right\}. \end{array}$

    Pak silofunkce je tvaru

    $$\begin{align*} \beta^*(\boldsymbol\theta) & \!=\!1\!-\!\beta(\boldsymbol\theta) \!=\!\beta^*(\mu)\!=\!\int_{W_\alpha}\!\! p_1\;d\nu \\ &\!=\! P_{\mu,\sigma}(\bar{X}\leq k_1\wedge\bar{X}\geq k_2)\\ & \!=\!1\!-\!P_{\mu,\sigma}(\mu_0 \!-\!\tfrac{\sigma}{\sqrt{n}}u_{1-\frac{\alpha}{2}}\!\leq\! \bar{X}\!\leq\! \mu_0 \!+\!\tfrac{\sigma}{\sqrt{n}}u_{1-\frac{\alpha}{2}})\\ & \!=\!1\!-\!P_{\mu,\sigma}\left(\tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}\!-\!u_{1-\frac{\alpha}{2}} \!\leq\!\tfrac{\bar{X}\!-\!\mu}{\sigma/\sqrt{n}}\!\leq\! \tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}\!+\!u_{1-\frac{\alpha}{2}}\right)\\ &\!=\!1\!-\!\Phi\left(\tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}\!+\!u_{1-\frac{\alpha}{2}} \right) \!+\!\Phi\left(\tfrac{\mu_0-\mu}{\sigma/\sqrt{n}}\!-\!u_{1-\frac{\alpha}{2}} \right) \end{align*}$$

    Zřejmě platí

    $\beta^*(\mu_0)=\alpha$
    Diskrétní rozdělení

    a neexistuje žádné $\mu\neq\mu_0$, pro které je síla testu menší než chyba 1. druhu, takže jde o nezkreslený test.

4. Testy podílem věrohodností a testy založené na intervalových odhadech

Neymanovu-Pearsonovu větu nelze bezprostředně aplikovat na případ, kdy množiny $\boldsymbol\Theta_0$, $\boldsymbol\Theta_1$ nejsou obě jednobodové. Její princip konstrukce kritického oboru lze však použít s tím, že na místě $p_j(\mathbf{x})$, $j=0,1$, píšeme $\sup\limits_{\boldsymbol\theta\in\boldsymbol\Theta_j}p(x;\boldsymbol\theta)$. Dostáváme tedy kritický obor tvaru

$W_0^*=\left\{\mathbf{x}\in \mathbb{R}^n: \sup\limits_{\boldsymbol\theta\in\boldsymbol\Theta_1}p(x;\boldsymbol\theta) \geq c\sup\limits_{\boldsymbol\theta\in\boldsymbol\Theta_0}p(x;\boldsymbol\theta) \right\}.$

Pokud $c\gt 1$ (což je pravidlem) je ekvivalentně

$$W_0^*=\left\{\mathbf{x}\in \mathbb{R}^n: \sup\limits_{\boldsymbol\theta\in\boldsymbol\Theta}p(x;\boldsymbol\theta) \geq c\sup\limits_{\boldsymbol\theta\in\boldsymbol\Theta_0}p(x;\boldsymbol\theta) \right\}=\left\{\mathbf{x}\in \mathbb{R}^n: p(x;\widehat{\boldsymbol\theta}_{\scriptscriptstyle{\mathrm{MLE}}}) \geq c p(x;\widehat{\boldsymbol\theta}_{0,{\scriptscriptstyle{\mathrm{MLE}}}}) \right\}, $$

kde $\widehat{\boldsymbol\theta}_{\scriptscriptstyle{\mathrm{MLE}}}$ je maximálně věrohodný odhad $\boldsymbol\theta\in \boldsymbol\Theta$ a $\widehat{\boldsymbol\theta}_{0,{\scriptscriptstyle{\mathrm{MLE}}}}$ je maximálně věrohodný odhad za hypotézy $H_0$.

Příklad 4.1. (Náhodný výběr z normálního rozdělení při neznámém rozptylu a oboustranné alternativě).

Mějme \vDash\{X_1,\ldots,X_n\} \simeq N(\mu,\sigma^2), kde $\mu$ a $\sigma^2$ jsou neznámé parametry. Máme testovat hypotézu

${H_0}:\mu=\mu_0$ proti alternativě ${H_1}:\mu\neq \mu_0$ na hladině významnosti $\alpha\in(0,1)$

Parametr $\boldsymbol\theta=(\mu,\sigma^2)$ je zde dvourozměrný, množina $\boldsymbol\Theta=\{(\mu,\sigma^2):\mu\in\mathbb{R},0\lt \sigma^2\lt \infty \}$. Maximálně věrohodné odhady jsou

$\widehat{\boldsymbol\theta}_{\scriptscriptstyle{\mathrm{MLE}}}= \left(\bar{X}=\tfrac{1}{n}\sum\limits_{i=1}^nX_i, \tfrac{1}{n}\sum\limits_{i=1}^n(X_i-\bar{X})^2 \right)\quad$ a $\quad\widehat{\boldsymbol\theta}_{0,{\scriptscriptstyle{\mathrm{MLE}}}}= \left(\mu_0,\tfrac{1}{n}\sum\limits_{i=1}^n(X_i-\mu_0)^2 \right)$

Dosadíme-li tyto odhady za $\boldsymbol\theta=(\mu,\sigma^2)$ do výrazu

$$p(\mathbf{x};\boldsymbol\theta)= \prod_{i=1}^n\left( \tfrac{1}{\sqrt{2\pi\sigma^2}}\exp\left\{ -\tfrac{x_i-\mu)^2}{2\sigma^2} \right\}\right)= \left(2\pi\sigma^2\right)^{-\frac{n}{2}} \exp\left\{-\tfrac{1}{2\sigma^2}\sum_{i=1}^n(x_i-\mu)^2 \right\},$$

dostaneme pro $W_0^*$ nerovnost

$$\left( \tfrac{2\pi}{n}\sum_{i=1}^n(x_i-\bar{x})^2 \right)^{-\frac{n}{2}} \exp\left\{-\tfrac{n}{2}\right\} \geq c \left( \tfrac{2\pi}{n}\sum_{i=1}^n(x_i-\mu_0)^2 \right)^{-\frac{n}{2}} \exp\left\{-\tfrac{n}{2}\right\}, $$

což je

$$\sum\limits_{i=1}^n(x_i-\bar{x})^2\leq c_1 \sum\limits_{i=1}^n(x_i-\mu_0)^2.$$

Dále využijeme vztah

$$\underbrace{\sum\limits_{i=1}^n (x_i\!-\!\bar{x})^2}_{=(n-1)s^2} \!=\!\sum_{i=1}^n (x_i\!-\!\mu)^2-n(\bar{x}-\mu_0)^2 \quad\Rightarrow\quad \sum\limits_{i=1}^n (x_i\!-\!\mu_0)^2=\sum\limits_{i=1}^n (x_i\!-\!\bar{x})^2+n(\bar{x}\!-\!\mu_0)^2,$$

takže

$$\quad\sum\limits_{i=1}^n(x_i-\bar{x})^2 \leq c_1\left[\sum\limits_{i=1}^n(x_i-\bar{x})^2 +n(\bar{x}-\mu)^2\right]$$

což nakonec můžeme vyjádřit takto

$|\bar{x}-\mu_0|\sqrt{n}\geq c_2\sqrt{\tfrac{1}{n-1} \sum_{i=1}^n(x_i-\bar{x})^2}=c_2 s \quad\Rightarrow\quad$ $\frac{|\bar{x}-\mu_0|}{s}\sqrt{n}\geq c_2$.

Protože veličina $T_n=\frac{\bar{X}-\mu_0}{S}\sqrt{n}$ má za platnosti nulové hypotézy Studentovo $t$–rozdělení o $n-1$ stupních volností, pak na základě tohoto rozdělení můžeme určit kritickou hodnotu

$c_2=t_{1-\frac{\alpha}{2}}(n-1)$,

neboť

$$\alpha=P_{(\mu_0,\sigma^2)}(|T_n|\geq c_2)= P_{(\mu_0,\sigma^2)}\left( \tfrac{|\bar{X}-\mu_0|}{S}\sqrt{n}\geq t_{1-\frac{\alpha}{2}}(n-1) \right) $$

nebo ekvivalentně

$$1-\alpha= P_{(\mu_0,\sigma^2)}\left( \bar{X}-\tfrac{S}{\sqrt{n}}t_{1-\frac{\alpha}{2}}(n-1) \leq \mu_0\leq \bar{X}+\tfrac{S}{\sqrt{n}}t_{1-\frac{\alpha}{2}}(n-1) \right) $$

Hypotézu ${H_0}:\mu=\mu_0$ tedy zamítáme ve prospěch alternativy ${H_1}:\mu\neq \mu_0$ na hladině významnosti ${\alpha}$, pokud realizace

$t_n=\frac{|\bar{x}-\mu_0|}{s}\sqrt{n}\geq t_{1-\frac{\alpha}{2}}(n-1).$

Výsledky příkladů 2.3 a 4.1 naznačují, že existuje určitý VZTAH MEZI TESTY A INTERVALOVÝMI ODHADY, který lze popsat následovně.

Mějme náhodný výběr $\mathbf{X}=(X_1,\ldots,X_n)'$ rozsahu $n$ z rozdělení, které závisí na parametru $\boldsymbol\theta=(\theta_1,\ldots,\theta_m)' \in \boldsymbol\Theta$ a parametrickou funkci $\gamma(\boldsymbol\theta)$.

  1. Hypotéza ${H_0}:\gamma(\boldsymbol\theta)= \gamma(\boldsymbol\theta_0)$ proti (tzv. oboustranné) alternativě ${H_1}:\gamma(\boldsymbol\theta)\neq \gamma(\boldsymbol\theta_0)$:

    Mějme intervalový odhad $\left( D_n(\mathbf{X}),H_n(\mathbf{X}) \right)$ parametrické funkce $\gamma(\boldsymbol\theta)$ o spolehlivosti $1-\alpha$. Pokud platí nulová hypotéza, pak

    $$1-\alpha=P_{\boldsymbol\theta}\left( D_n(\mathbf{X})\leq \gamma(\boldsymbol\theta_0) \leq H_n(\mathbf{X})\right), $$

    takže kritický obor tohoto testu má tvar:

    $W_\alpha=\left\{ \mathbf{X}\in \mathbb{R}^n: \gamma(\boldsymbol\theta_0) \notin \left( D_n(\mathbf{X}) , H_n(\mathbf{X}) \right) \right\} $.

    Zjistíme-li v konkrétní situaci, že

    $\gamma(\boldsymbol\theta_0)\notin \left( d_n(\mathbf{x}),h_n(\mathbf{x}) \right)$ tj. realizace $\mathbf{x}\in W_\alpha$,

    potom

    • buď nastal jev, který má pravděpodobnost $\alpha$ (volí se blízká nule),
    • nebo neplatí nulová hypotéza.

    Protože při obvyklé volbě $\alpha=0.05$ nebo $\alpha=0.01$ je tento jev „prakticky nemožný“, proto nulovou hypotézu ${H_0}$ zamítáme ve prospěch alternativy ${H_1}$.

    V opačném případě, tj. pokud

    $\gamma(\boldsymbol\theta_0)\in \left( d_n(\mathbf{x}),h_n(\mathbf{x}) \right)$ tj. realizace $\mathbf{x}\notin W_\alpha$,

    nulovou hypotézu ${H_0}$ nezamítáme.

  2. Hypotéza ${H_0}:\gamma(\boldsymbol\theta)= \gamma(\boldsymbol\theta_0)$ proti (tzv. jednostranné) alternativě ${H_1}:\gamma(\boldsymbol\theta)\gt \gamma(\boldsymbol\theta_0)$:

    V tomto případě využijeme dolní odhad $D_n(\mathbf{X})$ parametrické funkce $\gamma(\boldsymbol\theta)$ o spolehlivosti ${1-\alpha}$. Pokud platí nulová hypotéza, pak

    $$1-\alpha=P_{\boldsymbol\theta}\left( D_n(\mathbf{X})\leq \gamma(\boldsymbol\theta_0) \right), $$

    takže kritický obor tohoto testu má tvar:

    $$W_\alpha=\left\{ \mathbf{X}\in \mathbb{R}^n: D_n(\mathbf{X}) \gt \gamma(\boldsymbol\theta_0) \right\}. $$
  3. Hypotéza ${H_0}:\gamma(\boldsymbol\theta)= \gamma(\boldsymbol\theta_0)$ proti (tzv. jednostranné) alternativě ${H_1}:\gamma(\boldsymbol\theta)\lt \gamma(\boldsymbol\theta_0)$ V tomto případě využijeme horní odhad $H_n(\mathbf{X})$ parametrické funkce $\gamma(\boldsymbol\theta)$ o spolehlivosti ${1-\alpha}$. Pokud platí nulová hypotéza, pak $$1-\alpha=P_{\boldsymbol\theta}\left( \gamma(\boldsymbol\theta_0) \leq H_n(\mathbf{X})\right), $$

    takže kritický obor tohoto testu má tvar:

    $$W_\alpha=\left\{ \mathbf{X}\in \mathbb{R}^n: H_n(\mathbf{X}) \lt \gamma(\boldsymbol\theta_0) \right\}. $$

    Předchozí úvahy shrňme do následující tabulky:

    $H_0$ $H_1$ Hypotézu $H_0$ zamítáme, pomocí
    intervalu spolehlivosti kritické oblasti,
    tj. pokud $\mathbf{x}\in W_\alpha$, kde $W_\alpha=$
    $\gamma(\boldsymbol\theta)= \gamma(\boldsymbol\theta_0)$ $\gamma(\boldsymbol\theta)\neq \gamma(\boldsymbol\theta_0)$ $\gamma(\boldsymbol\theta_0)\notin \left( d_n(\mathbf{x}),h_n(\mathbf{x}) \right)$ $\left\{\mathbf{X}\in \mathbb{R}^n\!:\!\gamma(\boldsymbol\theta_0) \notin \left( D_n(\mathbf{X}) , H_n(\mathbf{X}) \right)\right\}$
    $\gamma(\boldsymbol\theta)= \gamma(\boldsymbol\theta_0)$ $\gamma(\boldsymbol\theta)\gt \gamma(\boldsymbol\theta_0)$ $\gamma(\boldsymbol\theta_0) \lt d_n(\mathbf{x})$ $\left\{\mathbf{X}\in \mathbb{R}^n: D_n(\mathbf{X}) \gt \gamma(\boldsymbol\theta_0)\right\}$
    $\gamma(\boldsymbol\theta)= \gamma(\boldsymbol\theta_0)$ $\gamma(\boldsymbol\theta)\lt \gamma(\boldsymbol\theta_0)$ $\gamma(\boldsymbol\theta_0)\gt h_n(\mathbf{x}) $ $\left\{\mathbf{X}\in \mathbb{R}^n: H_n(\mathbf{X}) \lt \gamma(\boldsymbol\theta_0)\right\}$

5. Testy o parametrech normálního rozdělení, testy založené na centrální limitní větě

Pomocí intervalových (dolních, horních) odhadů, které jsme již dříve odvodili v sekci 4, dostáváme celou řadu kritických oblastí testů o parametrech normálního rozdělení. Poznamenejme, že se shodují s testy podílem věrohodností.

Přehled takto získaných testů pro jeden náhodný výběr \vDash\{X_1,\ldots,X_n\} \simeq N(\mu,\sigma^2) podáváme v následující tabulce:

$H_0$ $H_1$ Hypotézu $H_0$ zamítáme, pokud $\mathbf{X}\in W_\alpha$, tj. Předpoklady
$\mu=\mu_0$ $\mu\neq\mu_0$ $|\bar{X}-\mu_0|\sqrt{n} \geq \sigma u_{1-\frac{\alpha}{2}}$ $\sigma^2$ známé
$\mu=\mu_0$ $\mu\gt \mu_0$ $(\bar{X}-\mu_0)\sqrt{n} \geq \sigma u_{1-\alpha}$ $\sigma^2$ známé
$\mu=\mu_0$ $\mu\lt \mu_0$ $(\bar{X}-\mu_0)\sqrt{n} \leq - \sigma u_{1-\alpha}$ $\sigma^2$ známé
$\mu=\mu_0$ $\mu\neq\mu_0$ $|\bar{X}-\mu_0|\sqrt{n} \geq St_{1-\frac{\alpha}{2}}(n-1)$ $\sigma^2$ neznámé
$\mu=\mu_0$ $\mu\gt \mu_0$ $(\bar{X}-\mu_0)\sqrt{n} \geq St_{1-\alpha}(n-1)$ $\sigma^2$ neznámé
$\mu=\mu_0$ $\mu\lt \mu_0$ $(\bar{X}-\mu_0)\sqrt{n} \leq - St_{1-\alpha}(n-1)$ $\sigma^2$ neznámé
$\sigma^2=\sigma_0^2$ $\sigma^2\neq\sigma_0^2$ $\tfrac{(n-1)S^2}{\sigma_0^2} \notin \left(\chi_{\frac{\alpha}{2}}^2(n-1),\chi_{1-\frac{\alpha}{2}}^2(n-1)\right)$ $\mu$ neznámé
$\sigma^2=\sigma_0^2$ $\sigma^2\gt \sigma_0^2$ $\tfrac{(n-1)S^2}{\sigma_0^2}\geq\chi_{1-\alpha}^2(n-1) $ $\mu$ neznámé
$\sigma^2=\sigma_0^2$ $\sigma^2\lt \sigma_0^2$ $\tfrac{(n-1)S^2}{\sigma_0^2}\leq\chi_{\alpha}^2(n-1) $ $\mu$ neznámé

V případě dvou nezávislých výběrů

  • první náhodný výběr \vDash\{X_1,\ldots,X_{n_1}\}\sim N(\mu_1,\sigma_1^2) (s výběrovým průměrem $\bar{X}$ a výběrový rozptylem $S_1^2$),
  • druhý náhodný výběr \vDash\{Y_1,\ldots,Y_{n_2}\}\sim N(\mu_2,\sigma_2^2) (s výběrovým průměrem $\bar{Y}$ a výběrový rozptylem $S_2^2$),
  • a pokud označíme $$S_{12}^2= \frac{(n_1\!-\!1)S_1^2 +(n_2\!-\!1)S_2^2} {n_1+n_2-2},$$

pak následující tabulka se týká testů rovnosti středních hodnot a rozptylů:

$H_0$ $H_1$ Hypotézu $H_0$ zamítáme, pokud $(\mathbf{X}',\mathbf{Y}')'\in W_\alpha$, tj. Předpoklady
$\mu_1=\mu_2$ $\mu_1\neq\mu_2$ $|\bar{X}-\bar{Y}|\geq u_{1-\frac{\alpha}{2}} \sqrt{\tfrac{\sigma_1^2}{n_1}+\tfrac{\sigma_2^2}{n_2}}$ $\sigma_1^2,\sigma_2^2$ známé
$\mu_1=\mu_2$ $\mu_1\neq\mu_2$ $|\bar{X}-\bar{Y}|\ge t_{1-\frac{\alpha}{2}}(n_1\!+\!n_2\!-\!2) \;S_{12}\sqrt{\tfrac{n_1\!+\!n_2}{n_1n_2}}$ $\sigma_1^2=\sigma_2^2$ neznámé
$\sigma_1^2=\sigma_2^2$ $\sigma_1^2\neq\sigma_2^2$ $\frac{S_1^2}{S_2^2}\notin \left(F_{\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1), F_{1-\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1)\right)$ $\mu_1,\mu_2$ neznámé

Následující tabulka nabízí asymptotické testy pro náhodné výběry \vDash\{X_1,\ldots,X_n\} \simeq \mathcal{L}(\mu(\boldsymbol\theta),\sigma^2(\boldsymbol\theta) s konečnými druhými momenty (s výběrovým průměrem $\bar{X}=\tfrac{1}{n}\sum\limits_{i=1}^n X_i$ a se $S_*^2=S_*^2(\mathbf{X})$, což je (slabě) konzistentní odhad rozptylu $\sigma^2(\boldsymbol\theta$):

$H_0$ $H_1$ Hypotézu $H_0$ zamítáme, pokud $\mathbf{X}\in W_\alpha$, tj. Předpoklady
$\mu=\mu_0$ $\mu\neq\mu_0$ $\frac{|\bar{X}-\mu_0|}{S_*}\sqrt{n} \geq \ u_{1-\frac{\alpha}{2}}$ $0\lt \sigma^2(\boldsymbol\theta)\lt \infty$
$\mu=\mu_0$ $\mu\neq\mu_0$ $\frac{|\bar{X}-\mu_0|}{\sqrt{\bar{X}}}\sqrt{n} \geq u_{1-\frac{\alpha}{2}}$ \vDash\{X_1,\ldots,X_n\}\simeq Po(\mu)
$p=p_0$ $p\neq p_0$ $\frac{|\bar{X}-p_0|}{\sqrt{p_0(1-p_0)}}\sqrt{n} \geq u_{1-\frac{\alpha}{2}}$ \vDash\{X_1,\ldots,X_n\}\simeq A(p)

6. Vztah mezi pravděpodobností chyby prvního, druhého druhu a počtem pozorování

Abychom si uvědomili vztah mezi oběma chybami, ukážeme jednoduchý příklad.

Příklad 6.1. (Jednoduchá hypotéza i alternativa pro binomické rozdělení).

Dva chlapci, Honzík a František, mají každý svůj pytlík s barevnými kuličkami. Honzík má 80 bílých a 20 modrých kuliček, František 30 bílých a 70 modrých kuliček. Oba pytlíky jsou k nerozeznání. Vybereme náhodně jeden z pytlíků a chceme rozhodnout, kterému z chlapců patří. Za tím účelem provedeme následující test:

Výchozí test A:

Vybereme z pytlíku 10 kuliček. Pokud mezi nimi bude méně než $k=8$ bílých kuliček, zamítneme hypotézu, že patří Honzíkovi.

Vypočítejme chybu prvního i druhého druhu a pokusme se najít takový test, který by zajistil, aby chyby prvního i druhého druhu byly vůči chlapcům co nejvíce spravedlivé.

Označme jako ${Y}$ náhodnou veličinu, která značí počet bílých kuliček mezi deseti vybranými. Náhodná veličina $Y\in\{0,1,\ldots,n\}$, $n=10$. Zřejmě má binomické rozdělení, což pro $j=0,1$ značíme

$Y\sim Bi(n,\theta)$ s pravděpodobnostní funkcí $ p_j(x)= \begin{cases} {n\choose y}\theta_j^y(1-\theta_j)^{n-y} & y=0,\ldots,n, \\ 0 & \text{jinak}. \end{cases} $

Budeme testovat hypotézu $H_0:\theta=\theta_0=0.8$ proti alternativě $H_1:\theta=\theta_1=0.3$}, kde kritický obor je {$W_\alpha=\{0,1,\ldots,k-1\}$}. „Spravedlivý“ test budeme hledat pomocí procedury v Matlabu s využítím příkazů „binocdf(y,n,theta)“

testy

Optimální test B:

Pokud mezi deseti vybranými kuličkami bude méně než $k=6$ bílých, pak zamítáme hypotézu, že pytlík s kuličkami patří Honzíkovi.

Teprve nyní je pravděpodobnost chyby prvního i druhého druhu vyvážená, srovnejme

$$\begin{align*} \alpha & =\int_{W_\alpha} p_0 \;d\nu=\sum_{i=1}^{k-1} 0.8^y(1-0.8)^{n-y}= \begin{cases} 0.3222 & \text{A} \\ 0.0328 & \text{B} \end{cases} & 1-\alpha= \begin{cases} 0.6778 & \text{A} \\ 0.9672 & \text{B} \end{cases} \\ \beta &= \int_{W_1} p_1 \;d\nu=\sum_{i=k}^{10} 0.3^y(1-0.3)^{n-y}= \begin{cases} 0.0016 & \text{A} \\ 0.0473 & \text{B} \end{cases} & 1-\beta= \begin{cases} 0.9984 & \text{A} \\ 0.9527 & \text{B} \end{cases} \end{align*}$$
Tedy pravděpodobnost, že se v testu B vyvarujeme chyby 1. druhu je ${1-\alpha=0.9672}$
chyby 2. druhu je ${1-\beta =0.9527}$.

V předchozím příkladě jsme se snažili najít takový test, aby obě dvě chyby vyhovovaly našim představám.

Nyní se opět vrátíme k příkladu 3.2 a ukážeme, že síla testu je pro pevně danou chybu prvého druhu ovlivněna rozsahem výběru.

Příklad 6.2. (Síla testu a rozsah výběru pro jednoduchou hypotézu a složenou alternativu v případě náhodného výběru z normálního rozdělení při známém rozptylu).

Nechť \vDash\{X_1,\ldots,X_n\} \simeq N(\mu,\sigma^2) je normální náhodný výběr, ve kterém je $\mu$ je neznámý parametr a $\sigma^2\gt 0$ je známá konstanta. Uvažujme test hypotéz

(a) $H_0:\mu=\mu_0$ proti $H_1:\mu\neq \mu_0$
(b) $H_0:\mu=\mu_0$ proti $H_1:\mu \lt \mu_0$
(c) $H_0:\mu=\mu_0$ proti $H_1:\mu \gt \mu_0$

V příkladu 3.2 jsme zkonstruovali nezkreslený test pro oboustrannou alternativu a v příkladu 2.3 stejnoměrně nejsilnější testy pro jednostranné alternativy.

Na následujících grafech ukážeme, jak při pevně dané chybě prvého druhu roste hodnota silofunkce při rostoucím rozsahu výběru. Toho se právě využívá, pokud si předepíšeme obě chyby a hledáme rozsah výběru, při kterém nepřekročíme stanovené chyby.

testy
Příklad 6.3. (Výška desetiletých chlapců).

V roce 1961 byla u 15 náhodně vybraných chlapců z populace všech desetiletých chlapců žijících v Československu zjištěna výška

Výšky 15 desetiletých chlapců
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
130 140 136 141 139 133 149 151 139 136 138 142 127 139 147

Je známo, že každá následující generace je v průměru o něco vyšší než generace předcházející. Můžeme se tedy ptát, zda průměr $\bar{x}=139.133$ zjištěný v náhodném výběru rozsahu

diagram

$n=15$ znamená, že na 5\% hladině máme zamítnout nulovou hypotézu ${H_0:\mu=136.1}$ (zjištění z roku 1951) ve prospěch alternativní hypotézy ${H_1:\mu\gt 136.1}$.

Rozptyl $\sigma^2=6.4^2\text{ cm}^2$, zjištěný v roce 1951 (kdy se provádělo rozsáhlé šetření), můžeme považovat za známý, neboť variabilita výšek zůstává (na rozdíl od střední výšky) téměř nezměněná.

  1. Testování nulové hypotézy pomocí pivotové statistiky $U_{\overline{X}}$ a kritické hodnoty.

    Protože kritický obor $W_0$ lze ekvivalentně vyjádřit i takto

    $\begin{array}{rl}W_0&=\!\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\leq k_2\}\!=\! \left\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\leq \mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}\right\} \\&=\!\left\{\mathbf{x}\in\mathbb{R}^n:u_{\bar{x}}=\frac{\bar{x}-\mu_0}{\sigma}\sqrt{n} \leq u_{1-\alpha}\right\},\end{array}$

    počítejme $u_{\bar{x}}=\tfrac{139.133-136.1}{6.4}\sqrt{15}=1.835.$ Protože $u_{\bar{x}}=1.835$ překračuje kritickou hodnotu $u_{1-\alpha}=u_{0.95}=1.645$ (získáme pomocí Matlabu, a to příkazem „norminv(0.95)“) nulovou hypotézu na 5% hladině zamítneme ve prospěch alternativní hypotézy, že se střední výška desetiletých hochů zvětšila.

  2. Testování nulové hypotézy pomocí $p$-hodnoty
    graf

    Dosažená hladina odpovídající testové statistice (tj. tzv. $p$-hodnota, anglicky P-value, significance value), což je nejmenší hladina testu, při které bychom ještě hypotézu $H_0$ zamítli, je rovna $0.033$ (opět získáme pomocí Matlabu příkazem „1 - normcdf(mean(x),136.1,6.4/sqrt(n))“, takže například při $\alpha=2.5$% by již dosažený výsledek nebyl statisticky významný.

    Protože $p$-hodnota je menší než zvolená hladina významnosti $\alpha=0.05$, hypotézu zamítáme.

  3. Testování nulové hypotézy pomocí intervalu spolehlivosti $\langle D,+\infty)$

    Protože jde o jednostranný test, použijeme dolní odhad střední hodnoty $\mu$

    $$ d=\bar{x}-\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}=139.133-\tfrac{6.4}{\sqrt{15}} 1.645=136.415 $$

    Protože interval spolehlivosti $\langle 136.415,+\infty) $ nepokrývá hodnotu $136.1$, proto nulovou hypotézuna na hladině významnosti $\alpha=0.05$ zamítáme.

Příklad 6.4. (Počet pozorování při dané chybě prvního a druhého druhu).

Mějme \vDash\{X_1,\ldots,X_n\} \simeq N(\mu,\sigma^2), kde $\sigma^2=25$ je známé. Chceme testovat hypotézu

$${H_0}:\mu=\mu_0=5 \qquad\text{proti}\qquad {H_1}:\mu=\mu_1=4.$$

Naším úkolem je zjistit rozsah výběru tak, aby chyba 1. druhu byla rovna 0.05 a druhého druhu 0.01.

V příkladě 2.3 jsme, ukázali, že kritický obor pro rovnoměrně nejsilnější test pro alternativu typu $\mu_0\gt \mu_1$ je tvaru

$W_0=\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\leq k_2\}= \left\{\mathbf{x}\in\mathbb{R}^n:\bar{x}\leq \mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}\right\}.$

Jeli $\alpha=0.05$, pak $u_{1-\alpha}=1.645$. Při této volbě máme zajištěnu chybu prvního druhu rovnou $0.05$, tj.

$$P_{\mu_0}(\bar{X}\leq k_2)=\Phi\left(\tfrac{k_2-\mu_0}{\sigma/\sqrt{n}} \right)=\alpha=0.05.$$

Nyní musíme zvolit $n$ tak, aby pro chybu druhého druhu platilo

$$P_{\mu_1}(\bar{X}\gt k_2)=1-\Phi\left(\tfrac{k_2-\mu_1}{\sigma/\sqrt{n}} \right)\leq\beta=0.01,$$

takže

$$u_{1-\beta}=\frac{k_2-\mu_1}{\sigma/\sqrt{n}} =\frac{\mu_0 -\tfrac{\sigma}{\sqrt{n}}u_{1-\alpha}-\mu_1}{\sigma/\sqrt{n}} =\frac{\mu_0-\mu_1}{\sigma/\sqrt{n}}-u_{1-\alpha}$$

a odtud již dostaneme, že

$$u_{1-\beta}+u_{1-\alpha}=\tfrac{\mu_0-\mu_1}{\sigma/\sqrt{n}},$$

takže

$$\sqrt{n}= \tfrac{u_{1-\beta}+u_{1-\alpha}}{\mu_0-\mu_1}\sigma=19.8560$$

tj.

$n=\left\lceil\frac{(u_{1-\beta}+u_{1-\alpha})^2}{(\mu_0-\mu_1)^2}\sigma^2\right\rceil =\lceil 394.2610\rceil =395$,

kde symbol $\lceil c \rceil$ značí zaokrouhlení na celé číslo nahoru.

diagram

Pokud ovšem bychom $\sigma$ neznali, pak by úloha nešla vyřešit.

Příklad 6.5. Párový test
diagram

Pokud ovšem bychom $\sigma$ neznali, pak by úloha nešla vyřešit.

Na sedmi rostlinách byl posuzován vliv fungicidního přípravku podle počtu skrvn na listech před a týden po použití přípravku. Otestujte, zdali má přípravek vliv na počet skrvn na listech. Data udávající počet skrvn na listech před a po použití přípravku:

Počet skrvn na listech
před použitím přípravku $X_1$ 9 17 31 7 8 20 10
po použití přípravku $X_2$ 10 11 18 6 7 17 5

Za předpokladu, že náhodný výběr pochází z normálího rozdělení, tj.

\vDash \left\{
\begin{pmatrix}
  X_{1,1} \\
  X_{2,1}
\end{pmatrix},\ldots,
\begin{pmatrix}
  X_{1,n} \\
  X_{2,n}
\end{pmatrix}
 \right\}
\sim N_2\left(
\boldsymbol\mu=
\begin{pmatrix}
  \mu_{1} \\
  \mu_{2}
\end{pmatrix},
\Sigma=
\begin{pmatrix}
  \sigma_{1}^2 & \rho\sigma_{1}\sigma_{2} \\
  \rho\sigma_{1}\sigma_{2} & \sigma_{2}^2
\end{pmatrix}
 \right)
 ,\;\text{kde}\;\rho\in(0,1)
pak $\quad\begin{array}{c} X_1\sim N(\mu_1 , \sigma_1^2) \\ X_2\sim N(\mu_2 ,\sigma_2^2) \end{array}$, $Z = X_1 - X_2 \sim N(\mu_z = \mu_1 - \mu_2 , \sigma_z^2=\sigma_{1}^2+\sigma_{2}^2 +2 \rho\sigma_{1}\sigma_{2})$ a statistika $T=\frac{\bar{Z}}{S_Z/\sqrt{n}}=\frac{\bar{X}_1-\bar{X}_2}{S_Z/\sqrt{n}}$ má za platnosti nulové hypotézy ${H_0:\mu_1-\mu_2=0}$ Studentovo rozdělení o $n-1$ stupních volnosti.
  1. Testování nulové hypotézy pomocí intervalu spolehlivosti
    diagram
    $$\begin{align*} [&\bar{X}_1-\bar{X}_2 - t_{1-\alpha/2}(n-1) \cdot S / \sqrt{n}; \\ & \bar{X}_1-\bar{X}_2 + t_{1-\alpha/2}(n-1) \cdot S / \sqrt{n}]=\\ & [4 \pm 2.4469 \cdot 4.6547 / 2.6458] =\\ & [-0.30492 ; 8.3049] \end{align*}$$

    Protože interval spolehlivosti pokrývá hodnotu $Z=0$, na dané hladině významnosti hypotézu nemůžeme zamítnout.

  2. Testování nulové hypotézy pomocí statistiky T a kritické hodnoty
    graf

    Vypočítáme-li hodnotu statistiky

    $$T=\tfrac{\bar{X}_1-\bar{X}_2}{S/\sqrt{n}}$$

    a porovnáme s kvantilem Studentova rozdělení, tj.

    $$t=\tfrac{\bar{x}_1-\bar{x}_2}{s/\sqrt{n}}=2.2736 \ngtr t_{1-\alpha/2}(n-1)=2.4469,$$

    hypotézu

    $$H_0:\mu_1-\mu_2=0 $$

    nezamítáme.

  3. Testování nulové hypotézy pomocí $p$-hodnoty

    Vypočítáme-li $p$-hodnotu a porovnáme se zvolenou hladinou významnosti $\alpha=0.05$

    $$p=P(|T|\gt t)=2(1-P(|T|\leq t))=0.06335 \gt \alpha$$

    takže hypotézu

    $$H_0:\mu_1-\mu_2=0$$

    nezamítáme.

    Shrneme-li předchozí výsledky slovně, pak nulovou hypotézu o tom, že

    přípravek nemá vliv na počet skvrn

    na hladině významnosti $\alpha=0.05$ nemůžeme zamítnout oproti alternativě o jeho vlivu.

Příklad 6.6. (Dva nezávislé náhodné výběry z normálního rozdělení při neznámých ale stejných rozptylech).

Bylo vybráno 13 polí stejné kvality. Na 8 z nich se zkoušel nový způsob hnojení, zbývajících 5 bylo ošetřeno běžným způsobem. Výnosy pšenice uvedené v tunách na hektar jsou označeny $X_i$ u nového a $Y_i$ u běžného způsobu hnojení. (převzato z knihy Anděl, J.: Statistické metody, str. 82, př. 8.2).

Je třeba zjistit, zda způsob hnojení má vliv na výnos pšenice.

$X_i$ 5.7 5.5 4.3 5.9 5.2 5.6 5.8 5.1
$Y_i$ 5.0 4.5 4.2 5.4 4.4
graf

Nechť \vDash\{X_1,\ldots,X_{n_1}\}\sim N(\mu_1,\sigma_1^2) je náhodný výběr rozsahu $n_1$ z normálního rozdělení $N(\mu_1,\sigma_1^2)$, $\bar{X}$ je jeho výběrový průměr a $S_1^2$ jeho výběrový rozptyl.

Dále nechť \vDash\{Y_1,\ldots,Y_{n_2}\}\sim N(\mu_2,\sigma_2^2) je náhodný výběr rozsahu $n_2$ z normálního rozdělení $N(\mu_2,\sigma_2^2)$, $\bar{Y}$ je jeho výběrový průměr a $S_2^2$ jeho výběrový rozptyl.

Předpokládejme, že oba výběry jsou stochasticky nezávislé, tj. $\mathbf{X} \perp \mathbf{Y}$.

Chceme-li testovat hypotézu, že rozdíl středních hodnot je nulový (při neznámém rozptylu $\sigma^2=\sigma_1^2=\sigma_2^2$), za pivotovou statistiku zvolíme statistiku

$$T_{\bar{X}-\bar{Y}} =\frac{\bar{X}-\bar{Y}-(\mu_1-\mu_2)}{S_{12}} \sqrt{\frac{n_1 n_2}{n_1+n_2}} \;\sim\; t(n_1+n_2-2), $$

kde

$$S_{12}^2= \frac{(n_1\!-\!1)S_1^2 +(n_2\!-\!1)S_2^2} {n_1+n_2-2}.$$

Chceme-li použít $T_{\bar{X}-\bar{Y}}$, měli bychom být přesvědčeni o tom, že rozptyly obou výběrů se významně neliší. Budeme tedy nejprve testovat hypotézu $H_0: \frac{\sigma_1^2}{\sigma_2^2}=1 $, že podíl obou rozptylů je roven jedné proti alternativě, že se nerovná $H_1: \frac{\sigma_1^2}{\sigma_2^2}\neq 1 $ Za pivotovou statistiku zvolíme statistiku

$$F=\frac{S_1^2}{S_2^2}\frac{\sigma_2^2}{\sigma_1^2} \;\sim\; F(n_1-1,n_2-1).$$
  1. Můžeme například vypočítat statistiku $F$ za platnosti nulové hypotézy a porovnat ji s příslušnými oboustrannými kvantily.

    Protože

    $$\begin{array}{lc} f=1.1243 \\ F_{\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1)=0.1811 \\ F_{1-\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1)=9.0741 \ \end{array}$$

    vidíme, že $f$ není ani větší než horní kritický bod, ani menší než dolní kritický bod, takže hypotézu o rovnosti rozptylů proti alternativě nerovnosti nezamítáme a můžeme konstatovat, že data nejsou v rozporu s testovanou hypotézou.

    graf
  2. Další možností je spočítat dosaženou hladinu významnosti, tj. $p$-hodnotu (pomocí Matlabu: 2*min(1-fcdf(var(x)/var(y),n1-1,n2-1), fcdf(var(x)/var(y),n1-1,n2-1) a srovnat se zvolenou hladinou testu $\alpha$:

    $$p-value=0.9656\gg 0.05$$

    Protože $p$-hodnota je výrazně větší než zvolená hladina testu, hypotézu o rovnosti rozptylů proti alternativě nerovnosti nezamítáme. Můžeme také říci, že data nejsou v rozporu s testovanou hypotézou.

  3. A naposledy můžeme ještě zkostruovat $100(1-\alpha)$\% interval spolehlivosti pro podíl rozptylů $\frac{\sigma_1^2}{\sigma_2^2}$

    $$\left\langle \frac{S_1^2}{S_2^2}\frac{1} {F_{1-\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1)}, \frac{S_1^2}{S_2^2}\frac{1} {F_{\frac{\alpha}{2}}(n_1\!-\!1,n_2\!-\!1)} \right\rangle.$$

    a zjistit, zda pokrývá hodnotu $1$. Protože dostáváme interval {$\langle 0.1239,6.2088\rangle$}, který pokrývá jedničku, hypotézu nezamítáme.

Díky předchozímu zjištění již můžeme bez obav testovat hypotézu $H_0: \mu_1-\mu_2=0$ proti alternativě $H_1: \mu_1-\mu_2\neq 0$ provedeme to opět třemi způsoby:

  1. Testování nulové hypotézy pomocí intervalu spolehlivosti $$\begin{align*}& \left\langle \bar{X}\!-\!\bar{Y}\!-\!t_{1\!-\!\frac{\alpha}{2}}(\nu) \;S\sqrt{\tfrac{n_1\!+\!n_2}{n_1n_2}}; \bar{X}\!-\!\bar{Y}\!+\!t_{1\!-\!\frac{\alpha}{2}}(\nu) \;S\sqrt{\tfrac{n_1\!+\!n_2}{n_1n_2}}\right\rangle \\ &\qquad=\langle 0.6875 \pm 2.201\cdot 0.5089 / 1.7541\rangle \\ &\qquad=\langle 0.048958 ; 1.326 \rangle \end{align*}$$

    Protože interval spolehlivosti nepokrývá nulu, na dané hladině významnosti hypotézu zamítáme ve prospěch alternativy.

  2. Testování nulové hypotézy pomocí statistiky T a kritické hodnoty
    graf

    Vypočítáme-li hodnotu statistiky

    $$T_{\bar{X}-\bar{Y}} =\frac{\bar{X}-\bar{Y}-(\mu_1-\mu_2)}{S_{12}} \sqrt{\frac{n_1 n_2}{n_1+n_2}}$$

    a porovnáme s kvantilem Studentova rozdělení, tj.

    $$t_{\bar{x}-\bar{y}}=2.3697 \gt t_{1-\alpha/2}(11)=2.201,$$

    takže hypotézu

    $$H_0:\mu_1-\mu_2=0 $$

    zamítáme.

  3. Testování nulové hypotézy pomocí $p$-hodnoty

    Vypočítáme-li $p$-hodnotu a porovnáme se zvolenou hladinou významnosti $\alpha=0.05$

    $$p=P(|T_{\bar{X}-\bar{Y}}|\gt t)=2(1-P(|T_{\bar{X}-\bar{Y}}|\leq t))=0.037169 \lt \alpha$$

    takže hypotézu

    $$H_0:\mu_1-\mu_2=0$$

    zamítáme.

    Shrneme-li předchozí výsledky slovně, pak nulovou hypotézu o tom, že

    hnojení je stejně účinné

    na hladině významnosti $\alpha=0.05$ zamítáme ve prospěch alternativy, že má rozdílné účinky.

RNDr. Marie Forbelská, Ph.D., Mgr. Jan Koláček, Ph.D. |
ÚMS, Přírodovědecká fakulta, Masarykova univerzita |
Návrat na úvodní stránku webu, přístupnost |
Stránky Přírodovědecké fakulty MU
| Technická spolupráce:
| Servisní středisko pro e-learning na MU
| Fakulta informatiky Masarykovy univerzity, 2013

Centrum interaktivních a multimediálních studijních opor pro inovaci výuky a efektivní učení | CZ.1.07/2.2.00/28.0041