Číselné charakteristiky rozdělení pravděpodobností
1. Střední hodnota, její vlastnosti a výpočet
Definice 1.1.
Nechť $X$ je náhodná veličina definovaná na $(\Omega,\mathcal{A},P)$ a nechť
existuje integrál $\int\limits_\Omega X(\omega)\;dP(\omega) \lt
\infty$. Potom číslo
$$
EX=\int\limits_\Omega X(\omega)\;dP(\omega)
$$
nazýváme střední hodnotou náhodné veličiny $X$.
Pokud uvedený integrál není konečný nebo
neexistuje, říkáme, že střední hodnota náhodné
veličiny $X$ neexistuje.
Poznámka 1.2.
Z definice střední hodnoty náhodné veličiny plyne, že $EX$
existuje, právě když náhodná veličina $X$ (což je borelovsky
měřitelná funkce $X(\omega)$) je integrovatelná na $\Omega$
vzhledem k pravděpodobnostní míře $P$.
Často se symbolem $\mathcal{L}_1=\mathcal{L}_1(\Omega,\mathcal{A},P)$ značí
množina všech náhodných veličin definovaných na $(\Omega,\mathcal{A},P)$, které
mají konečné střední hodnoty.
Z vlastností integrovatelných funkcí ihned plynou
následující základní vlastnosti střední hodnoty.
Věta 1.3.
Nechť $X,X_1,X_2$ jsou náhodné veličiny definované
na pravděpodobnostním prostoru $(\Omega,\mathcal{A},P)$, $a,a_1,a_2\in\mathbb{R}$.
Potom
- $EX$ existuje
$\quad\Leftrightarrow\quad$ $E|X|$ existuje.
- Jestliže
$P(X=a)=1$ $\quad\Rightarrow\quad$ $EX=a$.
- Existují-li
$EX_1$, $EX_2$ $\quad\Rightarrow\quad$
$E(a_1X_1+a_2X_2)=a_1EX_1+a_2EX_2$.
- Nechť existují $EX_1$,
$EX_2$ a platí $X_1\leq X_2$
$\quad\Rightarrow\quad$ $EX_1\leq EX_2$.
- Nechť $|X_1|\leq X_2$ a $EX_2$ existuje
$\quad\Rightarrow\quad$ $EX_1$ existuje.
- Nechť $P(X\geq
0)=1$ $\quad\Rightarrow\quad$ $EX\geq 0$.
Další vlastnosti střední hodnoty, zejména vzorce vhodné pro její
výpočet, plynou ze známé věty o přenosu integrace z měřitelného
prostoru $(\Omega,\mathcal{A})$ na měřitelný prostor
$(\Lambda,\mathcal{D})$ pomocí měřitelné funkce $h$. Tuto větu
budeme citovat pro případ, kdy
$(\Lambda,\mathcal{D})=(\mathbb{R}^n,\mathcal{B}^n)$.
Věta 1.4. Věta o přenosu integrace.
Nechť $\mathbf{X}=(X_1,\ldots,X_n)'$ je $n$-rozměrný
náhodný vektor definovaný na pravděpodobnostním prostoru $(\Omega,\mathcal{A},P)$,
$g$ je borelovsky měřitelná funkce
na $(\mathbb{R}^n,\mathcal{B}^n)$, $P_\mathbf{X}$ je rozdělení
pravděpodobností náhodného vektoru $\mathbf{X}$. Potom
$$
\int\limits_{\Omega} g(\mathbf{X}(\omega))dP(\omega)
=\int\limits_{\mathbb{R}^n}
g(\mathbf{x})dP_\mathbf{X}(\mathbf{x})
$$
Poznámka 1.5.
Má-li náhodný vektor $\mathbf{X}=(X_1,\ldots,X_n)'$ distribuční funkci $F(\mathbf{x})$,
potom rozdělení pravděpodobností $P_\mathbf{X}=\mu_F$, kde
$\mu_F$ je Lebesgueova-Stieltjesova míra indukovaná
distribuční funkcí $F$ a můžeme psát
$$
\int\limits_{\Omega} g(\mathbf{X}(\omega))dP(\omega)
=\int\limits_{\mathbb{R}^n} g(\mathbf{x})dP_\mathbf{X}(\mathbf{x})
=\int\limits_{\mathbb{R}^n} g(\mathbf{x})d\mu_F
\stackrel{\scriptsize{\text{značíme}}}{=}\int\limits_{\mathbb{R}^n}
g(\mathbf{x})dF(\mathbf{x}).
$$
Důsledek 1.6.
Nechť $X$ je náhodná veličina, resp. $\mathbf{X}=(X_1,\ldots,X_n)'$ je náhodný vektor
definovaný na $(\Omega,\mathcal{A},P)$. Potom platí
- Existuje-li střední hodnota $EX$, potom existuje konečný integrál
$\int\limits_{-\infty}^\infty xdF(x)$ a naopak. V tomto případě
platí $EX=\int\limits_{-\infty}^\infty xdF(x)$, tj.
$X\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow
\int\limits_{-\infty}^\infty xdF(x)\lt \infty $.
- Nechť $X\;\sim\; (M,p)$ je diskrétního typu, pak platí
$X\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow \sum\limits_{x\in
M}xp(x)$ absolutně konverguje. V tomto případě
$EX=\sum\limits_{x\in M}xp(x)$.
- Nechť $X\;\sim\; f(x)$ je absolutně spojitého typu. Potom
z existence střední hodnoty $EX$ plyne integrovatelnost funkce
$xf(x)$ vzhledem k Lebesgueově míře a naopak. V tomto případě
platí $EX=\int\limits_{-\infty}^\infty xf(x)dx$, tj.
$X\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow xf(x)$ je integrovatelná
vzhledem k Lebesgueově míře.
- Nechť $g(x)$ je borelovská funkce. Potom střední hodnota
transformované náhodné veličiny $Y=g(X)$ existuje právě když
existuje a je konečný integrál $\int\limits_{-\infty}^\infty
g(x)dF(x)\lt \infty$. V tomto případě platí
$EY=Eg(X)=\int\limits_{-\infty}^\infty g(x)dF(x)$.
- Nechť $X\;\sim\; (M,p)$ je diskrétního
typu, pak platí $Y\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow
\sum\limits_{x\in M}g(x)p(x)$ absolutně konverguje. V tomto
případě $EY=Eg(X)=\sum\limits_{x\in M}g(x)p(x)$.
- Nechť $X\;\sim\; f(x)$ je absolutně spojitého typu.
Potom $EY$ existuje právě když je funkce $g(x)f(x)$
integrovatelná vzhledem k Lebesgueově míře a přitom platí
$EY=Eg(X)=\int\limits_{-\infty}^\infty g(x)f(x)dx$, tj.
$EY=Eg(X)\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow g(x)f(x)$ je
integrovatelná vzhledem k Lebesgueově míře.
- Nechť $g(x_1,\ldots,x_n)$ borelovská funkce. Potom střední hodnota náhodné
veličiny $Y=g(\mathbf{X})$ existuje, právě když existuje
integrál
$\int\limits_{\mathbb{R}^n}g(\mathbf{x})dF(\mathbf{x})\lt \infty$.
V tomto případě
$EY=\int\limits_{\mathbb{R}^n}g(\mathbf{x})dF(\mathbf{x}).$
Dále
- Nechť $\mathbf{X}\;\sim\; (M,p)$
je diskrétního typu, pak platí $Y\in\mathcal{L}_1(\Omega,\mathcal{A},P)
\Leftrightarrow \sum\limits_{x\in M}g(\mathbf{x})p(\mathbf{x})$
absolutně konverguje. V tomto případě
$EY=Eg(\mathbf{X})=\sum\limits_{\mathbf{x}\in
M}g(\mathbf{x})p(\mathbf{x})$.
- Nechť $\mathbf{X}\;\sim\; f(\mathbf{x})$ je absolutně
spojitého typu. Potom $EY$ existuje právě když je funkce
$g(\mathbf{x})f(\mathbf{x)}$ integrovatelná vzhledem
k Lebesgueově míře a přitom platí
$EY=Eg(\mathbf{X})=\int\limits_{\mathbb{R}^n}
g(\mathbf{x})f(\mathbf{x})d\mathbf{x}$, tj.
$EY=Eg(\mathbf{X})\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow
g(\mathbf{x})f(\mathbf{x})$ je integrovatelná vzhledem
k Lebesgueově míře.
Příklad 1.7. Motivační příklad
Jak bylo uvedeno v definici, střední hodnotu náhodné veličiny
označujeme písmenem $E$. Toto označení pochází z anglického
„expected value“ (očekávaná hodnota). V tomto příkladu bychom
chtěli demonstrovat význam slova „očekávaný“.
Uvažujme hru „kolo štěstí“, kde účastník hry roztočí kolo
znázorněné na obr. 1. Každé pole tohoto kola definuje
výhru (v Kč), která bude vyplacena hráči v případě, že na toto
pole ukazuje šipka po zastavení kola. Za každou hru zaplatí hráč
provozovateli 1 Kč. Zajímá nás, z pohledu hráče, jestli se nám
vyplatí takovou hru hrát, tj. jaká je „očekávaná“ hodnota
našeho zisku.
Obrázek 1. „Kolo štěstí“
Řešení:
Označme $Y$ náhodnou veličinu, která udává náš zisk z jedné hry a
dále označme $X$ náhodnou veličinu udávající částku, kterou si
vytočíme na kole v jedné hře. Zřejmě platí $Y=X-1$. Hodnoty
náhodné veličiny $X$ a její pravděpodobnostní funkce jsou uvedeny
v následující tabulce:
$X$ |
0 |
1 |
2 |
4 |
$p(x)$ |
$\frac{1}{2}$ |
$\frac{1}{8}$ |
$\frac{1}{4}$ |
$\frac{1}{8}$ |
Střední hodnota (tj. očekávaná hodnota) našeho zisku z jedné hry
je tedy
\[
\begin{split}
EY & = EX - 1\\
&=0\cdot\frac{1}{2}+1\cdot\frac{1}{8}+2\cdot\frac{1}{4}+4\cdot\frac{1}{8}
- 1\\
&= \frac{1}{8}=0,125.
\end{split}
\]
To znamená, že se nám hru vyplatí hrát, neboť např. při 1 000
opakováních je očekávaný zisk 125 Kč.
Příklad 1.8. Střední hodnota Poissonova rozdělení.
Mějme náhodnou
veličinu $X\sim Po(\lambda)$ s pravděpodobnostní funkcí
$$
p(x)=
\begin{cases}
e^{-\lambda}\frac{\lambda^{x}}{x!} & x\in M=\{0,1,\ldots,\} \\[1ex]
0 & \text{jinak}.
\end{cases}
$$
Počítejme střední hodnotu
$$\begin{align*}
{{EX}} & = \sum\limits_{x=0}^\infty xp(x)=
\sum\limits_{x=0}^\infty x e^{-\lambda}\frac{\lambda^{x}}{x!}
=e^{-\lambda}\sum\limits_{x=1}^\infty\frac{\lambda^{x}}{(x-1)!}
=\lambda e^{-\lambda}\sum\limits_{x=1}^\infty\frac{\lambda^{x-1}}{(x-1)!}\\
& =\begin{vmatrix}
subst.\; y=x-1
\end{vmatrix}=
\lambda
\underbrace{e^{-\lambda}\sum\limits_{y=0}^\infty\frac{\lambda^{y}}{y!}}_{1=\sum\limits_{y\in
M}p(y)} ={{\lambda}}.
\end{align*}$$
Příklad 1.9. Střední hodnota normálního (Gaussova) rozdělení.
Mějme
náhodnou veličinu s normálním rozdělením $X\sim N(\mu,\sigma^2)$
s hustotou
$$f(x)=\frac{1}{\sqrt{2\pi}\sigma}\exp\left\{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2\right\}.$$
Počítejme
$$ EX = \int_{-\infty}^\infty x f(x) dx =
\int_{-\infty}^\infty \tfrac{1}{\sqrt{2\pi}\sigma}
x e^{-\tfrac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}dx. $$
Položíme-li $y=\tfrac{x-\mu}{\sigma}$, tj. $x=\sigma y+\mu$ a
$dx=\sigma dy$, pak
$$\begin{align*}
{{EX}} & = \int_{-\infty}^\infty \tfrac{1}{\sqrt{2\pi}\sigma}
x e^{-\frac{1}{2}\left(\tfrac{x-\mu}{\sigma}\right)^2}dx=
\tfrac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty (\sigma y+\mu) e^{-\frac{1}{2}y^2}dy\\
& = \tfrac{\sigma}{\sqrt{2\pi}}
\underbrace{\int_{-\infty}^\infty ye^{-\frac{1}{2}y^2}dy}_{=0\;({\scriptsize{\text{lichá funkce}}})}
+ \mu \underbrace{\int_{-\infty}^\infty \tfrac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}y^2}dy}_%
{=1\;({\scriptsize{\text{hustota }}} Y\sim N(0,1))} =
{{\mu}}.
\end{align*}$$
Věta 1.10. Střední hodnota součinu nezávislých náhodných veličin.
Nechť $X_1,\ldots,X_n$ jsou
nezávislé náhodné veličiny definované
na $(\Omega,\mathcal{A},P)$ a nechť existují střední hodnoty $EX_1,\ldots,EX_n$.
Pak platí
$$E\left(\prod\limits_{i=1}^n X_i\right)= \prod\limits_{i=1}^n EX_i.$$ |
(4.1.11) |
Důkaz.
Položme $Y_i=\prod\limits_{i=1}^n X_i$, tj. $g(x_1,\ldots,x_n)=x_1\cdot
\cdots \cdot x_n$. S využitím faktu, že $X_1,\ldots,X_n$ jsou nezávislé
náhodné veličiny, pro které musí platit $ F(x_1,\ldots,x_n)=F_1(x_1)\cdot
\cdots \cdot F_n(x_n), $ počítejme střední hodnotu transformované
náhodné veličiny
$$\begin{align*}
{EY} & = \int\limits_{\mathbb{R}^n}g(\mathbf{x})dF(\mathbf{x})
=\int\limits_{-\infty}^\infty \cdots \int\limits_{-\infty}^\infty
x_1\cdot \cdots \cdot x_n dF(x_1,\ldots,x_n)\\
&\stackrel{nez.}{=} \int\limits_{-\infty}^\infty \cdots \int\limits_{-\infty}^\infty
x_1\cdot \cdots \cdot x_n\left[
dF_1(x_1)\cdot \cdots \cdot dF_n(x_n)
\right]=
\underbrace{\int\limits_{-\infty}^\infty x_1 dF_1(x_1)}_{=EX_1\lt \infty}
\cdot \cdots \cdot
\underbrace{\int\limits_{-\infty}^\infty x_n dF_n(x_n)}_{=EX_n\lt \infty}\\
&= {EX_1\cdot \cdots \cdot EX_n}.
\end{align*}$$
\(\Box\)
2. Obecné a centrální momenty
Definice 2.1.
Nechť $X$ je náhodná veličina definovaná na $(\Omega,\mathcal{A},P)$. Potom čísla
$\mu'_k=EX^k$ |
|
obecným |
|
$\mu_k=E(X-EX)^k$ |
nazýváme $k$-tým |
centrálním |
momentem náhodné veličiny $X$ |
$\bar{\mu}_k=E|X|^k$ |
|
absolutním |
|
za předpokladu, že uvedené střední hodnoty pro $k=1,2,\ldots$ existují.
Poznámka 2.2.
Je-li $k$-tý moment konečný, tj. $EX^k\lt \infty$, píšeme
$X\in\mathcal{L}_k(\Omega,\mathcal{A},P)$ nebo zkráceně $X\in\mathcal{L}_k$.
Věta 2.3. Vlastnosti momentů.
Nechť pro $n\in\mathbb{N}$ existuje
$\mu'_n=EX^n\lt \infty$. Potom platí
- Existují
$\begin{array}{lcll}
\mu'_k &=&EX^k & \lt \infty \\
\mu_k&=&E(X-EX)^k & \lt \infty \\
\bar{\mu}_k&=&E|X|^k & \lt \infty
\end{array}$
pro libovolná $k\leq n$
- Dále platí
$$\left(\bar{\mu}_k\right)^{\frac{1}{k}}
=\left(E|X|^k\right)^{\frac{1}{k}}
\leq
\left(\bar{\mu}_n\right)^{\frac{1}{n}}
=\left(E|X|^n\right)^{\frac{1}{n}}
\qquad \text{pro libovolná } k\leq n$$ |
(4.2.12) |
Důkaz.
Tvrzení (1) vyplývá z vlastností Lebesgueových integrálů; v tvrzení (2) jde o speciální případ tzv. Hölderovy nerovnosti.
\(\Box\)
Definice 2.4.
- Řekneme, že náhodná veličina $X$ má
konečný druhý moment, jestliže
$\mu_2'=EX^2\lt \infty$.
- Druhý centrální moment
nazýváme rozptyl a značíme $DX=E(X-EX)^2=\mu_2$.
- Číslo $\sigma_X=\sqrt{DX}$ nazýváme směrodatnou
odchylkou náhodné veličiny $X$.
Věta 2.5. Vlastnosti rozptylu.
Nechť $X,X_1,X_2$ jsou náhodné
veličiny definované na $(\Omega,\mathcal{A},P)$ s konečnými druhými momenty,
$a,a_1,a_2\in\mathbb{R}$. Pak
- $DX\geq 0$
- $DX=EX^2-(EX)^2$
- Jestliže $P(X=a)=1$, pak $DX=0$.
- $D(a_1+a_2X)=a_2^2DX$
- Nechť $X_1,X_2$ jsou nezávislé náhodné
veličiny, pak $D(X_1+X_2)=DX_1+DX_2$.
Důkaz.
- Protože pro transformovanou náhodnou veličinu
$Y=(X-EX)^2$ platí , že $P(Y\geq 0)=1$, pak $EY\geq 0$, přičemž
$EY=DX$.
- $\begin{align}{DX}&=E(X-EX)^2=E\left[ X^2-2(EX)\cdot X+ (EX)^2
\right]\\
&=EX^2-2EX\cdot EX+ EX^2={EX^2-(EX)^2}\end{align}$
- Jestliže $P(X=a)=1$, pak $X$ je diskrétní náhodná veličina, tj.
$$X\sim(M,p_X), \qquad
\text{kde} \qquad
M=\{a\} \qquad a \qquad p_X(x)=
\begin{cases}
1 & x=a, \\
0 & jinak.
\end{cases}
$$
takže${EX}=\sum\limits_{x\in M}xp_X(x)=ap_X(a)={a}$
a
${DX}=\sum\limits_{x\in M}(x-a)^2p_X(x)=(a-a)^2\cdot 1={0}$
- $\begin{array}[t]{@{}lcl@{}}
{D(a_1+a_2X)} & = & E\left[a_1+a_2X-E(a_1+a_2X)\right]^2
=E\left[a_1+a_2X-a_1-a_2EX\right]^2 \\
&= &E\left[a_2(X-EX)\right]^2 =a_2^2E(X-EX)^2 ={a_2^2DX}
\end{array}$
- $\begin{array}[t]{@{}lcl@{}}
{D(X_1\!+\!X_2)} & = &
E\left[X_1\!+\!X_2\!-\!E(X_1\!+\!X_2)\right]^2
\!=\!E\left[X_1\!+\!X_2\!-\!EX_1\!-\!EX_2\right]^2\\
&=&E\left[(X_1\!-\!EX_1)\!+\!(X_2\!-\!EX_2)\right]^2\\
&=&E\left[(X_1\!-\!EX_1)^2\!+\!2(X_1\!-\!EX_1)(X_2\!-\!EX_2)
+(X_2\!-\!EX_2)^2\right]\\[1ex]
&=&\underbrace{E(X_1\!-\!EX_1)^2}_{=DX_1}
\!+\!2\underbrace{E[(X_1\!-\!EX_1)(X_2\!-\!EX_2)]}_%
{\stackrel{nez.}{=}E(X_1\!-\!EX_1)\cdot E(X_2\!-\!EX_2)\!=\!0\cdot
0} \!+\!\underbrace{E(X_2\!-\!EX_2)^2}_{=DX_2}\\
&=&{DX_1\!+\!DX_2}
\end{array}$
\(\Box\)
Příklad 2.6. Rozptyl Poissonova rozdělení.
Mějme náhodnou veličinu
$X\sim Po(\lambda)$ s pravděpodobnostní funkcí
$$
p(x)=
\begin{cases}
e^{-\lambda}\frac{\lambda^{x}}{x!} & x\in M=\{0,1,\ldots,\} \\[1ex]
0 & \text{jinak}.
\end{cases}
$$
Abychom mohli vypočítat rozptyl
$$DX=EX^2-(EX)^2$$
potřebujeme znát střední hodnotu, a ta je rovna $EX=\lambda$
(viz
příklad 1.8). Dále počítejme
$$\begin{align*}
{EX^2} & = \sum\limits_{x=0}^\infty x^2p(x)=
\sum\limits_{x=0}^\infty x^2 e^{-\lambda}\frac{\lambda^{x}}{x!}
=e^{-\lambda}\sum\limits_{x=0}^\infty
\left[x(x-1)+x\right]\frac{\lambda^{x}}{x!}\\[1ex]
& =e^{-\lambda}\sum\limits_{x=0}^\infty x(x-1)
\frac{\lambda^{x}}{x(x-1)(x-2)!}
+\underbrace{e^{-\lambda}\sum\limits_{x=0}^\infty x
\frac{\lambda^{x}}{x!}}_{=EX=\lambda}\\[1ex]
&=e^{-\lambda}\sum\limits_{x=2}^\infty
\frac{\lambda^{x}}{(x-2)!}+\lambda
=e^{-\lambda}\lambda^2\sum\limits_{x=2}^\infty
\frac{\lambda^{x-2}}{(x-2)!}+\lambda\\[1ex]
&=\lambda^2\sum\limits_{y=0}^\infty
\underbrace{e^{-\lambda}\frac{\lambda^{y}}{(y)!}}_{=1=\sum\limits_{y\in M}p(y)}
+\lambda
= {{\lambda^2+\lambda}},
\end{align*}$$
takže
$$
{{DX}} =\lambda^2+\lambda-\lambda^2={{\lambda}}.
$$
Příklad 2.7. Rozptyl normálního (Gaussova) rozdělení.
Mějme náhodnou
veličinu s normálním rozdělením $X\sim N(\mu,\sigma^2)$ s hustotou
$$f(x)=\frac{1}{\sqrt{2\pi}\sigma}\exp\left\{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2\right\}.$$
Počítejme rozptyl přímo podle definice
$$ DX = E(X-EX)^2= \int_{-\infty}^\infty (x-EX)^2 f(x) dx =
\int_{-\infty}^\infty \tfrac{1}{\sqrt{2\pi}\sigma}
(x-\mu)^2 e^{-\tfrac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}dx. $$
Položíme-li $y=\tfrac{x-\mu}{\sigma}$, tj.
$x-\mu=\sigma y$ a $dx=\sigma dy$, potom
$$\begin{align*}
\boxed{DX} & = \int_{-\infty}^\infty \tfrac{1}{\sqrt{2\pi}\sigma}
(x-\mu)^2 e^{-\frac{1}{2}\left(\tfrac{x-\mu}{\sigma}\right)^2}dx\\
&=
\tfrac{\sigma^2}{\sqrt{2\pi}}\int_{-\infty}^\infty
\underbrace{y^2 e^{-\frac{1}{2}y^2}}_{\scriptsize{\text{sudá funkce}}}dy \\
& =2\int_{0}^\infty \tfrac{\sigma^2}{\sqrt{2\pi}} y^2 e^{-\frac{1}{2}y^2} dy.
\end{align*}$$
Položme $\frac{1}{2}y^2=t$, tj. $y=\sqrt{2t}$ a $y
dy = dt$. Potom dostaneme
$$ \boxed{DX}=\sigma^2\int_{0}^\infty \tfrac{2}{\sqrt{2\pi}} \sqrt{2t}e^{-t} dt=
\sigma^2\tfrac{2}{\sqrt{\pi}}
\int_{0}^\infty t^{\frac{3}{2}-1}e^{-t} dt=\boxed{\sigma^2},$$
protože
$$\int_{0}^\infty t^{\tfrac{3}{2}-1}e^{-t}=\Gamma\left(\tfrac{3}{2}\right)=
\Gamma\left(1+\tfrac{1}{2}\right)=\tfrac{1}{2}\Gamma\left(\tfrac{1}{2}\right)=
\tfrac{1}{2}\sqrt{\pi}.$$
Věta 2.8. Čebyševova nerovnost.
Nechť $X$ je náhodná veličina
s konečným druhým momentem. Potom pro libovolné $\varepsilon\gt 0$
platí
$$P(|X-EX|\geq \varepsilon)\leq \frac{DX}{\varepsilon^2}.$$ |
(4.2.13) |
Důkaz.
Zvolme $\varepsilon\gt 0$ a označme
$M_\varepsilon=\{x\in\mathbb{R}:|x-EX|\geq\varepsilon\}$.
Potom
$$\begin{array}{lcl}
DX & = &
E(X-EX)^2 = \int\limits_{-\infty}^\infty (x-EX)^2 dF(x) \geq
\int\limits_{M_\varepsilon}\underbrace{(x-EX)^2}_{\geq
\varepsilon^2}dF(x)\\
& \geq & \varepsilon^2 \int\limits_{M_\varepsilon}dF(x)
= \varepsilon^2 P(X\in M_\varepsilon)=
\varepsilon^2 P(|X-EX|\geq\varepsilon)
\end{array}$$
\(\Box\)
Poznámka 2.9.
Položíme-li
$\varepsilon =k\sqrt{DX}=k\sigma_X$, kde $k\in\mathbb{N}$
a $DX\gt 0$, pak máme
$$\begin{align*}
P(EX-k\sigma_X \lt X \lt EX+k\sigma_X) & =P(|X-EX|\lt k\sigma_X)=1-P(|X-EX|\geq
k\sigma_X) \\
& \stackrel{\scriptsize{\text{Čeb.ner.}}}{\geq} 1-\frac{DX}{k^2
DX}=1-\tfrac{1}{k^2}
\end{align*}$$
Tedy platí |
$$P(|X-EX|\lt k\sigma_X)\geq 1-\tfrac{1}{k^2}$$ |
(4.2.14) |
Zvolíme–li například $k=3$ pak
$
P(|X-EX|\lt 3\sigma_X)\geq 1-\tfrac{1}{9}=\tfrac{8}{9}\doteq 0.89,
$
což lze slovně charakterizovat takto:
náhodná veličina $X$ se při své realizaci neodchýlí od své střední
hodnoty o více než trojnásobek své směrodatné odchylky
s pravděpodobností aspoň 0.89.
3. Kovariance a korelační koeficient
V celém odstavci budeme předpokládat, že náhodné veličiny mají
konečné druhé momenty.
Je třeba si uvědomit, že z existence konečných druhým momentů
plyne i existence prvních momentů a rozptylu,
neboť ze Schwarzovy nerovnosti plyne, že
$
|E(X\cdot Y)|\!\leq\! \sqrt{EX^2EY^2}
$.
Položíme-li $Y=1$, dostaneme nerovnost $ |E(X)|\!\leq\!
\sqrt{EX^2} \lt \infty $ a můžeme vyjádřit i rozptyl $
DX\!=\!EX^2\!-\!(EX)^2\! \lt \! \infty $.
Dále budeme předpokládat, že náhodné veličiny mají nenulový
rozptyl, tj. že nejsou degenerované.
Definice 3.1.
Kovariancí dvou náhodných veličin $X$ a $Y$ nazýváme číslo
$C(X,Y)=E(X-EX)(Y-EY)$
a číslo
$R(X,Y)=\frac{C(X,Y)}{\sqrt{DX DY}}$
nazýváme korelační koeficient.
Věta 3.2.
Nechť náhodné veličiny $X$ a $Y$ mají sdruženou distribuční funkci
$F(x,y)$. Pak
$$C(X,Y)=\int\limits_{-\infty}^\infty\int\limits_{-\infty}^\infty
(x-EX)(y-EY)dF(x,y)$$ |
(4.3.15) |
- Nechť náhodné veličiny jsou diskrétního typu,
tj. $(X,Y)'\;\sim\; (M,p(x,y))$, pak platí
$$C(X,Y)=\sum\limits_{(x,y)\in M}
(x-EX)(y-EY)p(x,y)$$ |
(4.3.16) |
- Nechť náhodné veličiny jsou absolutně spojitého typu, tj.
$(X,Y)'\;\sim\; f(x,y)$, pak platí
$$C(X,Y)=\int\limits_{-\infty}^\infty\int\limits_{-\infty}^\infty
(x-EX)(y-EY)dF(x,y)$$ |
(4.3.17) |
Důkaz.
Věta je důsledkem věty o střední hodnotě transformovaného
náhodného vektoru, kdy $g(X,Y)=(X-EX)(Y-EY)$.
\(\Box\)
Příklad 3.3. Kovariance a korelace normálního (Gaussova) rozdělení.
Nechť náhodný vektor $\;\mathbf{X}=(X,Y)'\sim N_2(\boldsymbol\mu,\boldsymbol\Sigma)\;$
má dvourozměrné normální rozdělení s parametry
$\boldsymbol\mu=$ $\begin{pmatrix}
\mu_{1} \\
\mu_{2}
\end{pmatrix}$ a
$\boldsymbol\Sigma=$ $\begin{pmatrix}
\sigma_{1}^2 & \rho\sigma_{1}\sigma_{2} \\
\rho\sigma_{1}\sigma_{2} & \sigma_{2}^2
\end{pmatrix}$,
tj. má hustotu tvaru
$$f_{(X,Y)}(x,y)=\tfrac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}
\exp\left\{ -\tfrac{1}{2(1-\rho^2)}
\left[\left(\tfrac{x-\mu_1}{\sigma_1}\right)^2 -2\rho
\tfrac{x-\mu_1}{\sigma_1}\tfrac{y-\mu_2}{\sigma_2}
+\left(\tfrac{y-\mu_2}{\sigma_2}\right)^2\right]\right\}.$$
Naším úkolem bude vypočítat korelační koeficient.
Z příkladů
1.9 a
2.7 víme, že pro marginální
náhodné veličiny platí
$$
\begin{array}{lcl@{\qquad\qquad}lcl}
EX&=&\mu_1 & EY&=&\mu_2\\[1ex]
DX&=&\sigma_1^2 & DY&=&\sigma_2^2
\end{array}
$$
Dále víme, že standardizovaná náhodná veličina $U=\frac{X-\mu}{\sigma}\sim N(0,1)$ má nulovou střední hodnotu a jednotkový rozptyl, tj.
$$
EU = \tfrac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty ue^{-\frac{1}{2}u^2}dy =0 \qquad\text{a}\qquad
DU = \tfrac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty
u^2 e^{-\frac{1}{2}u^2}dy =1.
$$
Protože $R(X,Y)=\frac{C(X,Y)}{\sqrt{DX}\sqrt{DY}}$,
počítejme nejprve kovarianci
$$\begin{align*}
C(X,Y) & = E(X-EX)(Y-EY) = \int_{-\infty}^\infty \int_{-\infty}^\infty (x-EX)(y-EY)f_{(X,Y)}(x,y)dx dy\\
& =\tfrac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}} \int_{-\infty}^\infty \int_{-\infty}^\infty
(x-\mu_1)(y-\mu_2) e^{-\frac{1}{2(1-\rho^2)}
\left[\left(\frac{x-\mu_1}{\sigma_1}\right)^2 -2\rho \frac{x-\mu_1}{\sigma_1}\frac{y-\mu_2}{\sigma_2}
+\left(\frac{y-\mu_2}{\sigma_2}\right)^2\right]}dx dy.
\end{align*}$$
Položíme-li nejprve $u=\tfrac{x-\mu_1}{\sigma_1}$,
$v=\tfrac{y-\mu_2}{\sigma_2}$, (tj. $x-\mu_1=\sigma_1 u$,
$y-\mu_2=\sigma_2 v$ a $dx=\sigma_1 du$, $dy=\sigma_2 dv$),
dostaneme
$$\begin{align*}
C(X,Y) & =\tfrac{\sigma_1\sigma_2}{2\pi\sqrt{1-\rho^2}} \int_{-\infty}^\infty \int_{-\infty}^\infty
uv\; e^{-\frac{1}{2(1-\rho^2)} [u^2-2\rho uv +v^2]} du dv\\
& =\tfrac{\sigma_1\sigma_2}{2\pi\sqrt{1-\rho^2}} \int_{-\infty}^\infty
u\;e^{-\frac{1}{2(1-\rho^2)} u^2}\left[\int_{-\infty}^\infty
v\; e^{-\frac{1}{2(1-\rho^2)} (v^2-2\rho u v) } dv
\right] du.
\end{align*}$$
Protože platí $v^2-2\rho u v = (v-\rho u)^2-\rho^2 u^2$,
pokračujme
$$
C(X,Y)=\tfrac{\sigma_1\sigma_2}{\sqrt{2\pi}} \int_{-\infty}^\infty
u e^{-\frac{u^2(1-\rho^2)}{2(1-\rho^2)}}
\underbrace{\left[
\tfrac{1}{\sqrt{2\pi(1-\rho^2)}}\int_{-\infty}^\infty
v\; e^{-\frac{(v-\rho v)^2}{2(1-\rho^2)}} dv \right]}_{\scriptsize{\text{ označme }} I_1} du.
$$
Zavedeme-li substituci $\frac{v-\rho u}{\sqrt{1-\rho^2}}=t$, pak
$v=\sqrt{1-\rho^2}\; t+\rho u$ a $ dv=\sqrt{1-\rho^2}\; dt$,
takže
$$\begin{align*}
\boxed{I_1} & = \tfrac{1}{\sqrt{2\pi(1-\rho^2)}}\int_{-\infty}^\infty(\sqrt{1-\rho^2}\; t+\rho u)
e^{-\frac{1}{2}t^2}\sqrt{1-\rho^2}\;dt\\
& =\sqrt{1-\rho^2}
\underbrace{\tfrac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty t e^{-\frac{1}{2}t^2}dt}_%
{=0=EU,\;{\scriptsize{\text{ kde }}}U\sim N(0,1)}
+ \rho u \underbrace{\tfrac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty e^{-\frac{1}{2}t^2}dt}_%
{=1\;({\scriptsize{\text{ hustota }}}U\sim N(0,1))}=\boxed{\rho u}
\end{align*}$$
Pokračujme
$$ \boxed{C(X,Y)}=\tfrac{\sigma_1\sigma_2}{\sqrt{2\pi}} \int_{-\infty}^\infty \rho u^2 e^{-\frac{u^2}{2}}du
=\rho\sigma_1\sigma_2
\underbrace{\tfrac{1}{\sqrt{2\pi}} \int_{-\infty}^\infty u^2 e^{-\frac{u^2}{2}}du}_%
{=1=DU,\;{\scriptsize{\text{ kde }}}U\sim N(0,1)}= \boxed{\rho\sigma_1\sigma_2}$$
a korelační koeficient je tedy roven
$$\boxed{R(X,Y)}=\frac{C(X,Y)}{\sqrt{DX}\sqrt{DY}}=
\frac{\rho\sigma_1\sigma_2}{\sigma_1\sigma_2}=\boxed{\rho}.$$
Věta 3.4. Vlastnosti kovariance a korelace.
Nechť $X$ a $Y$ jsou
náhodné veličiny, $a_1,a_2,b_1,b_2\in\mathbb{R}$. Potom
- $C(X,X)=DX$ a
$R(X,X)=1$.
- $C(X,Y)=C(Y,X)$ a
$R(X,Y)=R(Y,X)$.
- $C(X,Y)=E(XY)-(EX)(EY)$.
- Jsou-li
náhodné veličiny $X$ a $Y$ nezávislé, pak
$C(X,Y)=R(X,Y)=0$.
- $|C(X,Y)|\leq \sqrt{DX DY}$
a $|R(X,Y)|\leq 1$.
- $C(a_1+a_2X,b_1+b_2Y)=a_2b_2C(X,Y)$
$R(a_1+a_2X,b_1+b_2Y)=R(X,Y)\text{sign}(a_2b_2)$,
je-li $a_2\neq 0$ a $b_2\neq 0$.
- $D(X+Y)=DX + DY +2C(X,Y)$.
$R(X,Y)=1$ |
$\quad\Leftrightarrow\quad$ |
existují konstanty $a$ a
$b\gt 0$ takové, že |
$P(Y=a+bX)=1$ |
$R(X,Y)=-1$ |
$\quad\Leftrightarrow\quad$ |
existují konstanty $a$ a
$b\lt 0$ takové, že |
$P(Y=a+bX)=1$ |
Důkaz.
- ${C(X,X)}=E(X-EX)^2={DX}$ a
${R(X,X)}=\frac{C(X,Y)}{\sqrt{DXDY}}=\frac{DX}{DX}={1}$
- $\begin{array}[t]{lcl}{C(X,Y)}&=&E[(X-EX)(Y-EY)]=E[(Y-EY)(X-EX)]\\
&=&{C(Y,X)\Leftrightarrow R(X,Y)=R(Y,X)}\end{array}$.
- $\begin{array}[t]{@{}lcl@{}} {C(X,Y)} & = & E[(X-EX)(Y-EY)]
=E[XY -X\cdot EY- EX\cdot Y +EX\cdot EY]\\
&=& E(XY)-EX\cdot EY-EX\cdot EY+EX\cdot EY={E(XY)-(EX)(EY)}
\end{array}$
- Jestliže $X$ a $Y$ jsou nezávislé $\Rightarrow$ $E(XY)=(EX)(EY)$,
takže $C(X,Y)\stackrel{(3)}{=}E(XY)-(EX)(EY)=(EX)(EY)-(EX)(EY)=0
\;\;\Rightarrow\;\;R(X,Y)=0$
- Podle Schwarzovy nerovnosti pro střední hodnoty náhodných
veličin $W$ a $Z$ platí vztah
$|E(WZ)|\leq\sqrt{EW^2}\sqrt{EZ^2}$, přičemž rovnost nastává
$\Leftrightarrow$ $P(Z=cW)=1$, $c\neq 0$, tj. s pravděpodobností
1 jsou náhodné veličiny $W$ a $Z$ proporcionální. Položíme-li
$W=X-EX$ a
$Z=Y-EY$, dostaneme
$$\left[
\int\limits_{-\infty}^\infty\int\limits_{-\infty}^\infty
(x\!-\!EX)(y\!-\!EY)dF(x,y) \right]^2 \!\leq\! \underbrace{
\int\limits_{-\infty}^\infty\int\limits_{-\infty}^\infty
(x\!-\!EX)^2dF(x,y) }_{=DX} \underbrace{
\int\limits_{-\infty}^\infty\int\limits_{-\infty}^\infty
(y\!-\!EY)^2dF(x,y) }_{=DY}$$
Odtud plyne tvrzení
$|C(X,Y)|\leq \sqrt{DX DY}$ a
$|R(X,Y)|=\left|\frac{C(X,Y)}{\sqrt{DXDY}}\right|\leq 1$.
- $\begin{array}[t]{@{}l@{\;}c@{\;}l@{}} C(a_1+a_2X,b_1+b_2Y)&=&
E[(a_1+a_2X-E(a_1+a_2X))(b_1+b_2Y-E(b_1+b_2Y))]\\
&=&E[a_2(X-EX)][b_2(Y-EY)]\\
&=&a_2b_2E[(X-EX)(Y-EY)]=a_2b_2C(X,Y)\\
R(a_1+a_2X,b_1+b_2Y)&=&
\frac{C(a_1+a_2X,b_1+b_2Y)}{\sqrt{D(a_1+a_2X)\sqrt{D(b_1+b_2Y)}}}
=\frac{a_2b_2C(X,Y)}{\sqrt{a_2^2DX}\sqrt{b_2^2DY}}
=\underbrace{\frac{a_2b_2}{|a_2||b_2|}}_{={\scriptsize{\text
sign}}(a_2b_2)}R(X,Y)
\end{array}$
- $\begin{array}[t]{@{}l@{\;}c@{\;}l@{}}
{D(X+Y)} &=& E[X+Y-E(X+Y)]^2=E[(X-EX)+(Y-EY)]^2\\
&=&E[(X-EX)^2+2(X-EX)(Y-EY)+(Y-EY)^2]\\
&=&E(X-EX)^2E(X-EX)(Y-EY)+E(Y-EY)^2\\&=&{DX+2C(X,Y)+ DY}
\end{array}$
- Protože
$1\!=\!|R(X,Y)|\!=\!\frac{|C(X,Y)|}{\sqrt{DX}\sqrt{DY}}
\Leftrightarrow
C(X,Y)\!=\!\overbrace{|R(X,Y)|}^{=1}\sqrt{DX}\sqrt{DY}$, takže
nastala rovnost ve Schwarzově nerovnosti. V tom případě
jsou s pravděpodobností 1 náhodné veličiny $X\!-\!EX$ a $Y\!-\!EY$
proporcionální, tj. $\exists\; c\!\neq\!0$ a platí
$1\!=\!P(Y\!-\!EY\!=\!c(X\!-\!EX))\!=\!P(Y\!=\!EY\!-\!cEX\!+\!cX)$.
Položme $a=EY-cEX$ a $b=c$, pak $P(Y=a+bX)=1$.
Vrátíme-li se ke korelačnímu koeficientu,
dostaneme
$$R(X,Y)=R(X,a+bX)\stackrel{(6)}{=}sign(b)\underbrace{R(X,X)}_{=1}=
\begin{cases}
\;\;1 & b\gt 0, \\
-1 & b\lt 0.
\end{cases}
$$
\(\Box\)
Poznámka 3.5.
Jestliže je kovariance a korelace nulová, tj. $C(X,Y)=R(X,Y)=0$,
pak říkáme, že náhodné veličiny $X$ a $Y$ jsou
nekorelované.
Poznámka 3.6.
V případě dvourozměrného normálního rozdělení
$\;\mathbf{X}=(X,Y)'\sim
N_2(\boldsymbol\mu,\boldsymbol\Sigma)\;$ s parametry
$\boldsymbol\mu=\begin{pmatrix}
\mu_{1} \\
\mu_{2}
\end{pmatrix}$ a
$\boldsymbol\Sigma=\begin{pmatrix}
\sigma_{1}^2 & \rho\sigma_{1}\sigma_{2} \\
\rho\sigma_{1}\sigma_{2} & \sigma_{2}^2
\end{pmatrix}$
a s hustotou
$$f_{(X,Y)}(x,y)=\tfrac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}
\exp\left\{ -\tfrac{1}{2(1-\rho^2)}
\left[\left(\tfrac{x-\mu_1}{\sigma_1}\right)^2 -2\rho
\tfrac{x-\mu_1}{\sigma_1}\tfrac{y-\mu_2}{\sigma_2}
+\left(\tfrac{y-\mu_2}{\sigma_2}\right)^2\right]\right\}.$$ víme,
že $R(X,Y)=\rho$ (viz příklad 3.3). Jsou-li obě
náhodné veličiny nekorelované, tj. $\rho=0$, tak ze tvaru
hustoty vyplývá, že obě náhodné veličiny jsou i
nezávislé, neboť platí
$$f_{(X,Y)}(x,y)=f_{X}(x)f_{Y}(y)$$
Toto tvrzení lze snadno zobecnit i na $n$-rozměrné normální rozdělení
$$\mathbf{X}=(X_1,\ldots,X_n)'\sim
N_n(\boldsymbol\mu,\boldsymbol\Sigma) \text{ s hustotou }
f_{\mathbf{X}}(\mathbf{x})=\left(2\pi\right)^{-\frac{n}{2}} \vert
\boldsymbol{\Sigma} \vert^{-\frac{1}{2}}
e^{-\frac{1}{2}(\mathbf{X}-\boldsymbol\mu)'\boldsymbol{\Sigma}^{-1}
(\mathbf{X}-\boldsymbol\mu)}$$
kdy nekorelovanost a nezávislost jsou ekvivalentní
vlastnosti, právě když matice
$$\boldsymbol\Sigma=\text{diag}(\sigma_1^2,\ldots,\sigma_n^2)$$
Toto tvrzení však neplatí obecně pro jiná rozdělení, jak nám ukáže následující
příklad.
Příklad 3.7.
Mějme dvourozměrný diskrétní náhodný vektor
$\displaystyle (X,Y)'\;\sim\;(M,p)$, kde
$$ M=M_X\times
M_Y=\{0,1\}\times\{-1,0,1\} \text{ a }
p(x,y)=
\begin{cases}
\frac{1}{3} & (x,y)\in\{(0,0),(1,-1),(1,1)\}, \\
0 & jinak.
\end{cases}
$$
Vypočítáme korelační koeficient a marginální pravděpodobnostní funkce. Na základě toho pak určíme, zda
případná nekorelovanost implikuje i nezávislost.
$X/Y$ |
$-1$ |
$0$ |
$1$ |
$p_X(x)$ |
$0$ |
$0$ |
$\frac{1}{3}$ |
$0$ |
$\frac{1}{3}$ |
$1$ |
$\frac{1}{3}$ |
$0$ |
$\frac{1}{3}$ |
$\frac{2}{3}$ |
$p_Y(y)$ |
$\frac{1}{3}$ |
$\frac{1}{3}$ |
$\frac{1}{3}$ |
$1$ |
$$
\begin{array}{@{}l@{\;}c@{\;}l@{\;}l@{}}
{EX} &=& \sum\limits_{x\in M_X}x\;p_X(x)&=0\cdot\frac{1}{3}
+1\cdot\frac{2}{3}={\frac{2}{3}}\\[1.5em]
{EY} &=& \sum\limits_{y\in
M_Y}y\;p_Y(y)&=(-1)\cdot\frac{1}{3}+0\cdot\frac{1}{3}
+1\cdot\frac{1}{3}={0}\\[1.5em]
{E(XY)} & = & \sum\limits_{(x,y)\in M}xy\;p(x,y)&=
0\cdot0\cdot\frac{1}{3}+1\cdot(-1)\cdot\frac{1}{3}
+1\cdot 1\cdot\frac{1}{3}\\[1ex]
&&&=-\frac{1}{3}+\frac{1}{3}={0}
\end{array}
$$
Nyní dopočítáme kovarianci
${C(X,Y)}=E(XY)-(EX)(EY)=0-0={0}$
$\quad\Rightarrow\quad$ $X$ a $Y$ jsou nekorelované.
Avšak nejsou nezávislé, neboť například
$p(0,0)=\frac{1}{3}\;\;\neq\;p_X(0)\cdot
p_Y(0)=\frac{1}{3}\cdot\frac{1}{3}=\frac{1}{9}$.
Pokud bychom si ihned všimli, že platí s pravděpodobností 1 vztah
$X=Y^2$,
lze ihned počítat
$\begin{align}{C(X,Y)}&=E(XY)-(EX)\underbrace{(EY)}_{=0}
=EY^3\\
&=\sum\limits_{y\in M_Y}y^3\;p_Y(y)=(-1)^3\cdot\frac{1}{3}
+0^3\cdot\frac{1}{3}+1^3\cdot\frac{1}{3} ={0}\end{align}$
takže vidíme, i přes funkční vztah $X=Y^2$dostáváme, že $X$ a $Y$ jsou nekorelované. Je třeba
si neustále uvědomovat, že
- korelace je mírou lineárního vztahu;
- nulová korelace neimplikuje nezávislost, ale značí pouze,
že mezi náhodnými veličinami neexistuje lineární vztah,
což nevylučuje možnost jiného funkčního vztahu.
4. Kvantily a další číselné charakteristiky
K popisu rozdělení náhodné veličiny $X$ slouží mnoho číselných
charakteristik. Zatím jsme v první kapitole poznali střední
hodnotu náhodné veličiny $X$ jako charakteristiku její polohy. Ve
druhé kapitole jsem se zabývali rozptylem náhodné veličiny $X$,
který charakterizuje její variabilitu. Ve třetí kapitole byla pak
popsána kovariance náhodných veličin $X$ a $Y$, která
charakterizuje jejich vzájemnou závislost. Zabývejme se nyní
dalšími charakteristikami polohy. Definujme nejprve kvantilovou
funkci a kvantil.
Definice 4.1.
Nechť $F$ je distribuční funkcí a $\alpha\in(0,1)$. Potom funkce
$$F^{-1}(\alpha)=Q(\alpha)=\inf\{x\in\mathbb{R}:F(x)\geq \alpha\}$$
se nazývá kvantilová funkce a číslo
$$x_{\alpha}=Q(\alpha)$$
se nazývá $\alpha$-kvantilem rozdělení s distribuční
funkcí $F(x)$.
Poznámka 4.2.
Pokud je distribuční funkce $F$ spojitá a rostoucí, pak kvantilová
funkce $F^{-1}$ je inverzní funkcí k distribuční funkci $F$. Za
těchto předpokladů také platí vztah
$$
P(x_{\alpha/2}\lt X\leq x_{1-\alpha/2}) =1-\alpha.
$$
Mezi často používané kvantily patří
$x_{0.25}$ |
$= $ |
$Q(0.25)$ |
se nazývá |
dolní kvartil |
$x_{0.5}$ |
$= $ |
$Q(0.5)$ |
|
medián |
$x_{0.75}$ |
$= $ |
$Q(0.75)$ |
|
horní kvartil |
V souvislosti s kvantily se také často uvádí
interkvartilové rozpětí $IQR=x_{0.75}-x_{0.25}$ jako
charakteristika variability náhodné veličiny $X$. Nejznámějším
kvantilem je medián $\tilde x = x_{0.5}$, který udává polohu
poloviny rozdělení. Další charakteristikou míry
polohy je modus $\hat x$.
Definice 4.3.
- Nechť $X\;\sim\; (M,p)$ je diskrétního typu,
pak $\hat x$ značí libovolné $x_j\in M$, pro které platí $P(X=\hat
x)\geq P(X=x_i),\ i=1,2,\dots$
- Nechť $X\;\sim\; f(x)$ je
absolutně spojitého typu, pak $\hat x$ značí libovolné $x\in
\mathbb{R}$, pro které platí $f(\hat x)\geq f(x),\
x\in\mathbb{R}.$
Je dobré si uvědomit, že ani medián ani modus obecně
nemusí být definovány jednoznačně.
Dalšími číselnými charakteristikami náhodné veličiny $X$ jsou míry
šikmosti a špičatosti, které charakterizují tvar křivky rozdělení
náhodné veličiny.
Definice 4.4.
Koeficient šikmosti je definován jako
\[
\gamma_1=\frac{\mu_3}{(DX)^{3/2}}=\frac{E(X-EX)^3}{(DX)^{3/2}}.
\]
Nulová šikmost značí, že hodnoty náhodné veličiny jsou
rovnoměrně rozděleny vlevo a vpravo od střední hodnoty. Tj.
symetrická rozdělení včetně normálního rozdělení mají šikmost
nula. Kladná šikmost poukazuje na častější výskyt odlehlejších
hodnot vpravo od střední hodnoty a na větší kumulaci hodnot v
levém okolí střední hodnoty. Pro rozdělení s kladnou šikmostí
obvykle platí, že jeho modus je menší než medián a ten je menší
než střední hodnota. Pro zápornou šikmost je tomu naopak. Situace
je znázorněna na Obr. 2.
Definice 4.5.
Koeficient špičatosti je definován jako
\[
\gamma_2=\frac{\mu_4}{(DX)^{2}}=\frac{E(X-EX)^4}{(DX)^{2}}.
\]
Kladná špičatost značí, že většina hodnot náhodné
veličiny leží blízko její střední hodnoty a hlavní vliv na rozptyl
mají málo pravděpodobné odlehlé hodnoty. Křivka rozdělení je
špičatější. Záporná špičatost značí, že rozdělení je rovnoměrnější
a jeho křivka je plošší. Situace je znázorněna na Obr. 3.
Obrázek 2.Koeficient šikmosti
Obrázek 3.Koeficient špičatosti