Přechod na menu, Přechod na obsah, Přechod na patičku
     

Číselné charakteristiky rozdělení pravděpodobností


1. Střední hodnota, její vlastnosti a výpočet

Definice 1.1. Nechť $X$ je náhodná veličina definovaná na $(\Omega,\mathcal{A},P)$ a nechť existuje integrál $\int\limits_\Omega X(\omega)\;dP(\omega) \lt \infty$. Potom číslo $$ EX=\int\limits_\Omega X(\omega)\;dP(\omega) $$ nazýváme střední hodnotou náhodné veličiny $X$. Pokud uvedený integrál není konečný nebo neexistuje, říkáme, že střední hodnota náhodné veličiny $X$ neexistuje.
Poznámka 1.2. Z definice střední hodnoty náhodné veličiny plyne, že $EX$ existuje, právě když náhodná veličina $X$ (což je borelovsky měřitelná funkce $X(\omega)$) je integrovatelná na $\Omega$ vzhledem k pravděpodobnostní míře $P$.

Často se symbolem $\mathcal{L}_1=\mathcal{L}_1(\Omega,\mathcal{A},P)$ značí množina všech náhodných veličin definovaných na $(\Omega,\mathcal{A},P)$, které mají konečné střední hodnoty.

Z vlastností integrovatelných funkcí ihned plynou následující základní vlastnosti střední hodnoty.

Věta 1.3. Nechť $X,X_1,X_2$ jsou náhodné veličiny definované na pravděpodobnostním prostoru $(\Omega,\mathcal{A},P)$, $a,a_1,a_2\in\mathbb{R}$. Potom
  1. $EX$ existuje $\quad\Leftrightarrow\quad$ $E|X|$ existuje.
  2. Jestliže $P(X=a)=1$ $\quad\Rightarrow\quad$ $EX=a$.
  3. Existují-li $EX_1$, $EX_2$ $\quad\Rightarrow\quad$ $E(a_1X_1+a_2X_2)=a_1EX_1+a_2EX_2$.
  4. Nechť existují $EX_1$, $EX_2$ a platí $X_1\leq X_2$ $\quad\Rightarrow\quad$ $EX_1\leq EX_2$.
  5. Nechť $|X_1|\leq X_2$ a $EX_2$ existuje $\quad\Rightarrow\quad$ $EX_1$ existuje.
  6. Nechť $P(X\geq 0)=1$ $\quad\Rightarrow\quad$ $EX\geq 0$.

Další vlastnosti střední hodnoty, zejména vzorce vhodné pro její výpočet, plynou ze známé věty o přenosu integrace z měřitelného prostoru $(\Omega,\mathcal{A})$ na měřitelný prostor $(\Lambda,\mathcal{D})$ pomocí měřitelné funkce $h$. Tuto větu budeme citovat pro případ, kdy $(\Lambda,\mathcal{D})=(\mathbb{R}^n,\mathcal{B}^n)$.

Věta 1.4. Věta o přenosu integrace. Nechť $\mathbf{X}=(X_1,\ldots,X_n)'$ je $n$-rozměrný náhodný vektor definovaný na pravděpodobnostním prostoru $(\Omega,\mathcal{A},P)$, $g$ je borelovsky měřitelná funkce na $(\mathbb{R}^n,\mathcal{B}^n)$, $P_\mathbf{X}$ je rozdělení pravděpodobností náhodného vektoru $\mathbf{X}$. Potom $$ \int\limits_{\Omega} g(\mathbf{X}(\omega))dP(\omega) =\int\limits_{\mathbb{R}^n} g(\mathbf{x})dP_\mathbf{X}(\mathbf{x}) $$
Poznámka 1.5. Má-li náhodný vektor $\mathbf{X}=(X_1,\ldots,X_n)'$ distribuční funkci $F(\mathbf{x})$, potom rozdělení pravděpodobností $P_\mathbf{X}=\mu_F$, kde $\mu_F$ je Lebesgueova-Stieltjesova míra indukovaná distribuční funkcí $F$ a můžeme psát $$ \int\limits_{\Omega} g(\mathbf{X}(\omega))dP(\omega) =\int\limits_{\mathbb{R}^n} g(\mathbf{x})dP_\mathbf{X}(\mathbf{x}) =\int\limits_{\mathbb{R}^n} g(\mathbf{x})d\mu_F \stackrel{\scriptsize{\text{značíme}}}{=}\int\limits_{\mathbb{R}^n} g(\mathbf{x})dF(\mathbf{x}). $$
Důsledek 1.6. Nechť $X$ je náhodná veličina, resp. $\mathbf{X}=(X_1,\ldots,X_n)'$ je náhodný vektor definovaný na $(\Omega,\mathcal{A},P)$. Potom platí
  1. Existuje-li střední hodnota $EX$, potom existuje konečný integrál $\int\limits_{-\infty}^\infty xdF(x)$ a naopak. V tomto případě platí $EX=\int\limits_{-\infty}^\infty xdF(x)$, tj. $X\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow \int\limits_{-\infty}^\infty xdF(x)\lt \infty $.
    1. Nechť $X\;\sim\; (M,p)$ je diskrétního typu, pak platí $X\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow \sum\limits_{x\in M}xp(x)$ absolutně konverguje. V tomto případě $EX=\sum\limits_{x\in M}xp(x)$.
    2. Nechť $X\;\sim\; f(x)$ je absolutně spojitého typu. Potom z existence střední hodnoty $EX$ plyne integrovatelnost funkce $xf(x)$ vzhledem k Lebesgueově míře a naopak. V tomto případě platí $EX=\int\limits_{-\infty}^\infty xf(x)dx$, tj. $X\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow xf(x)$ je integrovatelná vzhledem k Lebesgueově míře.
  2. Nechť $g(x)$ je borelovská funkce. Potom střední hodnota transformované náhodné veličiny $Y=g(X)$ existuje právě když existuje a je konečný integrál $\int\limits_{-\infty}^\infty g(x)dF(x)\lt \infty$. V tomto případě platí $EY=Eg(X)=\int\limits_{-\infty}^\infty g(x)dF(x)$.
    1. Nechť $X\;\sim\; (M,p)$ je diskrétního typu, pak platí $Y\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow \sum\limits_{x\in M}g(x)p(x)$ absolutně konverguje. V tomto případě $EY=Eg(X)=\sum\limits_{x\in M}g(x)p(x)$.
    2. Nechť $X\;\sim\; f(x)$ je absolutně spojitého typu. Potom $EY$ existuje právě když je funkce $g(x)f(x)$ integrovatelná vzhledem k Lebesgueově míře a přitom platí $EY=Eg(X)=\int\limits_{-\infty}^\infty g(x)f(x)dx$, tj. $EY=Eg(X)\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow g(x)f(x)$ je integrovatelná vzhledem k Lebesgueově míře.
  3. Nechť $g(x_1,\ldots,x_n)$ borelovská funkce. Potom střední hodnota náhodné veličiny $Y=g(\mathbf{X})$ existuje, právě když existuje integrál $\int\limits_{\mathbb{R}^n}g(\mathbf{x})dF(\mathbf{x})\lt \infty$. V tomto případě $EY=\int\limits_{\mathbb{R}^n}g(\mathbf{x})dF(\mathbf{x}).$ Dále
    1. Nechť $\mathbf{X}\;\sim\; (M,p)$ je diskrétního typu, pak platí $Y\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow \sum\limits_{x\in M}g(\mathbf{x})p(\mathbf{x})$ absolutně konverguje. V tomto případě $EY=Eg(\mathbf{X})=\sum\limits_{\mathbf{x}\in M}g(\mathbf{x})p(\mathbf{x})$.
    2. Nechť $\mathbf{X}\;\sim\; f(\mathbf{x})$ je absolutně spojitého typu. Potom $EY$ existuje právě když je funkce $g(\mathbf{x})f(\mathbf{x)}$ integrovatelná vzhledem k Lebesgueově míře a přitom platí $EY=Eg(\mathbf{X})=\int\limits_{\mathbb{R}^n} g(\mathbf{x})f(\mathbf{x})d\mathbf{x}$, tj. $EY=Eg(\mathbf{X})\in\mathcal{L}_1(\Omega,\mathcal{A},P) \Leftrightarrow g(\mathbf{x})f(\mathbf{x})$ je integrovatelná vzhledem k Lebesgueově míře.
Příklad 1.7. Motivační příklad

Jak bylo uvedeno v definici, střední hodnotu náhodné veličiny označujeme písmenem $E$. Toto označení pochází z anglického „expected value“ (očekávaná hodnota). V tomto příkladu bychom chtěli demonstrovat význam slova „očekávaný“.

Uvažujme hru „kolo štěstí“, kde účastník hry roztočí kolo znázorněné na obr. 1. Každé pole tohoto kola definuje výhru (v Kč), která bude vyplacena hráči v případě, že na toto pole ukazuje šipka po zastavení kola. Za každou hru zaplatí hráč provozovateli 1 Kč. Zajímá nás, z pohledu hráče, jestli se nám vyplatí takovou hru hrát, tj. jaká je „očekávaná“ hodnota našeho zisku.

Kolo štěstí
Obrázek 1. „Kolo štěstí“

Řešení:

Označme $Y$ náhodnou veličinu, která udává náš zisk z jedné hry a dále označme $X$ náhodnou veličinu udávající částku, kterou si vytočíme na kole v jedné hře. Zřejmě platí $Y=X-1$. Hodnoty náhodné veličiny $X$ a její pravděpodobnostní funkce jsou uvedeny v následující tabulce:

$X$ 0 1 2 4
$p(x)$ $\frac{1}{2}$ $\frac{1}{8}$ $\frac{1}{4}$ $\frac{1}{8}$

Střední hodnota (tj. očekávaná hodnota) našeho zisku z jedné hry je tedy

\[ \begin{split} EY & = EX - 1\\ &=0\cdot\frac{1}{2}+1\cdot\frac{1}{8}+2\cdot\frac{1}{4}+4\cdot\frac{1}{8} - 1\\ &= \frac{1}{8}=0,125. \end{split} \]

To znamená, že se nám hru vyplatí hrát, neboť např. při 1 000 opakováních je očekávaný zisk 125 Kč.

Příklad 1.8. Střední hodnota Poissonova rozdělení. Mějme náhodnou veličinu $X\sim Po(\lambda)$ s pravděpodobnostní funkcí $$ p(x)= \begin{cases} e^{-\lambda}\frac{\lambda^{x}}{x!} & x\in M=\{0,1,\ldots,\} \\[1ex] 0 & \text{jinak}. \end{cases} $$ Počítejme střední hodnotu $$\begin{align*} {{EX}} & = \sum\limits_{x=0}^\infty xp(x)= \sum\limits_{x=0}^\infty x e^{-\lambda}\frac{\lambda^{x}}{x!} =e^{-\lambda}\sum\limits_{x=1}^\infty\frac{\lambda^{x}}{(x-1)!} =\lambda e^{-\lambda}\sum\limits_{x=1}^\infty\frac{\lambda^{x-1}}{(x-1)!}\\ & =\begin{vmatrix} subst.\; y=x-1 \end{vmatrix}= \lambda \underbrace{e^{-\lambda}\sum\limits_{y=0}^\infty\frac{\lambda^{y}}{y!}}_{1=\sum\limits_{y\in M}p(y)} ={{\lambda}}. \end{align*}$$
Příklad 1.9. Střední hodnota normálního (Gaussova) rozdělení. Mějme náhodnou veličinu s normálním rozdělením $X\sim N(\mu,\sigma^2)$ s hustotou $$f(x)=\frac{1}{\sqrt{2\pi}\sigma}\exp\left\{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2\right\}.$$ Počítejme $$ EX = \int_{-\infty}^\infty x f(x) dx = \int_{-\infty}^\infty \tfrac{1}{\sqrt{2\pi}\sigma} x e^{-\tfrac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}dx. $$ Položíme-li $y=\tfrac{x-\mu}{\sigma}$, tj. $x=\sigma y+\mu$ a $dx=\sigma dy$, pak $$\begin{align*} {{EX}} & = \int_{-\infty}^\infty \tfrac{1}{\sqrt{2\pi}\sigma} x e^{-\frac{1}{2}\left(\tfrac{x-\mu}{\sigma}\right)^2}dx= \tfrac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty (\sigma y+\mu) e^{-\frac{1}{2}y^2}dy\\ & = \tfrac{\sigma}{\sqrt{2\pi}} \underbrace{\int_{-\infty}^\infty ye^{-\frac{1}{2}y^2}dy}_{=0\;({\scriptsize{\text{lichá funkce}}})} + \mu \underbrace{\int_{-\infty}^\infty \tfrac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}y^2}dy}_% {=1\;({\scriptsize{\text{hustota }}} Y\sim N(0,1))} = {{\mu}}. \end{align*}$$
Věta 1.10. Střední hodnota součinu nezávislých náhodných veličin. Nechť $X_1,\ldots,X_n$ jsou nezávislé náhodné veličiny definované na $(\Omega,\mathcal{A},P)$ a nechť existují střední hodnoty $EX_1,\ldots,EX_n$. Pak platí
$$E\left(\prod\limits_{i=1}^n X_i\right)= \prod\limits_{i=1}^n EX_i.$$ (4.1.11)
Důkaz.
Položme $Y_i=\prod\limits_{i=1}^n X_i$, tj. $g(x_1,\ldots,x_n)=x_1\cdot \cdots \cdot x_n$. S využitím faktu, že $X_1,\ldots,X_n$ jsou nezávislé náhodné veličiny, pro které musí platit $ F(x_1,\ldots,x_n)=F_1(x_1)\cdot \cdots \cdot F_n(x_n), $ počítejme střední hodnotu transformované náhodné veličiny $$\begin{align*} {EY} & = \int\limits_{\mathbb{R}^n}g(\mathbf{x})dF(\mathbf{x}) =\int\limits_{-\infty}^\infty \cdots \int\limits_{-\infty}^\infty x_1\cdot \cdots \cdot x_n dF(x_1,\ldots,x_n)\\ &\stackrel{nez.}{=} \int\limits_{-\infty}^\infty \cdots \int\limits_{-\infty}^\infty x_1\cdot \cdots \cdot x_n\left[ dF_1(x_1)\cdot \cdots \cdot dF_n(x_n) \right]= \underbrace{\int\limits_{-\infty}^\infty x_1 dF_1(x_1)}_{=EX_1\lt \infty} \cdot \cdots \cdot \underbrace{\int\limits_{-\infty}^\infty x_n dF_n(x_n)}_{=EX_n\lt \infty}\\ &= {EX_1\cdot \cdots \cdot EX_n}. \end{align*}$$
\(\Box\)

2. Obecné a centrální momenty

Definice 2.1. Nechť $X$ je náhodná veličina definovaná na $(\Omega,\mathcal{A},P)$. Potom čísla
$\mu'_k=EX^k$ obecným
$\mu_k=E(X-EX)^k$ nazýváme $k$-tým centrálním momentem náhodné veličiny $X$
$\bar{\mu}_k=E|X|^k$ absolutním
za předpokladu, že uvedené střední hodnoty pro $k=1,2,\ldots$ existují.
Poznámka 2.2. Je-li $k$-tý moment konečný, tj. $EX^k\lt \infty$, píšeme $X\in\mathcal{L}_k(\Omega,\mathcal{A},P)$ nebo zkráceně $X\in\mathcal{L}_k$.
Věta 2.3. Vlastnosti momentů. Nechť pro $n\in\mathbb{N}$ existuje $\mu'_n=EX^n\lt \infty$. Potom platí
  1. Existují $\begin{array}{lcll} \mu'_k &=&EX^k & \lt \infty \\ \mu_k&=&E(X-EX)^k & \lt \infty \\ \bar{\mu}_k&=&E|X|^k & \lt \infty \end{array}$ pro libovolná $k\leq n$
  2. Dále platí
    $$\left(\bar{\mu}_k\right)^{\frac{1}{k}} =\left(E|X|^k\right)^{\frac{1}{k}} \leq \left(\bar{\mu}_n\right)^{\frac{1}{n}} =\left(E|X|^n\right)^{\frac{1}{n}} \qquad \text{pro libovolná } k\leq n$$ (4.2.12)
Důkaz.
Tvrzení (1) vyplývá z vlastností Lebesgueových integrálů; v tvrzení (2) jde o speciální případ tzv. Hölderovy nerovnosti.
\(\Box\)
Definice 2.4.
  1. Řekneme, že náhodná veličina $X$ má konečný druhý moment, jestliže $\mu_2'=EX^2\lt \infty$.
  2. Druhý centrální moment nazýváme rozptyl a značíme $DX=E(X-EX)^2=\mu_2$.
  3. Číslo $\sigma_X=\sqrt{DX}$ nazýváme směrodatnou odchylkou náhodné veličiny $X$.
Věta 2.5. Vlastnosti rozptylu. Nechť $X,X_1,X_2$ jsou náhodné veličiny definované na $(\Omega,\mathcal{A},P)$ s konečnými druhými momenty, $a,a_1,a_2\in\mathbb{R}$. Pak
  1. $DX\geq 0$
  2. $DX=EX^2-(EX)^2$
  3. Jestliže $P(X=a)=1$, pak $DX=0$.
  4. $D(a_1+a_2X)=a_2^2DX$
  5. Nechť $X_1,X_2$ jsou nezávislé náhodné veličiny, pak $D(X_1+X_2)=DX_1+DX_2$.
Důkaz.
  1. Protože pro transformovanou náhodnou veličinu $Y=(X-EX)^2$ platí , že $P(Y\geq 0)=1$, pak $EY\geq 0$, přičemž $EY=DX$.
  2. $\begin{align}{DX}&=E(X-EX)^2=E\left[ X^2-2(EX)\cdot X+ (EX)^2 \right]\\ &=EX^2-2EX\cdot EX+ EX^2={EX^2-(EX)^2}\end{align}$
  3. Jestliže $P(X=a)=1$, pak $X$ je diskrétní náhodná veličina, tj. $$X\sim(M,p_X), \qquad \text{kde} \qquad M=\{a\} \qquad a \qquad p_X(x)= \begin{cases} 1 & x=a, \\ 0 & jinak. \end{cases} $$ takže${EX}=\sum\limits_{x\in M}xp_X(x)=ap_X(a)={a}$ a ${DX}=\sum\limits_{x\in M}(x-a)^2p_X(x)=(a-a)^2\cdot 1={0}$
  4. $\begin{array}[t]{@{}lcl@{}} {D(a_1+a_2X)} & = & E\left[a_1+a_2X-E(a_1+a_2X)\right]^2 =E\left[a_1+a_2X-a_1-a_2EX\right]^2 \\ &= &E\left[a_2(X-EX)\right]^2 =a_2^2E(X-EX)^2 ={a_2^2DX} \end{array}$
  5. $\begin{array}[t]{@{}lcl@{}} {D(X_1\!+\!X_2)} & = & E\left[X_1\!+\!X_2\!-\!E(X_1\!+\!X_2)\right]^2 \!=\!E\left[X_1\!+\!X_2\!-\!EX_1\!-\!EX_2\right]^2\\ &=&E\left[(X_1\!-\!EX_1)\!+\!(X_2\!-\!EX_2)\right]^2\\ &=&E\left[(X_1\!-\!EX_1)^2\!+\!2(X_1\!-\!EX_1)(X_2\!-\!EX_2) +(X_2\!-\!EX_2)^2\right]\\[1ex] &=&\underbrace{E(X_1\!-\!EX_1)^2}_{=DX_1} \!+\!2\underbrace{E[(X_1\!-\!EX_1)(X_2\!-\!EX_2)]}_% {\stackrel{nez.}{=}E(X_1\!-\!EX_1)\cdot E(X_2\!-\!EX_2)\!=\!0\cdot 0} \!+\!\underbrace{E(X_2\!-\!EX_2)^2}_{=DX_2}\\ &=&{DX_1\!+\!DX_2} \end{array}$
\(\Box\)
Příklad 2.6. Rozptyl Poissonova rozdělení. Mějme náhodnou veličinu $X\sim Po(\lambda)$ s pravděpodobnostní funkcí $$ p(x)= \begin{cases} e^{-\lambda}\frac{\lambda^{x}}{x!} & x\in M=\{0,1,\ldots,\} \\[1ex] 0 & \text{jinak}. \end{cases} $$ Abychom mohli vypočítat rozptyl $$DX=EX^2-(EX)^2$$ potřebujeme znát střední hodnotu, a ta je rovna $EX=\lambda$ (viz příklad 1.8). Dále počítejme $$\begin{align*} {EX^2} & = \sum\limits_{x=0}^\infty x^2p(x)= \sum\limits_{x=0}^\infty x^2 e^{-\lambda}\frac{\lambda^{x}}{x!} =e^{-\lambda}\sum\limits_{x=0}^\infty \left[x(x-1)+x\right]\frac{\lambda^{x}}{x!}\\[1ex] & =e^{-\lambda}\sum\limits_{x=0}^\infty x(x-1) \frac{\lambda^{x}}{x(x-1)(x-2)!} +\underbrace{e^{-\lambda}\sum\limits_{x=0}^\infty x \frac{\lambda^{x}}{x!}}_{=EX=\lambda}\\[1ex] &=e^{-\lambda}\sum\limits_{x=2}^\infty \frac{\lambda^{x}}{(x-2)!}+\lambda =e^{-\lambda}\lambda^2\sum\limits_{x=2}^\infty \frac{\lambda^{x-2}}{(x-2)!}+\lambda\\[1ex] &=\lambda^2\sum\limits_{y=0}^\infty \underbrace{e^{-\lambda}\frac{\lambda^{y}}{(y)!}}_{=1=\sum\limits_{y\in M}p(y)} +\lambda = {{\lambda^2+\lambda}}, \end{align*}$$ takže $$ {{DX}} =\lambda^2+\lambda-\lambda^2={{\lambda}}. $$
Příklad 2.7. Rozptyl normálního (Gaussova) rozdělení. Mějme náhodnou veličinu s normálním rozdělením $X\sim N(\mu,\sigma^2)$ s hustotou $$f(x)=\frac{1}{\sqrt{2\pi}\sigma}\exp\left\{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2\right\}.$$ Počítejme rozptyl přímo podle definice $$ DX = E(X-EX)^2= \int_{-\infty}^\infty (x-EX)^2 f(x) dx = \int_{-\infty}^\infty \tfrac{1}{\sqrt{2\pi}\sigma} (x-\mu)^2 e^{-\tfrac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}dx. $$

Položíme-li $y=\tfrac{x-\mu}{\sigma}$, tj. $x-\mu=\sigma y$ a $dx=\sigma dy$, potom

$$\begin{align*} \boxed{DX} & = \int_{-\infty}^\infty \tfrac{1}{\sqrt{2\pi}\sigma} (x-\mu)^2 e^{-\frac{1}{2}\left(\tfrac{x-\mu}{\sigma}\right)^2}dx\\ &= \tfrac{\sigma^2}{\sqrt{2\pi}}\int_{-\infty}^\infty \underbrace{y^2 e^{-\frac{1}{2}y^2}}_{\scriptsize{\text{sudá funkce}}}dy \\ & =2\int_{0}^\infty \tfrac{\sigma^2}{\sqrt{2\pi}} y^2 e^{-\frac{1}{2}y^2} dy. \end{align*}$$

Položme $\frac{1}{2}y^2=t$, tj. $y=\sqrt{2t}$ a $y dy = dt$. Potom dostaneme

$$ \boxed{DX}=\sigma^2\int_{0}^\infty \tfrac{2}{\sqrt{2\pi}} \sqrt{2t}e^{-t} dt= \sigma^2\tfrac{2}{\sqrt{\pi}} \int_{0}^\infty t^{\frac{3}{2}-1}e^{-t} dt=\boxed{\sigma^2},$$ protože $$\int_{0}^\infty t^{\tfrac{3}{2}-1}e^{-t}=\Gamma\left(\tfrac{3}{2}\right)= \Gamma\left(1+\tfrac{1}{2}\right)=\tfrac{1}{2}\Gamma\left(\tfrac{1}{2}\right)= \tfrac{1}{2}\sqrt{\pi}.$$
Věta 2.8. Čebyševova nerovnost. Nechť $X$ je náhodná veličina s konečným druhým momentem. Potom pro libovolné $\varepsilon\gt 0$ platí
$$P(|X-EX|\geq \varepsilon)\leq \frac{DX}{\varepsilon^2}.$$ (4.2.13)
Důkaz.
Zvolme $\varepsilon\gt 0$ a označme $M_\varepsilon=\{x\in\mathbb{R}:|x-EX|\geq\varepsilon\}$. Potom $$\begin{array}{lcl} DX & = & E(X-EX)^2 = \int\limits_{-\infty}^\infty (x-EX)^2 dF(x) \geq \int\limits_{M_\varepsilon}\underbrace{(x-EX)^2}_{\geq \varepsilon^2}dF(x)\\ & \geq & \varepsilon^2 \int\limits_{M_\varepsilon}dF(x) = \varepsilon^2 P(X\in M_\varepsilon)= \varepsilon^2 P(|X-EX|\geq\varepsilon) \end{array}$$
\(\Box\)
Poznámka 2.9. Položíme-li $\varepsilon =k\sqrt{DX}=k\sigma_X$, kde $k\in\mathbb{N}$ a $DX\gt 0$, pak máme $$\begin{align*} P(EX-k\sigma_X \lt X \lt EX+k\sigma_X) & =P(|X-EX|\lt k\sigma_X)=1-P(|X-EX|\geq k\sigma_X) \\ & \stackrel{\scriptsize{\text{Čeb.ner.}}}{\geq} 1-\frac{DX}{k^2 DX}=1-\tfrac{1}{k^2} \end{align*}$$
Tedy platí $$P(|X-EX|\lt k\sigma_X)\geq 1-\tfrac{1}{k^2}$$ (4.2.14)

Zvolíme–li například $k=3$ pak $ P(|X-EX|\lt 3\sigma_X)\geq 1-\tfrac{1}{9}=\tfrac{8}{9}\doteq 0.89, $ což lze slovně charakterizovat takto:

náhodná veličina $X$ se při své realizaci neodchýlí od své střední hodnoty o více než trojnásobek své směrodatné odchylky s pravděpodobností aspoň 0.89.

3. Kovariance a korelační koeficient

V celém odstavci budeme předpokládat, že náhodné veličiny mají konečné druhé momenty. Je třeba si uvědomit, že z existence konečných druhým momentů plyne i existence prvních momentů a rozptylu, neboť ze Schwarzovy nerovnosti plyne, že $ |E(X\cdot Y)|\!\leq\! \sqrt{EX^2EY^2} $. Položíme-li $Y=1$, dostaneme nerovnost $ |E(X)|\!\leq\! \sqrt{EX^2} \lt \infty $ a můžeme vyjádřit i rozptyl $ DX\!=\!EX^2\!-\!(EX)^2\! \lt \! \infty $.

Dále budeme předpokládat, že náhodné veličiny mají nenulový rozptyl, tj. že nejsou degenerované.

Definice 3.1. Kovariancí dvou náhodných veličin $X$ a $Y$ nazýváme číslo $C(X,Y)=E(X-EX)(Y-EY)$ a číslo $R(X,Y)=\frac{C(X,Y)}{\sqrt{DX DY}}$ nazýváme korelační koeficient.
Věta 3.2. Nechť náhodné veličiny $X$ a $Y$ mají sdruženou distribuční funkci $F(x,y)$. Pak
$$C(X,Y)=\int\limits_{-\infty}^\infty\int\limits_{-\infty}^\infty (x-EX)(y-EY)dF(x,y)$$ (4.3.15)
  1. Nechť náhodné veličiny jsou diskrétního typu, tj. $(X,Y)'\;\sim\; (M,p(x,y))$, pak platí
    $$C(X,Y)=\sum\limits_{(x,y)\in M} (x-EX)(y-EY)p(x,y)$$ (4.3.16)
  2. Nechť náhodné veličiny jsou absolutně spojitého typu, tj. $(X,Y)'\;\sim\; f(x,y)$, pak platí
    $$C(X,Y)=\int\limits_{-\infty}^\infty\int\limits_{-\infty}^\infty (x-EX)(y-EY)dF(x,y)$$ (4.3.17)
Důkaz.
Věta je důsledkem věty o střední hodnotě transformovaného náhodného vektoru, kdy $g(X,Y)=(X-EX)(Y-EY)$.
\(\Box\)
Příklad 3.3. Kovariance a korelace normálního (Gaussova) rozdělení. Nechť náhodný vektor $\;\mathbf{X}=(X,Y)'\sim N_2(\boldsymbol\mu,\boldsymbol\Sigma)\;$ má dvourozměrné normální rozdělení s parametry $\boldsymbol\mu=$ $\begin{pmatrix} \mu_{1} \\ \mu_{2} \end{pmatrix}$ a $\boldsymbol\Sigma=$ $\begin{pmatrix} \sigma_{1}^2 & \rho\sigma_{1}\sigma_{2} \\ \rho\sigma_{1}\sigma_{2} & \sigma_{2}^2 \end{pmatrix}$, tj. má hustotu tvaru $$f_{(X,Y)}(x,y)=\tfrac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}} \exp\left\{ -\tfrac{1}{2(1-\rho^2)} \left[\left(\tfrac{x-\mu_1}{\sigma_1}\right)^2 -2\rho \tfrac{x-\mu_1}{\sigma_1}\tfrac{y-\mu_2}{\sigma_2} +\left(\tfrac{y-\mu_2}{\sigma_2}\right)^2\right]\right\}.$$

Naším úkolem bude vypočítat korelační koeficient.

Z příkladů 1.9 a 2.7 víme, že pro marginální náhodné veličiny platí $$ \begin{array}{lcl@{\qquad\qquad}lcl} EX&=&\mu_1 & EY&=&\mu_2\\[1ex] DX&=&\sigma_1^2 & DY&=&\sigma_2^2 \end{array} $$

Dále víme, že standardizovaná náhodná veličina $U=\frac{X-\mu}{\sigma}\sim N(0,1)$ má nulovou střední hodnotu a jednotkový rozptyl, tj.

$$ EU = \tfrac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty ue^{-\frac{1}{2}u^2}dy =0 \qquad\text{a}\qquad DU = \tfrac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty u^2 e^{-\frac{1}{2}u^2}dy =1. $$ Protože $R(X,Y)=\frac{C(X,Y)}{\sqrt{DX}\sqrt{DY}}$, počítejme nejprve kovarianci
$$\begin{align*} C(X,Y) & = E(X-EX)(Y-EY) = \int_{-\infty}^\infty \int_{-\infty}^\infty (x-EX)(y-EY)f_{(X,Y)}(x,y)dx dy\\ & =\tfrac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}} \int_{-\infty}^\infty \int_{-\infty}^\infty (x-\mu_1)(y-\mu_2) e^{-\frac{1}{2(1-\rho^2)} \left[\left(\frac{x-\mu_1}{\sigma_1}\right)^2 -2\rho \frac{x-\mu_1}{\sigma_1}\frac{y-\mu_2}{\sigma_2} +\left(\frac{y-\mu_2}{\sigma_2}\right)^2\right]}dx dy. \end{align*}$$
Položíme-li nejprve $u=\tfrac{x-\mu_1}{\sigma_1}$, $v=\tfrac{y-\mu_2}{\sigma_2}$, (tj. $x-\mu_1=\sigma_1 u$, $y-\mu_2=\sigma_2 v$ a $dx=\sigma_1 du$, $dy=\sigma_2 dv$), dostaneme $$\begin{align*} C(X,Y) & =\tfrac{\sigma_1\sigma_2}{2\pi\sqrt{1-\rho^2}} \int_{-\infty}^\infty \int_{-\infty}^\infty uv\; e^{-\frac{1}{2(1-\rho^2)} [u^2-2\rho uv +v^2]} du dv\\ & =\tfrac{\sigma_1\sigma_2}{2\pi\sqrt{1-\rho^2}} \int_{-\infty}^\infty u\;e^{-\frac{1}{2(1-\rho^2)} u^2}\left[\int_{-\infty}^\infty v\; e^{-\frac{1}{2(1-\rho^2)} (v^2-2\rho u v) } dv \right] du. \end{align*}$$ Protože platí $v^2-2\rho u v = (v-\rho u)^2-\rho^2 u^2$, pokračujme $$ C(X,Y)=\tfrac{\sigma_1\sigma_2}{\sqrt{2\pi}} \int_{-\infty}^\infty u e^{-\frac{u^2(1-\rho^2)}{2(1-\rho^2)}} \underbrace{\left[ \tfrac{1}{\sqrt{2\pi(1-\rho^2)}}\int_{-\infty}^\infty v\; e^{-\frac{(v-\rho v)^2}{2(1-\rho^2)}} dv \right]}_{\scriptsize{\text{ označme }} I_1} du. $$ Zavedeme-li substituci $\frac{v-\rho u}{\sqrt{1-\rho^2}}=t$, pak $v=\sqrt{1-\rho^2}\; t+\rho u$ a $ dv=\sqrt{1-\rho^2}\; dt$, takže $$\begin{align*} \boxed{I_1} & = \tfrac{1}{\sqrt{2\pi(1-\rho^2)}}\int_{-\infty}^\infty(\sqrt{1-\rho^2}\; t+\rho u) e^{-\frac{1}{2}t^2}\sqrt{1-\rho^2}\;dt\\ & =\sqrt{1-\rho^2} \underbrace{\tfrac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty t e^{-\frac{1}{2}t^2}dt}_% {=0=EU,\;{\scriptsize{\text{ kde }}}U\sim N(0,1)} + \rho u \underbrace{\tfrac{1}{\sqrt{2\pi}}\int_{-\infty}^\infty e^{-\frac{1}{2}t^2}dt}_% {=1\;({\scriptsize{\text{ hustota }}}U\sim N(0,1))}=\boxed{\rho u} \end{align*}$$ Pokračujme $$ \boxed{C(X,Y)}=\tfrac{\sigma_1\sigma_2}{\sqrt{2\pi}} \int_{-\infty}^\infty \rho u^2 e^{-\frac{u^2}{2}}du =\rho\sigma_1\sigma_2 \underbrace{\tfrac{1}{\sqrt{2\pi}} \int_{-\infty}^\infty u^2 e^{-\frac{u^2}{2}}du}_% {=1=DU,\;{\scriptsize{\text{ kde }}}U\sim N(0,1)}= \boxed{\rho\sigma_1\sigma_2}$$ a korelační koeficient je tedy roven $$\boxed{R(X,Y)}=\frac{C(X,Y)}{\sqrt{DX}\sqrt{DY}}= \frac{\rho\sigma_1\sigma_2}{\sigma_1\sigma_2}=\boxed{\rho}.$$
Věta 3.4. Vlastnosti kovariance a korelace. Nechť $X$ a $Y$ jsou náhodné veličiny, $a_1,a_2,b_1,b_2\in\mathbb{R}$. Potom
  1. $C(X,X)=DX$ a $R(X,X)=1$.
  2. $C(X,Y)=C(Y,X)$ a $R(X,Y)=R(Y,X)$.
  3. $C(X,Y)=E(XY)-(EX)(EY)$.
  4. Jsou-li náhodné veličiny $X$ a $Y$ nezávislé, pak $C(X,Y)=R(X,Y)=0$.
  5. $|C(X,Y)|\leq \sqrt{DX DY}$ a $|R(X,Y)|\leq 1$.
  6. $C(a_1+a_2X,b_1+b_2Y)=a_2b_2C(X,Y)$
    $R(a_1+a_2X,b_1+b_2Y)=R(X,Y)\text{sign}(a_2b_2)$, je-li $a_2\neq 0$ a $b_2\neq 0$.
  7. $D(X+Y)=DX + DY +2C(X,Y)$.
  8. $R(X,Y)=1$ $\quad\Leftrightarrow\quad$ existují konstanty $a$ a $b\gt 0$ takové, že $P(Y=a+bX)=1$
    $R(X,Y)=-1$ $\quad\Leftrightarrow\quad$ existují konstanty $a$ a $b\lt 0$ takové, že $P(Y=a+bX)=1$
Důkaz.
  1. ${C(X,X)}=E(X-EX)^2={DX}$ a ${R(X,X)}=\frac{C(X,Y)}{\sqrt{DXDY}}=\frac{DX}{DX}={1}$
  2. $\begin{array}[t]{lcl}{C(X,Y)}&=&E[(X-EX)(Y-EY)]=E[(Y-EY)(X-EX)]\\ &=&{C(Y,X)\Leftrightarrow R(X,Y)=R(Y,X)}\end{array}$.
  3. $\begin{array}[t]{@{}lcl@{}} {C(X,Y)} & = & E[(X-EX)(Y-EY)] =E[XY -X\cdot EY- EX\cdot Y +EX\cdot EY]\\ &=& E(XY)-EX\cdot EY-EX\cdot EY+EX\cdot EY={E(XY)-(EX)(EY)} \end{array}$
  4. Jestliže $X$ a $Y$ jsou nezávislé $\Rightarrow$ $E(XY)=(EX)(EY)$, takže $C(X,Y)\stackrel{(3)}{=}E(XY)-(EX)(EY)=(EX)(EY)-(EX)(EY)=0 \;\;\Rightarrow\;\;R(X,Y)=0$
  5. Podle Schwarzovy nerovnosti pro střední hodnoty náhodných veličin $W$ a $Z$ platí vztah $|E(WZ)|\leq\sqrt{EW^2}\sqrt{EZ^2}$, přičemž rovnost nastává $\Leftrightarrow$ $P(Z=cW)=1$, $c\neq 0$, tj. s pravděpodobností 1 jsou náhodné veličiny $W$ a $Z$ proporcionální. Položíme-li $W=X-EX$ a $Z=Y-EY$, dostaneme $$\left[ \int\limits_{-\infty}^\infty\int\limits_{-\infty}^\infty (x\!-\!EX)(y\!-\!EY)dF(x,y) \right]^2 \!\leq\! \underbrace{ \int\limits_{-\infty}^\infty\int\limits_{-\infty}^\infty (x\!-\!EX)^2dF(x,y) }_{=DX} \underbrace{ \int\limits_{-\infty}^\infty\int\limits_{-\infty}^\infty (y\!-\!EY)^2dF(x,y) }_{=DY}$$

    Odtud plyne tvrzení $|C(X,Y)|\leq \sqrt{DX DY}$ a $|R(X,Y)|=\left|\frac{C(X,Y)}{\sqrt{DXDY}}\right|\leq 1$.

  6. $\begin{array}[t]{@{}l@{\;}c@{\;}l@{}} C(a_1+a_2X,b_1+b_2Y)&=& E[(a_1+a_2X-E(a_1+a_2X))(b_1+b_2Y-E(b_1+b_2Y))]\\ &=&E[a_2(X-EX)][b_2(Y-EY)]\\ &=&a_2b_2E[(X-EX)(Y-EY)]=a_2b_2C(X,Y)\\ R(a_1+a_2X,b_1+b_2Y)&=& \frac{C(a_1+a_2X,b_1+b_2Y)}{\sqrt{D(a_1+a_2X)\sqrt{D(b_1+b_2Y)}}} =\frac{a_2b_2C(X,Y)}{\sqrt{a_2^2DX}\sqrt{b_2^2DY}} =\underbrace{\frac{a_2b_2}{|a_2||b_2|}}_{={\scriptsize{\text sign}}(a_2b_2)}R(X,Y) \end{array}$
  7. $\begin{array}[t]{@{}l@{\;}c@{\;}l@{}} {D(X+Y)} &=& E[X+Y-E(X+Y)]^2=E[(X-EX)+(Y-EY)]^2\\ &=&E[(X-EX)^2+2(X-EX)(Y-EY)+(Y-EY)^2]\\ &=&E(X-EX)^2E(X-EX)(Y-EY)+E(Y-EY)^2\\&=&{DX+2C(X,Y)+ DY} \end{array}$
  8. Protože $1\!=\!|R(X,Y)|\!=\!\frac{|C(X,Y)|}{\sqrt{DX}\sqrt{DY}} \Leftrightarrow C(X,Y)\!=\!\overbrace{|R(X,Y)|}^{=1}\sqrt{DX}\sqrt{DY}$, takže nastala rovnost ve Schwarzově nerovnosti. V tom případě jsou s pravděpodobností 1 náhodné veličiny $X\!-\!EX$ a $Y\!-\!EY$ proporcionální, tj. $\exists\; c\!\neq\!0$ a platí $1\!=\!P(Y\!-\!EY\!=\!c(X\!-\!EX))\!=\!P(Y\!=\!EY\!-\!cEX\!+\!cX)$. Položme $a=EY-cEX$ a $b=c$, pak $P(Y=a+bX)=1$. Vrátíme-li se ke korelačnímu koeficientu, dostaneme $$R(X,Y)=R(X,a+bX)\stackrel{(6)}{=}sign(b)\underbrace{R(X,X)}_{=1}= \begin{cases} \;\;1 & b\gt 0, \\ -1 & b\lt 0. \end{cases} $$
\(\Box\)
Poznámka 3.5. Jestliže je kovariance a korelace nulová, tj. $C(X,Y)=R(X,Y)=0$, pak říkáme, že náhodné veličiny $X$ a $Y$ jsou nekorelované.
Poznámka 3.6. V případě dvourozměrného normálního rozdělení $\;\mathbf{X}=(X,Y)'\sim N_2(\boldsymbol\mu,\boldsymbol\Sigma)\;$ s parametry $\boldsymbol\mu=\begin{pmatrix} \mu_{1} \\ \mu_{2} \end{pmatrix}$ a $\boldsymbol\Sigma=\begin{pmatrix} \sigma_{1}^2 & \rho\sigma_{1}\sigma_{2} \\ \rho\sigma_{1}\sigma_{2} & \sigma_{2}^2 \end{pmatrix}$ a s hustotou $$f_{(X,Y)}(x,y)=\tfrac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}} \exp\left\{ -\tfrac{1}{2(1-\rho^2)} \left[\left(\tfrac{x-\mu_1}{\sigma_1}\right)^2 -2\rho \tfrac{x-\mu_1}{\sigma_1}\tfrac{y-\mu_2}{\sigma_2} +\left(\tfrac{y-\mu_2}{\sigma_2}\right)^2\right]\right\}.$$ víme, že $R(X,Y)=\rho$ (viz příklad 3.3). Jsou-li obě náhodné veličiny nekorelované, tj. $\rho=0$, tak ze tvaru hustoty vyplývá, že obě náhodné veličiny jsou i nezávislé, neboť platí $$f_{(X,Y)}(x,y)=f_{X}(x)f_{Y}(y)$$

Toto tvrzení lze snadno zobecnit i na $n$-rozměrné normální rozdělení

$$\mathbf{X}=(X_1,\ldots,X_n)'\sim N_n(\boldsymbol\mu,\boldsymbol\Sigma) \text{ s hustotou } f_{\mathbf{X}}(\mathbf{x})=\left(2\pi\right)^{-\frac{n}{2}} \vert \boldsymbol{\Sigma} \vert^{-\frac{1}{2}} e^{-\frac{1}{2}(\mathbf{X}-\boldsymbol\mu)'\boldsymbol{\Sigma}^{-1} (\mathbf{X}-\boldsymbol\mu)}$$

kdy nekorelovanost a nezávislost jsou ekvivalentní vlastnosti, právě když matice

$$\boldsymbol\Sigma=\text{diag}(\sigma_1^2,\ldots,\sigma_n^2)$$

Toto tvrzení však neplatí obecně pro jiná rozdělení, jak nám ukáže následující příklad.

Příklad 3.7. Mějme dvourozměrný diskrétní náhodný vektor $\displaystyle (X,Y)'\;\sim\;(M,p)$, kde $$ M=M_X\times M_Y=\{0,1\}\times\{-1,0,1\} \text{ a } p(x,y)= \begin{cases} \frac{1}{3} & (x,y)\in\{(0,0),(1,-1),(1,1)\}, \\ 0 & jinak. \end{cases} $$

Vypočítáme korelační koeficient a marginální pravděpodobnostní funkce. Na základě toho pak určíme, zda případná nekorelovanost implikuje i nezávislost.

$X/Y$ $-1$ $0$ $1$ $p_X(x)$
$0$ $0$ $\frac{1}{3}$ $0$ $\frac{1}{3}$
$1$ $\frac{1}{3}$ $0$ $\frac{1}{3}$ $\frac{2}{3}$
$p_Y(y)$ $\frac{1}{3}$ $\frac{1}{3}$ $\frac{1}{3}$ $1$
$$ \begin{array}{@{}l@{\;}c@{\;}l@{\;}l@{}} {EX} &=& \sum\limits_{x\in M_X}x\;p_X(x)&=0\cdot\frac{1}{3} +1\cdot\frac{2}{3}={\frac{2}{3}}\\[1.5em] {EY} &=& \sum\limits_{y\in M_Y}y\;p_Y(y)&=(-1)\cdot\frac{1}{3}+0\cdot\frac{1}{3} +1\cdot\frac{1}{3}={0}\\[1.5em] {E(XY)} & = & \sum\limits_{(x,y)\in M}xy\;p(x,y)&= 0\cdot0\cdot\frac{1}{3}+1\cdot(-1)\cdot\frac{1}{3} +1\cdot 1\cdot\frac{1}{3}\\[1ex] &&&=-\frac{1}{3}+\frac{1}{3}={0} \end{array} $$

Nyní dopočítáme kovarianci

${C(X,Y)}=E(XY)-(EX)(EY)=0-0={0}$ $\quad\Rightarrow\quad$ $X$ a $Y$ jsou nekorelované.

Avšak nejsou nezávislé, neboť například

$p(0,0)=\frac{1}{3}\;\;\neq\;p_X(0)\cdot p_Y(0)=\frac{1}{3}\cdot\frac{1}{3}=\frac{1}{9}$.

Pokud bychom si ihned všimli, že platí s pravděpodobností 1 vztah

$X=Y^2$,

lze ihned počítat

$\begin{align}{C(X,Y)}&=E(XY)-(EX)\underbrace{(EY)}_{=0} =EY^3\\ &=\sum\limits_{y\in M_Y}y^3\;p_Y(y)=(-1)^3\cdot\frac{1}{3} +0^3\cdot\frac{1}{3}+1^3\cdot\frac{1}{3} ={0}\end{align}$

takže vidíme, i přes funkční vztah $X=Y^2$dostáváme, že $X$ a $Y$ jsou nekorelované. Je třeba si neustále uvědomovat, že

  • korelace je mírou lineárního vztahu;
  • nulová korelace neimplikuje nezávislost, ale značí pouze, že mezi náhodnými veličinami neexistuje lineární vztah, což nevylučuje možnost jiného funkčního vztahu.

4. Kvantily a další číselné charakteristiky

K popisu rozdělení náhodné veličiny $X$ slouží mnoho číselných charakteristik. Zatím jsme v první kapitole poznali střední hodnotu náhodné veličiny $X$ jako charakteristiku její polohy. Ve druhé kapitole jsem se zabývali rozptylem náhodné veličiny $X$, který charakterizuje její variabilitu. Ve třetí kapitole byla pak popsána kovariance náhodných veličin $X$ a $Y$, která charakterizuje jejich vzájemnou závislost. Zabývejme se nyní dalšími charakteristikami polohy. Definujme nejprve kvantilovou funkci a kvantil.

Definice 4.1. Nechť $F$ je distribuční funkcí a $\alpha\in(0,1)$. Potom funkce $$F^{-1}(\alpha)=Q(\alpha)=\inf\{x\in\mathbb{R}:F(x)\geq \alpha\}$$ se nazývá kvantilová funkce a číslo $$x_{\alpha}=Q(\alpha)$$ se nazývá $\alpha$-kvantilem rozdělení s distribuční funkcí $F(x)$.
Poznámka 4.2. Pokud je distribuční funkce $F$ spojitá a rostoucí, pak kvantilová funkce $F^{-1}$ je inverzní funkcí k distribuční funkci $F$. Za těchto předpokladů také platí vztah $$ P(x_{\alpha/2}\lt X\leq x_{1-\alpha/2}) =1-\alpha. $$

Mezi často používané kvantily patří

$x_{0.25}$ $= $ $Q(0.25)$ se nazývá dolní kvartil
$x_{0.5}$ $= $ $Q(0.5)$ medián
$x_{0.75}$ $= $ $Q(0.75)$ horní kvartil

V souvislosti s kvantily se také často uvádí interkvartilové rozpětí $IQR=x_{0.75}-x_{0.25}$ jako charakteristika variability náhodné veličiny $X$. Nejznámějším kvantilem je medián $\tilde x = x_{0.5}$, který udává polohu poloviny rozdělení. Další charakteristikou míry polohy je modus $\hat x$.

Definice 4.3.
  1. Nechť $X\;\sim\; (M,p)$ je diskrétního typu, pak $\hat x$ značí libovolné $x_j\in M$, pro které platí $P(X=\hat x)\geq P(X=x_i),\ i=1,2,\dots$
  2. Nechť $X\;\sim\; f(x)$ je absolutně spojitého typu, pak $\hat x$ značí libovolné $x\in \mathbb{R}$, pro které platí $f(\hat x)\geq f(x),\ x\in\mathbb{R}.$

Je dobré si uvědomit, že ani medián ani modus obecně nemusí být definovány jednoznačně.

Dalšími číselnými charakteristikami náhodné veličiny $X$ jsou míry šikmosti a špičatosti, které charakterizují tvar křivky rozdělení náhodné veličiny.

Definice 4.4. Koeficient šikmosti je definován jako \[ \gamma_1=\frac{\mu_3}{(DX)^{3/2}}=\frac{E(X-EX)^3}{(DX)^{3/2}}. \]

Nulová šikmost značí, že hodnoty náhodné veličiny jsou rovnoměrně rozděleny vlevo a vpravo od střední hodnoty. Tj. symetrická rozdělení včetně normálního rozdělení mají šikmost nula. Kladná šikmost poukazuje na častější výskyt odlehlejších hodnot vpravo od střední hodnoty a na větší kumulaci hodnot v levém okolí střední hodnoty. Pro rozdělení s kladnou šikmostí obvykle platí, že jeho modus je menší než medián a ten je menší než střední hodnota. Pro zápornou šikmost je tomu naopak. Situace je znázorněna na Obr. 2.

Definice 4.5. Koeficient špičatosti je definován jako \[ \gamma_2=\frac{\mu_4}{(DX)^{2}}=\frac{E(X-EX)^4}{(DX)^{2}}. \]

Kladná špičatost značí, že většina hodnot náhodné veličiny leží blízko její střední hodnoty a hlavní vliv na rozptyl mají málo pravděpodobné odlehlé hodnoty. Křivka rozdělení je špičatější. Záporná špičatost značí, že rozdělení je rovnoměrnější a jeho křivka je plošší. Situace je znázorněna na Obr. 3.

Kolo štěstí
Obrázek 2.Koeficient šikmosti
Kolo štěstí
Obrázek 3.Koeficient špičatosti
RNDr. Marie Forbelská, Ph.D., Mgr. Jan Koláček, Ph.D. |
ÚMS, Přírodovědecká fakulta, Masarykova univerzita |
Návrat na úvodní stránku webu, přístupnost |
Stránky Přírodovědecké fakulty MU
| Technická spolupráce:
| Servisní středisko pro e-learning na MU
| Fakulta informatiky Masarykovy univerzity, 2013

Centrum interaktivních a multimediálních studijních opor pro inovaci výuky a efektivní učení | CZ.1.07/2.2.00/28.0041