Podmíněná pravděpodobnost a nezávislost
1. Motivační příklad
Mějme urnu s $a$ černými a $b$ bílými
koulemi. Dvakrát táhneme bez vracení po jedné kouli.
Zajímá nás pravděpodobnost, s jakou ve druhém tahu
vytáhneme bílou kouli, za předpokladu, že také v prvním
tahu jsme vytáhli bílou kouli.
Nejprve označme náhodné jevy |
$B_1\ldots$ v 1. tahu jsme vytáhli bílou kouli |
|
$B_2\ldots$ v 2. tahu jsme vytáhli bílou kouli |
Z klasické definice pravděpodobnosti plyne, že
$ P(B_1)=\frac{b}{a+b} $. Obdobně, v situaci, kdy jsme už
vytáhli v 1. tahu bílou kouli, další bílou kouli vytáhneme
s pravděpodobností
$$
P(B_2|B_1)=\frac{b-1}{a+b-1},
$$
protože pro 2. tah je k dispozici pouze $b-1$ bílých a
$a$ černých koulí.
Označení $P(B_2|B_1)$ jsme použili pro podmíněnou
pravděpodobnost náhodného jevu $B_2$ za podmínky výskytu
náhodného jevu $B_1$.
Kromě toho je pravděpodobnost průniku náhodných jevů $B_1\cap
B_2$ rovna
$$
P(B_1\cap B_2)=\frac{b}{a+b}\;\cdot\;\frac{b-1}{a+b-1},
$$
neboť příznivých jevů je $b(b-1)$ a všech možných výsledků dvou tahů je:
|
$1$ |
$2$ |
$\cdots$ |
$b-1$ |
$1$ |
$\cdots$ |
$a$ |
|
$1$ |
$\left(b_{i_1},b_{i_2}\right)$ |
$\left(b_{i_1},b_{i_3}\right)$ |
$\cdots$ |
$\left(b_{i_1},b_{i_b}\right)$ |
$\left(b_{i_2},c_{j_1}\right)$ |
$\cdots$ |
$\left(b_{i_1},c_{j_a}\right)$ |
|
$2$ |
$\left(b_{i_2},b_{i_1}\right)$ |
$\left(b_{i_2},b_{i_3}\right)$ |
$\cdots$ |
$\left(b_{i_2},b_{i_b}\right)$ |
$\left(b_{i_2},c_{j_1}\right)$ |
$\cdots$ |
$\left(b_{i_2},c_{j_a}\right)$ |
|
$\vdots$ |
$\vdots$ |
|
|
$\vdots$ |
$\vdots$ |
|
$\vdots$ |
jev $B_1$ |
$b$ |
$\left(b_{i_b},b_{i_1}\right)$ |
$\left(b_{i_b},b_{i_2}\right)$ |
$\cdots$ |
$\left(b_{i_b}\!,\!b_{i_{b\!-\!1}}\right)$ |
$\left(b_{i_b},c_{j_1}\right)$ |
$\cdots$ |
$\left(b_{i_b},c_{j_a}\right)$ |
|
$1$ |
$\left(c_{j_1},b_{i_1}\right)$ |
$\left(c_{j_1},b_{i_2}\right)$ |
$\cdots$ |
$\left(c_{j_1},b_{i_b}\right)$ |
$\left(c_{j_1},c_{j_2}\right)$ |
$\cdots$ |
$\left(c_{j_1},c_{j_a}\right)$ |
|
$\vdots$ |
$\vdots$ |
|
|
$\vdots$ |
$\vdots$ |
|
$\vdots$ |
|
$a$ |
$\left(c_{j_a},b_{i_1}\right)$ |
$\left(c_{j_a},b_{i_2}\right)$ |
$\cdots$ |
$\left(c_{j_a},b_{i_b}\right)$ |
$\left(c_{j_a},c_{j_1}\right)$ |
$\cdots$ |
$\left(c_{j_a}\!,\!c_{j_{a\!-\!1}}\right)$ |
|
|
$1$ |
$2$ |
$\cdots$ |
$b$ |
$1$ |
$\cdots$ |
$a-1$ |
|
|
|
jev $B_2$ |
|
|
|
|
|
|
takže všech možných jevů je
$$
b(b-1+a)+a(b+a-1)=b^2-b+ba+ab+a^2-a=(a+b)(a+b-1).
$$
Podmíněnou pravděpodobnost lze zapsat i takto
\[
P(B_2|B_1)=\frac{P(B_1\cap B_2)}{P(B_1)}
=\frac{\frac{b}{a+b}\;\cdot\;\frac{b-1}{a+b-1}}{\frac{b}{a+b}}=\frac{b-1}{a+b-1}
\]
Tedy z $\Omega$ jsme přešli na $B_1$ a z náhodného jevu $B_2$ bereme jen ty, které jsou také v $B_1$.
2. Definice a vlastnosti podmíněné pravděpodobnosti
Definice 2.1.
Nechť $(\Omega,\mathcal{A},P)$ je pravděpodobnostní prostor,
$B\in\mathcal{A}$, $P(B)\gt 0$. Pak číslo
$$
P(A|B)=\frac{P(A\cap B)}{P(B)}
$$
nazýváme podmíněnou pravděpodobností jevu $A$ za podmínky (že nastal jev) $B$.
Poznámka 2.2.
Z předchozí definice ihned vyplývá, že pravděpodobnost průniku
náhodných jevů lze vyjádřit $P(A\cap B)=P(A|B)P(B)$ a přitom
se předpokládá, že $P(B)\gt 0$. Ukážeme, že tento vztah platí i
v případě, že $P(B)=0$.
Nejprve je třeba si uvědomit, že $A\cap B \subseteq
B$. Je-li tedy $P(B)=0$, pak $P(A\cap B)=0$.
Zcela symetricky platí také $P(A\cap B)=P(B|A)P(A)$.
Značení:
Mějme pevně daný náhodný jev $B\in\mathcal{A}$, pro který platí
$P(B)\gt 0$. Označme
$$P_B:\;\mathcal{A}\to\langle0,1\rangle:\;
P_B(A)=P(A|B)$$
Věta 2.3.
$P_B$ je pravděpodobnost na $(\Omega,\mathcal{A})$ pro každé $B\in\mathcal{A}$,
pro které $P(B)\gt 0$.
Důkaz.
Je-li $P_B$ je pravděpodobnost na $(\Omega,\mathcal{A})$,
musí být normovaná, nezáporná a $\sigma$-aditivní.
(1) |
Normovanost |
$P_B(\Omega)=\frac{P(B\cap \Omega)}{P(B)}=\frac{P(B)}{P(B)}=1$. |
(2) |
Nezápornost |
$P_B(A)=\frac{P(A\cap B)}{P(B)}\geq 0$ pro $\forall\;A\in\mathcal{A}$. |
(3) |
$\sigma$-aditivita |
$\left\{A_n \right\}_{n=1}^\infty$ je posloupnost po dvou
neslučitelných náhodných jevů |
|
|
$\begin{array}{@{}l@{}c@{}l@{}}
P_B\left( \bigcup\limits_{n=1}^\infty A_n\right) & = &
\frac{P\left(\left( \bigcup\limits_{n=1}^\infty A_n\right)\cap
B\right)}{P(B)}= \frac{P\left( \bigcup\limits_{n=1}^\infty
(A_n\cap B)\right)}{P(B)}=
\frac{\sum\limits_{n=1}^\infty P(A_n\cap B)}{P(B)}\\
&=&
\sum\limits_{n=1}^\infty P(A_n|B)=
\sum\limits_{n=1}^\infty P_B(A_n)
\end{array}$ |
\(\Box\)
Věta 2.4. Platí
- $P(A|\Omega)=P(A)$ pro $\forall\;A\in\mathcal{A}$.
- $P\left( \bigcap\limits_{i=1}^n A_i\right)=
P(A_1)\cdot P(A_2|A_1)\cdot P(A_3|A_1\cap A_2)\cdot \;\cdots\; \cdot
P(A_n|A_1\cap\ldots\cap A_{n-1})$
pro $P\left( \bigcap\limits_{i=1}^{n-1} A_i\right)\gt 0$ (Věta o násobení pravděpodobností)
Důkaz.
- $P(A|\Omega)=\frac{P(A\cap\Omega)}{P(\Omega)}=\frac{P(A)}{P(\Omega)}=P(A)$
pro $\forall\;A\in\mathcal{A}$.
- $\begin{array}[t]{@{}l@{}c@{}l@{}} P\left(
\bigcap\limits_{i=1}^n A_i\right) &=& P\left(A_n \cap
\left(\bigcap\limits_{i=1}^{n-1} A_i\right) \right)
\stackrel{pozn.2.2}{=}
P\left(A_n|\bigcap\limits_{i=1}^{n-1} A_i\right)
\underbrace{P\left( \bigcap\limits_{i=1}^{n-1} A_i\right)}_{pozn.2.2}\\
&=&
P\left(A_n|\bigcap\limits_{i=1}^{n-1} A_i\right)
P\left(A_{n-1}|\bigcap\limits_{i=1}^{n-2} A_i\right)
\underbrace{P\left( \bigcap\limits_{i=1}^{n-2} A_i\right)}_{pozn.2.2}=\cdots\\
&=&
P\left(A_n|\bigcap\limits_{i=1}^{n-1} A_i\right)
P\left(A_{n-1}|\bigcap\limits_{i=1}^{n-2} A_i\right)
\cdot \;\cdots\; \cdot
P(A_2|A_1)\cdot P(A_1)
\end{array}$
\(\Box\)
Definice 2.5.
Nechť $(\Omega,\mathcal{A},P)$ je pravděpodobnostní prostor. Náhodné jevy $\left\{A_n \right\}_{n=1}^\infty \in
\mathcal{A}$ tvoří úplný systém jevů na $(\Omega,\mathcal{A},P)$,
jestliže platí
\[
A_i\cap A_j = \emptyset,\ \text{pro }i\neq j,\ \text{a }
\bigcup_{n=1}^\infty A_n=\Omega.
\]
Věta 2.6. (Vzorec pro úplnou pravděpodobnost).
Nechť posloupnost
$\left\{A_n \right\}_{n=1}^\infty$ tvoří úplný systém jevů na $(\Omega,\mathcal{A},P)$ takový, že $P(A_i)\gt 0$
pro $i=1,2,\ldots$. Pak platí
$$
P(B)=\sum\limits_{i=1}^\infty P(A_i)P(B|A_i).
$$
Důkaz.
$P(B)$ |
$ = P(B\cap\Omega)=P\left(B\cap\bigcup\limits_{i=1}^\infty
A_i \right)
=P\left(\bigcup\limits_{i=1}^\infty(B\cap A_i) \right)$ |
|
$= \sum\limits_{i=1}^\infty P(B\cap A_i)
\stackrel{pozn.2.2}{=}\sum\limits_{i=1}^\infty
P(A_i)P(B|A_i)$ |
\(\Box\)
Věta 2.7. (Bayesův vzorec).
Nechť posloupnost $\left\{A_n \right\}_{n=1}^\infty$ tvoří úplný
systém jevů na $(\Omega,\mathcal{A},P)$ takový, že $P(A_i)\gt 0$ pro $i=1,2,\ldots$ a
$B\in\mathcal{A}$, kde $P(B)\gt 0$. Pak
\[
P(A_j|B)=\frac{P(A_j)P(B|A_j)}{\sum\limits_{i=1}^nP(A_i)P(B|A_i)}
\quad\mbox{ pro }\quad j=1,2,\ldots .
\]
Důkaz.
S využitím
poznámky 2.2 a vzorce pro úplnou pravděpodobnost
můžeme upravovat
$$
P(A_j|B)= \frac{P(A_j\cap B)}{P(B)}=
\frac{\overbrace{P(A_j)P(B|A_j)}^{pozn.2.2}}
{\underbrace{\sum\limits_{i=1}^\infty
P(A_i)P(B|A_i)}_{\text{úpl.pst}(V2.6)}}.
$$
\(\Box\)
Věta 2.8. (Bayesův vzorec - modifikace)
Nechť posloupnost $\left\{A_n \right\}_{n=1}^\infty$
tvoří úplný systém jevů na $(\Omega,\mathcal{A},P)$ takový, že $P(A_i)\gt 0$
pro $i=1,2,\ldots$, $A\in\mathcal{A}$, kde $P(A)\gt 0$ a
$B\in\mathcal{A}$. Pak
\[
P(B|A)=\frac{\sum\limits_{\{i:P(A\cap
A_i)>0\}}P(A_i)P(A|A_i)P(B|A\cap A_i)}{\sum\limits_{i=1}^\infty
P(A_i)P(A|A_i)}.
\]
Důkaz.
Využitím předchozích vztahů lze lehce dospět k
tvrzení (zkuste jako domácí cvičení).
\(\Box\)
Terminologie: |
$A_j$ |
$\cdots$ hypotézy, $j=1,2,\ldots$ |
|
$P(A_j)$ |
$\cdots$ apriorní pravděpodobnost |
|
$P(A_j|B)$ |
$\cdots$ aposteriorní pravděpodobnost |
Poznámka 2.9. Bayesův vzorec se používá v případě, jestliže:
- Máme úplný systém hypotéz $A_1,\ldots,A_n$, které se navzájem
vylučují a vyčerpávají všechny možnosti.
- Přitom známe jejich apriorní pravděpodobnosti $P(A_i)$.
- Nastal jev $B$ a navíc známe podmíněné pravděpodobnosti
$P(B|A_i)$.
- Co nás především zajímá, jsou nové aposteriorní
pravděpodobnosti $P(A_i|B)$, které berou v úvahu, že nastal jev $B$.
Příklad 2.10. (Lékařská diagnostika)
Je známo, že nějakou konkrétní nemocí, označme ji $\mathcal{D}$
(
disease), trpí 1% populace. Nemoc je diagnostikována
na základě vyšetření, jehož spolehlivost je 95%, jestliže
vyšetřovaná osoba trpí nemocí $\mathcal{D}$, a je 70%, pokud
nemocí $\mathcal{D}$ netrpí. Vyšetřujeme náhodně zvolenou osobu.
Určete pravděpodobnost správné diagnózy, pokud byl výsledek |
(a) pozitivní, (b) negativní. |
Řešení: |
Označme |
jev $A$ vyšetřované osoba trpí chorobou $\mathcal{D}$ |
|
|
jev $B$ & výsledek vyšetření je pozitivní |
Ze zadání známe:
apriorní pravděpodobnost $P(A)=0.01$,
což je pravděpodobnost, že náhodně vybraná osoba má danou nemoc
$\mathcal{D}$, říká se jí
prevalence nemoci.
Spolehlivost vyšetření se popisuje pomocí dvou charakteristik:
- pro pozitivní výsledek $P(B|A)=0.95$ tzv. senzitivita testu
- pro negativní výsledek $P(\bar{B}|\bar{A})=0.7\;\;$ tzv. specificita testu
- Určíme aposteriorní pravděpodobnost
správné diagnózy, pokud byl výsledek pozitivní, tj.
spočítáme podmíněnou pravděpodobnost $P(A|B) = \frac{P(A\cap B)}{P(B)}$.
Nejprve vypočítáme
$\begin{array}{@{}l@{}c@{}l@{}} {P(B)} & = &
P(B\cap\Omega)=P(B\cap(A\cup\bar{A})) =P(\underbrace{(B\cap
A)\cup(B\cap \bar{A})}_{\scriptsize neslučitelné jevy})\\
&=&P(\underbrace{B\cap A}_{pozn.2.2})+
P(\underbrace{B\cap \bar{A}}_{pozn.2.2})\\
&=&
P(A)P(B|A)+P(\bar{A})P(B|\bar{A})\\
&=& 0.01\cdot0.95+(1-0.01)\cdot(1-0.7)
=\underbrace{0.0095}_{=P(A\cap
B)}+\underbrace{0.297}_{=P(\bar{A}\cap B)}={0.3065}
\end{array}$
Nakonec dosadíme $P(A|B) = \frac{P(A\cap B)}{P(B)}=\frac{P(A)P(B|A)}{P(B)} =\frac{0.0095}{0.3065}={0.030995}$ tj. $3.1$%, což je překvapivý výsledek, čekali jsme o
mnoho lepší. Většina lidí bez zaváhání odpoví, že by mělo být
$95$%, neboť taková je přece spolehlivost vyšetření pro
pozitivního jedince.
Vysvětleme si podrobně, co značí aposteriorní pravděpodobnost
správného určení diagnózy, když výsledek testu byl pozitivní.
Je třeba si uvědomit, že uvažujeme náhodně vybraného jedince. Pravděpodobnost, že má
danou chorobu, je dána prevalencí, a ta činí 1%. Naproti tomu 99% nemocí netrpí.
Mezi těmi, kteří nemocí trpí, dává test s 95% správný (tj. pozitivní) výsledek,
(senzitivita testu).
Mezi těmi, kteří nemocí netrpí, dává test s 70% správný (tj. negativní) výsledek
(specificita testu), takže pozitivní (nesprávný) výsledek s 30%.
- Naprosto analogicky dostaneme
$
\begin{array}{l@{}c@{}l}
{P(\bar{A}|\bar{B})} &=& \dfrac{P(\bar{A}\cap \bar{B})}{P(\bar{B})}
=\dfrac{P(\bar{A})P(\bar{B}|\bar{A})}{P(\bar{A})P(\bar{B}|\bar{A})+P({A})P(\bar{B}|{A})}\\
&=&\dfrac{(1-0.01)\cdot 0.7}{(1-0.01)\cdot 0.7+0.01\cdot(1-0.95)}\\
&=&\dfrac{0.693}{0.693+0.0005}
= \dfrac{0.693}{0.6935}={0.99928}.
\end{array}
$
Na konkrétním příkladu s 100 000 jedinci si ukážeme, proč vyšla pravděpodobnost správného výsledku
při pozitivním testu tak malá a pravděpodobnost správného výsledku při negativním testu tak vysoká.
|
$A\ \ldots\ $ nemoc má prevalence$=0.01$ |
$\bar{A}\ \ldots\ $ nemoc nemá |
celkem |
|
1000 |
99 000 |
100 000 |
$B\ \ldots\ $test je pozitivní |
senzitivita$=0.95$ 950 |
29 700 |
30 650 |
$\begin{array}{@{}l@{}c@{}l} P(A|B) &=&
\frac{950}{30\;650}\\
&=&
0.030995
\end{array}
$ |
$\bar{B}\ \ldots\ $test je negativní |
50 |
specificita$=0.7$ 69 300 |
69 350 |
$\begin{array}{@{}l@{}c@{}l}
P(\bar{A}|\bar{B}) &=&
\frac{69\;300}{69\;350}\\
&=&
0.99928
\end{array}$ |
3. Nezávislost náhodných jevů
Velmi důležitým pojmem je nezávislost. Intuitivně cítíme, že jevy
$A$ a $B$ jsou nezávislé, pokud hodnota pravděpodobnosti
podmíněného jevu bude rovna nepodmíněné pravděpodobnosti,
tj.
$$P(A|B) =\frac{P(A\cap B)}{P(B)}= P(A)\ \text{a}\
P(B|A) =\frac{P(A\cap B)}{P(A)}= P(B).$$
Odtud pak vychází následující definice nezávislosti.
Definice 3.1.
Nechť $(\Omega,\mathcal{A},P)$ je pravděpodobnostní prostor. Pak řekneme, že
jev $A\in\mathcal{A}$ a jev $B\in\mathcal{A}$ jsou
nezávislé (vzhledem k pravděpodobnosti $P$), jestliže
\[
P(A\cap B)=P(A)P(B).
\]
Věta 3.2.
- Libovolný náhodný jev $A\in\mathcal{A}$ a jev jistý
jsou nezávislé.
- Libovolný náhodný jev $A\in\mathcal{A}$ a jev nemožný
jsou nezávislé.
- Nechť $A\in\mathcal{A}$ a $B\in\mathcal{A}$
jsou nezávislé jevy.
Pak také $A$ a $\bar{B}$, $\bar{A}$ a ${B}$,
$\bar{A}$ a $\bar{B}$ jsou nezávislé.
Důkaz.
- $P(\Omega)=1\;\wedge\;
P(A\cap\Omega)=P(A)=P(A)\cdot 1=P(A)\cdot P(\Omega)$
- $P(\emptyset)=0\;\wedge\;
P(A\cap\emptyset)=P(\emptyset)=0=P(A)\cdot P(\emptyset)$
- Nechť $A,B\in\mathcal{A}\;\wedge\;P(A\cap B)=P(A)P(B)$, počítejme
\begin{align*}
{P(A\cap\bar{B})} & =
P(A\cap(\Omega-B))=P((A\cap\Omega)-(A\cap B))=P(A-\underbrace{(A\cap B)}_{\subseteq A})\\
&=P(A)-P(A\cap B)=P(A)-P(A)P(B)=P(A)(1-P(B))\\
&={P(A)P(\bar{B})}
\end{align*}
Analogicky dokážeme i ostatní tvrzení.
\(\Box\)
Definice 3.3. (Skupinová (sdružená) nezávislost).
Nechť $(\Omega,\mathcal{A},P)$ je
pravděpodobnostní prostor a $A_1,\ldots,A_n\in\mathcal{A}$.
Řekneme, že náhodné jevy $A_1,\ldots,A_n$ jsou skupinově
(sdruženě) nezávislé, jestliže pro libovolné
$k\in\{1,\ldots,n\}$ a libovolnou množinu indexů
$\{i_1,\ldots,i_k\}\subseteq \{1,\ldots,n\}$ platí
$$
P\left(\bigcap\limits_{j=1}^k A_{i_j} \right)=\prod\limits_{j=1}^k P(A_{i_j})
$$
Nechť $M=\{A_i\in\mathcal{A},i\in\mathcal{J}\}$, kde
$\mathcal{J}$ je daná indexová množina (i nekonečná). Řekneme, že
náhodné jevy systému $M$ jsou nezávislé, jestliže pro
každou konečnou množinu indexů $\{i_1,\ldots,i_n\}$, kde
$i_j\in\mathcal{J},j=1,\ldots,n$ platí
$$
P\left(\bigcap\limits_{j=1}^n A_{i_j} \right)=\prod\limits_{j=1}^n P(A_{i_j})
$$
Příklad 3.4.
Dvakrát házíme kostkou.
Uvažujme následující jevy |
$A$ v 1. hodu padne sudé číslo |
|
$B$ v 2. hodu padne liché číslo |
|
$C$ v obou hodech padne číslo stejné parity |
Protože platí
$\begin{array}{@{}lcl@{$\qquad\qquad$}lcl@{}}
P(A) &=& \frac{3\cdot 6}{36}=\frac{1}{2}
&
P(A\cap B) &=& \frac{3\cdot 3}{36}=\frac{1}{4}=P(A)P(B)\\[1ex]
P(B) &=& \frac{6\cdot 3}{36}=\frac{1}{2}
&
P(A\cap C) &=& \frac{3\cdot 3}{36}=\frac{1}{4}=P(A)P(C)\\[1ex]
P(C) &=& \frac{3\cdot 3+3\cdot 3}{36}=\frac{1}{2}
&
P(A\cap B\cap C) &=& \frac{0}{36}=0\neq P(A)P(B)P(C)
\end{array}$
jsou jevy $A$, $B$ a $C$ po dvou nezávislé, ale
ne skupinově nezávislé.
Poznámka 3.5.
Zřejmě platí: jsou-li jevy $A_1,\ldots,A_n$ nezávislé, jsou i
skupinově nezávislé.
Věta 3.6.
- Libovolná podmnožina skupinově
nezávislých náhodných jevů je množinou nezávislých náhodných jevů.
- Jestliže v dané množině nezávislých náhodných jevů nahradíme
libovolný počet jevů jevy opačnými, opět dostaneme množinu
nezávislých náhodných jevů.
- Jestliže $A_1,\ldots,A_n$ jsou nezávislé náhodné jevy, pak
$$
P\left(\bigcup\limits_{i=1}^n A_{i} \right)=
1-\prod\limits_{i=1}^n \left(1-P(A_{i})\right).
$$
Důkaz.
$(a)$ i $(b)$ zřejmé.
$(c)$
$P\left(\bigcup\limits_{i=1}^n A_{i} \right)=
P\left(\overline{\bigcap\limits_{i=1}^n \bar{A}_{i}} \right)
=1-P\left(\bigcap\limits_{i=1}^n \bar{A}_{i} \right)
=1-\prod\limits_{i=1}^n P(\bar{A}_{i})
=1-\prod\limits_{i=1}^n \left(1-P(A_{i})\right).$
\(\Box\)
Věta 3.7. (Borelovo lemma).
Nechť $\left\{A_n \right\}_{n=1}^\infty$ jsou nezávislé jevy. Pak
$ P\left(\!\limsup\limits_{n\to\infty}\! A_n\!\right)
\!=\!0\vee 1$ podle toho, zda řada $\sum\limits_{n=1}^\infty
P(A_n)$ konverguje nebo diverguje.
Důkaz.
- Jestliže řada
$\sum\limits_{n=1}^\infty P(A_n)\lt\infty$
konverguje, pak podle Cantelliho lemmatu
(V.7.4), které dokonce nepožaduje ani nezávislost
náhodných jevů, platí
$P\left(\limsup\limits_{n\to\infty}
A_n\right)=0$.
- Nechť $\sum\limits_{n=1}^\infty P(A_n)=\infty$ diverguje.
Protože $P\!\left(\!\limsup\limits_{n\to\infty}\!A_n\!\right)=
P\!\left(\!\bigcap\limits_{n=1}^\infty
\bigcup\limits_{k=n}^\infty A_k\!\right)$, označme nejprve
$B_n=\bigcup\limits_{k=n}^\infty A_k\supseteq B_{n+1}
=\bigcup\limits_{k=n+1}^\infty A_k$
a upravujme
$$\begin{array}{@{}l@{}c@{}l@{}}
{P\!\left(\!\limsup\limits_{n\to\infty}\!A_n\!\right)} &=&
P\!\left(\!\bigcap\limits_{n=1}^\infty \bigcup\limits_{k=n}^\infty
A_k\!\right) =P\!\left(\!\bigcap\limits_{n=1}^\infty B_n\!\right)
\stackrel{V7.2,(3)}{=}
\lim\limits_{n\to\infty}P(B_n)\\
&=&
\lim\limits_{n\to\infty}P\!\left(\!
\bigcup\limits_{k=n}^\infty A_k\!\right)
=\lim\limits_{n\to\infty}\lim\limits_{N\to\infty}
P\!\left(\!\bigcup\limits_{k=n}^N A_k\!\right)\\
&=&
\lim\limits_{n\to\infty}\lim\limits_{N\to\infty}
P\!\left(\!\overline{\bigcap\limits_{k=n}^N \bar{A}_k}\!\right)
=1\!-\!\lim\limits_{n\to\infty}\lim\limits_{N\to\infty}
P\!\left(\!\bigcap\limits_{k=n}^N \bar{A}_k\!\right)\\
&=&
1\!\!-\!\!\lim\limits_{n\to\infty}\!\lim\limits_{N\to\infty}\!
\prod\limits_{k=n}^N\!P(\bar{A}_k)\!=\!
1\!\!-\!\!\lim\limits_{n\to\infty}\!\lim\limits_{N\to\infty}
\!\prod\limits_{k=n}^N\!(1\!\!-\!\!P(A_k))\\
&\geq& 1-\lim\limits_{n\to\infty}\lim\limits_{N\to\infty}
\prod\limits_{k=n}^N e^{-P(A_k)}\\
&=&1-\lim\limits_{n\to\infty}\lim\limits_{N\to\infty}
e^{-\sum\limits_{k=n}^NP(A_k)}=1-0= 1.
\end{array}$$
Pro $x\in(0,1)$ platí
$|\ln(1-x)|\geq x$, tj.
$\ln(1-x)\leq -x$
$1-x\leq e^{-x}$
\(\Box\)