MA 0008 - Teorie pravděpodobnosti PEDAGOGICKÁ FAKULTA MASARYKOVY UNIVERZITY Břetislav Fajmon, Karel Lepká Verze textu: leden 2022 MA 0008 - Teorie pravděpodobnosti 3 Obsah 1 Statistická a axiomatická definice pravděpodobnosti 6 1.1 Dvě různá pojetí pravděpodobnosti...................... 6 1.2 Shrnutí...................................... 14 1.3 Otázky k opakování............................... 14 2 Čtyři různé modely popisu pravděpodobnosti 16 2.1 Klasická pravděpodobnost........................... 16 2.2 Geometrická pravděpodobnost......................... 17 2.3 Diskrétní pravděpodobnost........................... 19 2.4 Spojitá pravděpodobnost............................ 20 2.5 Shrnutí...................................... 21 2.6 Otázky k opakování............................... 22 3 Věta o součtu pravděpodobností, věta o součinu pravděpodobností, podmíněná pst 23 3.1 Shrnutí...................................... 30 3.2 Otázky k opakování............................... 31 4 Bernoulliovy pravděpodobnosti, úplná pravděpodobnost, Bayesův vzorec 32 4.1 Bernoulliovy pravděpodobnosti ........................ 32 4.2 Úplná pravděpodobnost ............................ 36 4.3 Bayesův vzorec................................. 38 4.4 Shrnutí...................................... 39 4.5 Otázky k opakování............................... 40 5 Procvičování příkladů, příprava na prověrku 41 5.1 Shrnutí...................................... 46 6 Prověrka 47 7 Diskrétní a spojitá náhodná veličina, střední hodnota a rozptyl, distribuční funkce 48 8 Některá význačná rozdělení pravděpodobnosti — diskrétní i spojitá 55 9 Normální rozdělení psti 56 9.1 Normální rozdělení pravděpodobnosti..................... 56 9.2 řJ-rozdělení................................... 59 9.3 Aproximace binomického rozdělení normálním s korekcí........... 66 10 Úvod do úsudkové statistiky — statistické testy 69 10.1 Statistické rozhodování - chyba 1. druhu a chyba 2. druhu......... 69 10.2 Statistický test střední hodnoty binomického rozdělení ........... 71 4 Katedra matematiky PedF MUNI v Brně 10.3 Statistický test střední hodnoty průměru z normálního rozdělení...... 73 11 ŕ-test, intervaly spolehlivosti 78 11.1 Nestranný a konzistentní odhad parametru rozdělení ............ 78 11.2 ŕ-test typu „ji =konstanta"........................... 84 11.3 Několik poznámek ke statistickému testu................... 90 11.4 Interval spolehlivosti pro střední hodnotu ji ................. 92 11.4.1 Interval spolehlivosti pro /i při známém rozptylu........... 92 11.4.2 Interval spolehlivosti pro /i při neznámém rozptylu ......... 94 11.4.3 Několik důležitých poznámek k intervalům spolehlivosti....... 95 11.5 ŕ-test typu „jii = ^2".............................. 97 11.5.1 Párový test............................... 97 11.5.2 Nepárovýtest.............................. 100 11.6 Předpoklady použitelnosti parametrických testů............... 105 11.7 Shrnutí...................................... 106 11.8 Otázky k opakování............................... 106 12 Testy \2 (cní kvadrát), Mannův-Whitneyův test 108 12.1 Vlastnosti rozdělení \2............................. 108 12.2 Využití rozdělení x2............................... 112 12.2.1 Testování hypotézy a2 = konst .................... 112 12.2.2 Test druhu rozdělení - \2 test dobré shody.............. 114 12.2.3 Testování nezávislosti v kontingenční tabulce............. 115 12.3 Neparametrický Mannův-Whitneyův test podle pořadí........... 116 12.4 Shrnutí...................................... 119 12.5 Otázky k opakování............................... 122 13 Odpovědi na otázky a výsledky příkladů ke cvičení 125 13.1 Výsledky cvičení ke kapitole 1......................... 125 13.2 Výsledky cvičení ke kapitole 2......................... 125 13.3 Výsledky cvičení ke kapitole 3......................... 125 13.4 Výsledky cvičení ke kapitole 4......................... 126 13.5 Výsledky cvičení ke kapitole 11 ........................ 126 13.6 Výsledky cvičení ke kapitole 12 ........................ 126 MA 0008 - Teorie pravděpodobnosti 5 Úvod Rádi bychom v tomto textu poskytli materiál, který podepře výuku předmětu MA0008 na Pedagogické fakultě Masarykovy Univerzity v Brně. Text bude psán v průběhu roku 2021 a ověřen ve výuce na jaře 2022. Představit pravděpodobnost i statistiku v jednom semestru není jednoduché - přesto je kurs někdy zaměřen kromě jistých metod, které mohou pomoci na ZS při prezentaci nebo zpracování statistických údajů v Excelu (tomu bude též věnována pozornost), také na výpočty a některá odvození vysokoškolského rázu. Studenti mají částečné povědomí 0 statistických metodách z kurzů věnovaných tomu, jak psát bakalářskou práci a jak dělat pedagogický výzkum - tento kurs MA 0008 by měl nejen navázat na takové kursy, ale navíc poskytnout jistou matematickou důkladnost v některých věcech, a odvození a vysvětlení základních faktů, je-li to možné zejména s využitím některých znalostí zejména z matematické analýzy (pravděpodobnost je totiž mezioborem matematiky, protože se snaží popisovat náhodnost jak u diskrétních, tak u spojitých veličin, tj. využívá poznatky „diskrétních" i „spojitých" matematických disciplín). Při psaní textu budou využity zkušenosti získané z učebního textu (Fajmon, Hlavičková, Novák 2014) společně s mými bývalými kolegy na FEKT VUT, kde byl hojně využit i text (Loftus, Loftusová 1988). Důležitým textem na téma pravděpodobnosti z Brněnské matematické komunity je (Budíková, Králová, Maroš 2009). Na pedagogické fakultě se ovšem musíme také držet patřičně „při zemi" a myslet na středoškolskou úroveň, popřípadě úroveň ZS - materiálem reprezentujícím tuto oblast je učebnice (Robova, Hála, Calda 2013). A v dokončené verzi textu bude snad něco využito 1 z anglických učebnic „pro hlupáky" (for dummies), kterým snad předně jde o srozumitelnost, jako jsou (Rumsey 2006), (Rumsey 2016), (Schmuller 2016). Obsah předmětu je rozdělen na tří části: • Cvičení 01-02: Popisná statistika - zpracovává informace na základě naměřených dat pomocí tabulek, grafů, funkcí, číselných hodnot. V podstatě vyučováno na ZS. Výuka bude doplněna úkoly zpracovanými v programu Excel. • Přednáška 01-08, cvičení 03-08: Teorie pravděpodobnosti - zabývá se popisem náhodnosti v experimentech či měřeních veličin, kdy za stejných vstupních podmínek nastávají různé výsledky. • Přednáška a cvičení 09-12: Usudková statistika - prezentace některých metod analýzy dat, kdy je informace získaná z náhodného výběru jedinců zobecněna na celou populaci. Její součástí je teorie odhadu, testování statistických hypotéz, statistická predikce (předpověď). Na textu spolupracujeme společně s kolegou RNDr. Karlem Lepkou, Dr., kterého jsem požádal o korekturu textu a dodání dalších příkladů „ze života" na oživení přednášky. Břetislav Fajmon, leden 2022 6 Katedra matematiky PedF MUNI v Brně 1 Statistická a axiomatická definice pravděpodobnosti Ve slově pravděpodobnost vidíme, že se jedná o něco podobného pravdě, nebo blízké pravdě. Při hledání odpovědi na otázku, co je to pravda, bychom asi slyšeli řadu odpovědí. Na tuto otázku se například zeptal i Pilát Ježíše Krista, když ho vyslýchal před jeho popravou. Neměl dost trpělivosti počkat si na odpověď, kterou už dříve Ježíš řekl svým učedníkům (Jan 14,6 - Bible): Já jsem ta cesta, pravda i život, nikdo nepřichází k Otci než skrze mne. Všeobsáhle mluvící apoštol Jan ve svém evangeliu také říká (Jan 1,17): Milost a pravda se stala skrze Ježíše Krista. Tj. pravda, to nejsou jen slova, ale pravdou lze nazvat též skutečnost (věci, které se odehrály - v pojetí Bible ovšem pravda je něco víc než jen to, co se odehrálo, ale ve slově pravda je obsažena i věrnost, že v životě Ježíše Krista byl Pán Bůh věrný vůči nám lidem). Tedy • Pravda = skutečnost. Ve vědeckém smyslu má skutečnost všeobsáhlý význam, tj. věci dobré i špatné. • Pravda = věrný či přesný popis skutečnosti. Z matematického hlediska se jedná i o zákonitosti, které stojí za skutečností, např. 2 + 2 = 4. Z pohledu statistiky se může jednat o záznamy srážek v úhrnu za každý den na daném meteorologickém stanovišti. V tomto předmětu se budeme zabývat tou částí pravdy, která souvisí se druhým uvedeným bodem: popisem skutečnosti, zejména tedy popisem měření číselných (kvantitativních) veličin, i když někdy lze matematicky zpracovat i veličiny kvalitativní (kvalitu či spokojenost s kvalitou dnes často vyjadřujeme i na číselné stupnici, kde např. 1 = velmi dobrá kvalita, 2 = spíše dobrá kvalita, 3 = průměr, 4 = spíše horší kvalita, 5 = špatná kvalita). Přitom • Ve statistice (a statistické pravděpodobnosti) většinou jde o popis veličiny a po-steriori1, tj. na základě měření či zkušenosti (slovo zkušenost je pokusem o překlad slova empirie - empirické poznání je poznání, které můžeme číselně změřit či zaznamenat, např. informace o tom, jak nám v našem impériu prší). • V pravděpodobnosti se jedná o popis veličin a priori2, kdy na základě teoretických informací o povaze daného experimentu chceme popsat matematickým aparátem, jak nám v našem impériu budou padat čísla na kostce, líce či ruby na minci, apod. ještě dříve, než k měření dojde. 1.1 Dvě různá pojetí pravděpodobnosti V Této první přednášce se budeme věnovat dvěma definicím (pojetím) pravděpodobnosti. Definice 1.1 Statistickou pravděpodobností náhodného jevu A, který při opakování experimentu či měření za stejných vstupních podmínek nastává jen v některých případech, XZ latinské předložky post či posteá, což znamená potom, poté. 2Z latinského prior = dřívější, tj. a priori = dříve než, předem. MA 0008 - Teorie pravděpodobnosti 7 definujeme jako takové reálné číslo, ke kterému se blíží relativní četnost výskytu jevu A, pokud celý experiment opakujeme nekonečnékrát, tj. P (A) = lim n—¥00 n Předností této definice je fakt, že pokud jsme schopni dostatečně zajistit, aby měření experimentu bylo vykonáno vždy za stejných vstupních podmínek, máme predikci neboli předpověď pravděpodobnosti výskytu jevu A podloženu reálným měřením. Slabinou definice je to, že přesnou hodnotu limity nikdy nejsme schopni experimentálně zjistit - experiment nelze opakovat nekonečnékrát. Nicméně, při dostatečně velkém n lze tuto pravdě podobnost rozumně odhadnout. Příklad 1.1 Jaká je pst náhodného jevu A: při hodu kostkou padne šestka? Při statistickém určení psti vycházíme z opakování experimentu, hodíme tedy • desetkrát, a pro n = 10 dostaneme P (A) = = 0,3; • stokrát, a pro n = 100 dostaneme P (A) = ^ = 0,2; • tisíckrát, a pro n = 1000 dostaneme P (A) = = 0,17; stále se nejedná o přesnou hodnotu, ale hodnotu blízkou hledané limitě. Zatímco právě popsané statistické pojetí psti nebudeme zanedbávat, ještě častěji budeme užívat pojetí axiomatické, které je představené v následující definici (pomůcka pro zapamatování definice: potřebujete si pamatovat sedm faktů: 1) co je to íž; 2,3,4) tři axiomy (1), (2), (3) pro náhodné jevy At; 5,6,7) tři axiomy (Pl), (P2), (P3) pro pst P, která je definována jako zobrazení určitých vlastností). Definice 1.2 Pravděpodobnostním prostorem nazveme uspořádanou trojici (íž, A, V), kde • íl je tzv. základní prostor neboli množina všech možných elementárních výsledků uj1 daného měření či experimentu; • A je tzv. jevové pole neboli taková třída podmnožin At (tyto podmnožiny nazýváme náhodné jevyJ množiny íl (nemusí to být nutně všechny podmnožiny množiny íl, ale takové, ...), že platí axiomy (1) íl E A; (2) pro A\,Ai E A také A\ — A2 G A (třída A je uzavřená na rozdíl náhodných jevů); (3) pro Ai,A2,--- G A také {J°^lAl E A (třída A je uzavřená na sjednocení nekonečně mnoha náhodných jevů A±, A2, ■ ■ ■ )■ • P : A —> {/; 00) je zobrazení, které nazveme pravděpodobností na jevovém poli A, když pro ně platí axiomy 8 Katedra matematiky PedF MUNI v Brně (PI) .P(ŕž) = 1 (axiom normovanosti); (P2) P (A) > O y A E A (axiom nezápornosti); (P3) pro navzájem neslučitelné jevy (Ai Pl A,- = 0 při í ^ j) platí oo oo P(\jAl) = ^P(Al) 1=1 1=1 (axiom součtu praváěpoáobností nekonečně mnoha neslučitelných náhoáných jevů). Právě uvedená axiomatická definice umožňuje korektně definovat všechny různé pravděpodobnostní modely - budeme se jimi zabývat v následující přednášce. Nejprve ovšem několik poznámek k ní: Poznámka 1. Axiom (3) u jevového pole A lze vyslovit i pro konečně mnoho náhodných jevů A±, A2..., An E A. Nemusíme ho ovšem uvádět jako zvláštní axiom, plyne totiž z uvedeného třetího axiomu volbou 0 = An+i = An+2 = ...: pro Au A2,...,An E A také Uľ=i Al E A (třída A je uzavřená i na sjednocení konečně mnoha náhodných jevů A±, A2, ■ ■ ■). Poznámka 2. Axiom (P3) u pravděpodobnosti P lze vyslovit i pro konečně mnoho navzájem neslučitelných náhodných jevů A±, A2..., An E A. Nemusíme ho ovšem uvádět jako zvláštní axiom, plyne totiž z uvedeného třetího axiomu volbou 0 = An+i = An+2 = n n (A n Aj= 0 pro i j) P(\J Ai) = P(Ai). i=i i=i Poznámka 3. K jednotlivým axiomům psti: ad Pl) Pravděpodobnost jevu íž je rovna jedné, protože íž obsahuje všechny možné výsledky měření, které mohou nastat. Jev íž proto někdy označujeme jako jev jistý, protože nastane vždy. ad P2) Pravděpodobnost náhodného jevu A bude vždy číslo nezáporné. ad P3) Jednotlivé náhodné jevy se navzájem vůči sobě vztahují podmínkou aditivity (= podmínkou sečtitelnosti): Pokud výskyt jevu A\ se vylučuje s výskytem jevu A%, pak pst jevu AiU^ lze vyjádřit jako součet pstí dílčích jevů A±, Ai. Tento princip je vlastně analogický principu součtu v kombinatorice. A podobně jako kombinatorice počet sjednocení dvou množin konfigurací, které mají některé prvky ve společném průniku, nelze už vyjádřit jako součet prvků dílčích množin, ale musíme brát v úvahu jejich průnik a užít princip inkluze a exkluze, tak i u pravděpodobnosti obecného sjednocení jevů, z nichž dílčí dvojice jevů nemají prázdný průnik, musíme podobně užít složitější vzorec - budeme se mu věnovat ve třetí přednášce. Kromě daných tří axiomů psti platí i další vlastnosti (viz následující dvě věty). Ty už nepokládáme za axiomy, protože jejich zdůvodnění plyne z axiomů už uvedených. MA 0008 - Teorie pravděpodobnosti 9 Věta 1.1 VASei: ACB V{A) 0, P(B - A) > 0 na základě (P2), vidíme, že P(B) získáme jako součet dvou nezáporných čísel, z nichž jedním je číslo P (A) - proto platí tvrzeníčko věty. □ Věta 1.2 Pro každý náhodný jev A a jev k němu opačný3 A platí P (A) + P (A) = 1. Důkaz: Celou množinu íl lze rozdělit (rozložit) na dvě disjunktní množiny A, A. Tedy na základě (PI) a (P3) platí P(íl) = 1 = P (A) + P{A). □ Právě uvedená větička bude užitečná, namísto výpočtu P (A), když bude pro nás jednodušší vypočítat pst P (A) jevu opačného, a pak vyjádříme P (A) jako 1 — P (A). Než kapitolu ukončíme, tak ještě série dvou příkladů, která ilustruje rozdíl mezi pstí statistickou (empirickou) a pstí axiomatickou (teoretickou): Příklad 1.2 Byla získána data tím způsobem, že každá z dvaceti osob hodila čtyřikrát korunou (měříme tedy hodnotu veličiny X = počet líců ve čtyřech hodech korunou). V tabulce 1.1 jsou zaznamenány počty líců ve čtyřech hodech u každé z osob. Určete empirické rozdělení pravděpodobnosti veličiny X. Tabulka 1.1: K př. 1.2: Naměřené hodnoty veličiny X. osoba 1 2 3 4 5 6 7 8 9 10 X-hodnota 3 1 1 3 1 2 0 2 4 4 osoba 11 12 13 14 15 16 17 18 19 20 X-hodnota 1 2 2 1 2 1 2 3 3 3 Řešení: Nejprve si všimněme, že naše veličina X nabývá pouze pěti hodnot, a to 0, 1, 2, 3 nebo 4. Zpracování této úlohy je založeno na pojmu četnost, který udává počet výskytů dané hodnoty v našem souboru. Například ze všech dvaceti měření je jen jedna hodnota 0, tj. veličina X nabývá hodnoty 0 s četností 1 (budeme značit c(0) = 1). Hodnota 1 se vyskytuje s četností 6, atd. Všechny četnosti jsou zaznamenány v tabulce 1.2: Musí platit jednoduchá kontrola, že součet všech četností ve druhém řádku tabulky je roven počtu hodnot (v našem případě 20). 3 V teorii psti mají všechny množinové pojmy svůj terminologický ekvivalent. Množinově je A doplňkem množiny A, ale v teorii psti mluvíme o A jako o jevu opačném. 10 Katedra matematiky PedF MUNI v Brně Tabulka 1.2: K př. 1.2: Tabulka empirických četností hodnot veličiny X. X-hodnota 0 12 3 4 četnost 1 6 6 5 2 Uvedené četnosti lze také znázornit v tzv. histogramu četností - viz obr. 1.1, kde výšky jednotlivých obdélníčků jsou rovny konkrétním četnostem a délka základny každého z obdélníčků je rovna 1. 6H i-1-1 3: 2: -1 -^H- —1' O1 ' ' i' '2' '3' '4' '5 Obrázek 1.1: K příkladu 1.2: Histogram četností veličiny X. K určení statistického (či empirického = naměřeného) rozdělení pravděpodobnosti nám zbývá poslední krok - vydělit četnosti délkou souboru (= počtem hodnot), v našem případě číslem 20. Tak dostaneme tabulku 5.7 relativních četností vzhledem k počtu měření. Tyto relativní četnosti můžeme prohlásit za naměřené (statistické) psti různých hodnot veličiny X. Tabulka 1.3: K př. 1.2: Funkce p{x) empirického rozdělení pravděpodobnosti veličiny X. X-hodnota 0 12 3 4 P(x) 0,05 0,3 0,3 0,25 0,1 Součet těchto relativních četností je roven jedné, jak bychom asi čekali. Jediný rozdíl mezi obrázky 1.1 a 1.2 je v tom, že v prvním případě se na osu y nanáší hodnoty četnosti a ve druhém případě pravděpodobnosti. Na pravděpodobnostním histogramu je zajímavé to, že součet obsahů všech obdélníků na obrázku je roven jedné. Obrázek 1.2 tedy představuje první krok k určení pro určení psti v tom prvním představeném, statistickém pojetí. Pro naprostou přesnost bychom opět museli provést MA 0008 - Teorie pravděpodobnosti 11 0.3 H i-1-1 0.25: -1 0.2: 0.15: 0.1: -1 0i65-- -1' ' ' oy ■ ■ ■ 2' ' ' ' 3' ' ' ' 4' ' ' ' s Obrázek 1.2: K př. 1.2: Histogram pravděpodobností veličiny X. limity relativních četností pro celkový počet hodů jdoucí k nekonečnu. V této chvíli se ovšem spokojíme jen s tímto přibližným, ne naprosto přesným statistickým určením psti. Pokud chceme s využitím histogramu pravděpodobnosti v našem diskrétním případě vyčíslit třeba pravděpodobnost,že při 4 hodech mincí padl líc jednou nebo dvakrát, dostáváme P{X G< 1, 2 >) = P(X = 1) + P{X = 2) = 0,3 + 0,3 = 0,6, což je rovno součtu obsahů obdélníků histogramu nad hodnotami 1 a 2 (viz obrázek): 0.3 H i-1-1 0.25: -1 0.2: 0.15: 0.1: - 0i65--1 -1 0 i 2 x 3 4 5 Nyní se věnujme popisu celého jevu teoreticky, aniž bychom jakkoli házeli korunou a počítali počty líců, tj. bez měření. Při popisu nám pomůže pst axiomatická (teoretická): Příklad 1.3 Nalezněte teoretické rozdělení veličiny X, která udává počet líců při čtyřech hodech mincí. Řešení: Podrobíme naši situaci teoretickým úvahám za předpokladu, že mince je vyvážená a vyrobená ze stejnorodého materiálu. V tabulce 1.4 jsou uvedeny všechny možné výsledky čtyř hodů mincí (druhý sloupec udává vždy počet líců v dané variantě): Bystrému pozorovateli asi neušlo, že všech možných výsledků je 16. A protože líc padá s pravděpodobností |, každý z těchto 16 výsledků je stejně pravděpodobný. A proto můžeme z tabulky určit četnosti počtu líců (viz tabulka 1.5) 12 Katedra matematiky PedF MUNI v Brně Tabulka 1.4: K př. 1.3: přehled všech možných výsledků při čtyřech hodech mincí. výsledek počet líců výsledek počet líců LLLL 4 LRRL 2 LLLR 3 RLRL 2 LLRL 3 RRLL 2 LRLL 3 LRRR 1 RLLL 3 RLRR 1 LLRR 2 RRLR 1 LRLR 2 RRRL 1 RLLR 2 RRRR 0 Tabulka 1.5: K př. 1.3: Tabulka teoretických četností hodnot veličiny X. X-hodnota 0 12 3 4 četnost 1 4 6 4 1 Tabulka 1.6: K př. 1.3: Funkce p(x) teoretického rozdělení pravděpodobnosti veličiny X. X-hodnota 0 12 3 4 P(x) 0,0625 0,25 0,375 0,25 0,0625 a vydělením hodnotou 16 pak i relativní četnosti, které už jsou hodnotami hledané teoretické pravděpodobnostní funkce pix) (viz tabulka 1.6). Příslušný histogram pravděpodobnosti je znázorněn na obrázku 1.3. K teoretickému rozdělení pravděpodobnosti v příkladu 1.3 lze jednoduše sestrojit teoretické rozdělení četnosti, a dokonce si můžeme vybrat, kolikrát se má experiment „prakticky" provádět. Například pro 128 opakování experimentu čtyř hodů mincí má teoretické rozdělení četnosti stejný tvar jako pravděpodobnostní histogram 1.3, jen na osu y vynášíme hodnoty reprezentující četnost cii) (obrázek zde už není uveden, od 1.3 se liší jen měřítkem svislé osy): MA 0008 - Teorie pravděpodobnosti 13 0.35-0.3-0.25-0.2-0.15-0.1- 0.05- -1' 0 ' ' i' 2' '3' 4' 5 Obrázek 1.3: K př. 1.3: Histogram pravděpodobnosti teoretického rozdělení veličiny X. c(0) = p{0) 128 = 0,0625 • 128 = 8 c(l) = P(l) 128 = 0,25 • 128 = 32 c(2) = P(2) 128 = 0,375 • 128 = = 48 c(3) = P(3) 128 = 0,25 • 128 = 32 c(4) = P(4) 128 = 0,0625 • 128 = 8 Čili kdybychom učinili 128 pokusů, z nichž jeden sestává ze čtyř hodů mincí, náš nej lepší teoretický odhad je ten, že v 8 pokusech by nepadl žádný líc, ve 32 pokusech jeden líc, atd. Teoretické rozdělení pravděpodobnosti je jakési očekávané rozdělení, které nastane za jistých předpokladů. Například při pokusu 4 hodů mincí těmito předpoklady jsou: • Mince je vyrobena tak, že rub a líc padá se stejnou pravděpodobností. • Mincí je házeno „normálně", ne nějakým divným stylem, který by zvýhodňoval buď rub, nebo líc. • Každý účastník pokusu pravdivě nahlásí své výsledky. Rozdělení získané empiricky v příkladu 1.2 „zhruba" odpovídá teoretickému rozdělení z příkladu 1.3. Zdá se tedy rozumné uzavřít, že se světem je všechno v pořádku: mince je pravděpodobně dobře vyvážená, lidé jí hážou dobrým způsobem a nahlašují výsledky poctivě. Pokud by data z příkladu 1.2 vedla na empirické rozdělení pravděpodobnosti uvedené na následujícím obrázku, bylo by patrné, že tři nebo čtyři líce padaly ve čtyřech hodech mnohem častěji, než jsme očekávali, na úkor výsledků 0 líců, 1 líc, 2 líce. To by zpochybnilo některý z našich předpokladů. Uzavřeli bychom, že buď je mince nějak divně vyvážená, nebo lidé jí házejí divným stylem: 14 Katedra matematiky PedF MUNI v Brně 0.4 0.3 0.2 0.1 -i' O1 ' ' i' 2' '3' 4' '5 1.2 Shrnutí Při popisu náhodnosti jevů, které se mohou odehrát, vycházíme ze dvou možných popisů: statistická pst vlastně popisuje budoucí náhodnost na základě minulého měření - i když není stoprocentně přesná, je založena na pozorování, měření dané veličiny, a tedy se snaží předpovědět chování veličiny podle toho, jak se (za analogických vnějších podmínek experimentu) chovala dosud. Příklad: pst toho, že na kostce padne šestka, stanovíme na základě toho, že danou kostkou hodíme dostatečněkrát a sledujeme výsledky hodu. Naproti tomu, axiomatická definice psti se snaží podpořit popis náhodnosti který je teoretický - nevychází z měření, ale z teoretických předpokladů o tom, jak se bude veličina, kterou měříme, při zopakování analogických vnějších podmínek experimentu, chovat. Tyto teoretické předpoklady jsou sestrojeny na základě toho, že při měření veličiny zajistíme takové podmínky, ze kterých dané teoreticky spočtené psti vychází. Porovnání obou pojetí je vidět na příkladech 1.2 a 1.3. Na obrázku 1.2 vidíme histogram psti získaných měřením = empiricky = statisticky, na obrázku 1.3 histogram psti získaných pouze teoretickými úvahami. Obě pojetí se při popisu náhodnosti používají: někdy máme k dispozici měření konkrétních hodnot nebo je můžeme snadno provést, jindy měření nemáme možnost zjistit a musíme se omezit na odhad dílčích psti na základě předpokládaného charakteru a podmínek dané situace. 1.3 Otázky k opakování U následujících výroků rozhodněte, zda se jedná o výrok pravdivý či nepravdivý. Otázka 1.1 Pravděpodobnost se zabývá otázkou: pokud vycházíme z jistého stavu světa, jaké důsledky budou následovat? Otázka 1.2 Empirické rozdělení pravděpodobnosti je rozdělení, které získáme z naměřených dat. Otázka 1.3 Empirické pravděpodobnosti jsou vlastně relativní četnosti. Otázka 1.4 Třetí axiom psti je řečen jen pro sjednocení nekonečně mnoha jevů, nelze ho formulovat pro konečně mnoho disjunktních jevů. MA 0008 - Teorie pravděpodobnosti 15 Otázka 1.5 Pst opačného jevu A k jevu A vypočteme, když P (A) vynásobíme jednou polovinou. Otázka 1.6 Prvky jevového pole A jsou všechny možné podmnožiny A množiny íl, které existují. Otázka 1.7 Pro každé dva náhodné jevy platí: P(A U B) = P(A) + P(B). Odpovědi na otázky viz 13.1. 16 Katedra matematiky PedF MUNI v Brně 2 Čtyři různé modely popisu pravděpodobnosti Následující čtyři modely pravděpodobnosti se liší svou použitelností při popisu náhodnosti. Vždy záleží na vlastnostech množiny íl všech možných elementárních výsledků měření, které mohou nastat. 2.1 Klasická pravděpodobnost Klasickou pst můžeme užít v následujících podmínkách, a užíváme ji takto: • íl má konečně mnoho možných elementárních výsledků, • všechny elementární výsledky mají stejnou možnost nastat. • Pak lze počítat pst náhodného jevu A G A podle vzorce P (A) = j^j (podíl počtu prvků obou množin) Příklad 2.1 Dvakrát hodíme hrací kostkou - jaká je pst, že součet hodnot obou hodů je roven 5 ? Řešení: Množina všech elementárních výsledků na dvou hodech (záleží na pořadí, ve kterém hodu co padlo) je Í2 = {[1;1],[1;2],[1;3],...,[6; 5], [6; 6]}, náhodný jev A, na který se zaměřujeme, je množina A = {[1;4],[4;1],[2;3],[3;2]}, a tedy P(^) = ± = I = 0,1111. 3b 9 Příklad 2.2 Z karet na mariáš (32 karet) vybereme náhodně po zamíchání čtyři karty. Jaká je pst, že aspoň jedna z nich bude eso? Řešení: V množině íl budou elementárními výsledky všechny možné čtveřice karet (ve kterých nezáleží na pořadí, ale jen na tom, jaké karty jsou v té skupině čtyř vytažených). Náhodný jev A, na který se chceme zaměřit, obsahuje všechny čtveřice, ve kterých je právě jedno eso, právě dvě esa, právě tři esa, nebo čtyři esa. Najít celkový počet prvků množiny A znamená najít počty prvků ve všech čtyřech právě popsaných navzájem se vylučujících případech a sečíst je. Vnímavý student, který absolvoval předmět Diskrétní matematika, už nyní ví a píše výsledek, protože klasická pst převede otázku psti na otázku počtu prvků: P(A) = J4Í = ^ ' ^ + ^ ' il) + ^ ' ^ + 1 = 0,4305895 = 0,4306. M (4) Při výpočtu psti jevu se někdy ukazuje výhodné zapřemýšlet nad tím, zda existuje rychlejší cesta k cíli - zdá se, že nyní by existovala cesta vyčíslení opačného jevu a odečtení jeho psti od hodnoty 1, viz věta 1.2. Opačný jev A znamená, že ze čtyř náhodně vytažených karet nebude žádné eso. Pak P{A) = 1 - P{A) = 1 - yé( = 0,4306. v 4) MA 0008 - Teorie pravděpodobnosti 17 2.2 Geometrická pravděpodobnost Geometrickou pst můžeme užít v následujících situacích, a užíváme ji takto: • íl má nekonečně mnoho možných elementárních výsledků, dokonce tak velkou, že je oblastí kladné míry (úsečkou kladné délky, plochou kladného obsahu, tělesem kladného objemu). • všechny elementární výsledky mají stejnou možnost nastat. • Pak lze počítat pst náhodného jevu A G A podle vzorce P (A) = (podíl měr obou množin, tj. podle charakteru množin podíl délek, obsahů nebo objemů). Příklad 2.3 Tramvaj jezdí v pracovní době každých 7 minut. Student, který se nedívá na hodinky a přichází na zastávku tramvaje náhodně, bude určitou dobu čekat na příjezd další tramvaje. Jaká je pst, že bude čekat 4 a více minut? Řešení: Nelze počítat podle klasického modelu, protože množiny íž, A jsou obě nekonečné; ale všimněme si, že při náhodném příchodu studenta na zastávku jsou všechny doby čekání stejně pravděpodobné, tj. splňují předpoklady geometrického modelu psti. Množina všech možných výsledků je totiž íl = (0; 7), náhodný jev A na který se chceme zaměřit, je A = (4; 7) ... doba čekání na nejbližší tramvaj, která je dlouhá 4 a více minut. Díky splněným oběma předpokladům geometrického modelu psti můžeme využít délky obou množin: P(A) = = 1 = 0,4285714 = 0,4286. Příklad 2.4 Honza a Marek se domluvili, že se setkají na jistém místě mezi osmou a devátou hodinou, kam každý z nich v tu dobu náhodně přijde. Ale řekli si, že ten, kdo přijde první, bude na toho druhého čekat jen 15 minut, a pak odejde. Jaká je pravděpodobnost, že se setkají? Řešení: Označme 8 + x .. . čas příchodu Honzy (v hodinách); 8 + y ... čas příchodu Marka. Víme, že oba přijdou určitě do devíti hodin, tedy 0. Všechny tyto body modelující možný výsledek příchodů vytvářejí tedy čtverec v rovině. Tento čtverec íl = {(x,y) : 0 < x < 1, 0 < y < 1} je množinou všech možných výsledků dané situace (viz obrázek 2.4). Počet všech možných případů je sice nekonečný, ale jsme schopni spočítat obsah čtverce: S(íl) = 1-1 = 1. Označme dále 18 Katedra matematiky PedF MUNI v Brně Obrázek 2.4: K př. 2.4: Množina všech možných výsledku. A... Honza a Marek se setkají Příznivým případům jevu A odpovídají ty příchody (x, y) obou studentů, ve kterých se x od y liší nanejvýš o 15 minut, což je asi j hodiny. Pro tyto „příznivé" body čtverce Cl tedy musí platit nerovnost , 1 \y — x\ < -. \y i - 4 Vyřešme tuto nerovnost. Při odstraňování absolutní hodnoty musíme rozlišit dvě situace: • Pro y — x > 0 se znaménka nemění, tj y — x < j, odtud y < x + j. • Pro y — x < 0 musíme při odstraňování absolutní hodnoty na levé straně nerovnosti změnit znaménka: —y + x < j, odtud y > x — j. Body splňující obě z uvedených nerovností získáme jako průnik polorovin každou z nerovností určených, tj. 2.5: Jev A lze tedy vyjádřit jako množinu bodů v rovině: A = {(x,y) : 0 < x <1,0 x - ^}. Příznivých případů je také nekonečně mnoho, ale jsme schopni vypočítat míru této nekonečnosti, konkrétně řečeno obsah množiny A: nejjednodušeji S (A) vypočteme z grafického znázornění na obrázku 2.5, když budeme brát v úvahu rozdělení čtverce íl na šestnáct menších čtverečků o straně délky |. Je vidět, že množina A zabírá plochu sedmi z těchto čtverečků, a protože S (Cl) = 1, máme S (A) = ^ • S(Tl) = ^. MA 0008 - Teorie pravděpodobnosti 19 0.2 0.4 x 0.6 0.1 Obrázek 2.5: K př. 2.4: Množina všech příznivých výsledků. Pravděpodobnost jevu A teď určíme jako podíl míry množiny příznivých případů a míry množiny všech možných případů: S(A) 7 2.3 Diskrétní pravděpodobnost Diskrétní pst můžeme užít v následujících situacích, a užíváme ji takto: • íl má konečně mnoho možných elementárních výsledků, nebo je jich stejně najko přirozených čísel (říkáme, že íl je množina nejvýše spočetně nekonečná). • všechny elementární výsledky mají obecně RŮZNOU možnost nastat (elementární výsledek uj1 nastane s pstí piuji)). • Pak lze počítat pst náhodného jevu A G A podle vzorce P(A) = ^ PÍ"*) V případě diskrétní psti tři axiomy z předchozí kapitoly přecházejí v následující axiomy pro pstní funkci p: ĚíjP(wi) — 1 (axiom normovanosti), 2. piuJi) > 0 pro každý elementární výsledek uj1 E íl (axiom nezápornosti), €Ap(uji) (axiom součtu pstí neslučitelných jevů, protože dílčí výsledky uj1 jsou navzájem neslučitelné). 20 Katedra matematiky PedF MUNI v Brně Příklad 2.5 Hážeme hrací kostkou tak dlouho, až poprvé padne šestka; pak skončíme s házením. uj1 je jakákoli přípustná sekvence hodů za těchto podmínek. Určete pst, že na první šestku budeme potřebovat více než tři hody. Řešení: Nejnižší možný počet hodů je jeden, kdy právě tímto pokusem hned padne šestka: P(6) = - = 0,1667. 6 Dále může nastat sekvence N6, tj. prvním hodem šestka nepadne a druhým ano - a to s pstí Pak se také může stát, že nastane sekvence NN6, a sice s pravděpodobností P(NN6) = \.\.\ = 0,1157. 6 6 6 Teoreticky je možné, že nastane pro přirozené číslo k nastane sekvence N N... N6 s pstí P(NN...N6) 5 5 5 1 /5\fe 1 66 66 \ 6 / 6 k-krát N——^~-' k-krat Je jasně vidět, že jednotlivé dílčí sekvence nastávají s různými pstmi. Takových sekvencí je vlastně nekonečně mnoho a víme, že musí splňovat vztah oo ^P(NNy. N6) = 1 k=0 k-krát (axiom normovanosti). Funkce, jejíž hodnoty jsme právě určili, se nazývá pravděpodobnostní funkce. V kapitole 8 si o tomto příkladu řekneme ještě něco více. Nyní se vraťme k zadání příkladu a spočteme pst, že pro první hozenou šestku potřebujeme více než tři hody: P (A) = p(NNN6) + p(NNNN6) + p(NNNNN6) + ■■■ . Zdá se, že součet nekonečné řady by mohl dát práci, ovšem využijeme opět věty 1.2 a odečteme hledanou pst od opačného jevu: _ 1 5 25 P(A) = 1 - P(A) = 1 - (p(6) + p(N6) + p(NN6)) = 1 -(- + — + —) = 0,5787. 6 ób 216 2.4 Spojitá pravděpodobnost Spojitou pst můžeme užít v následujících situacích, a užíváme ji takto: • íž má nespočetně nekonečně mnoho možných elementárních výsledků, a tedy se jedná o interval reálných čísel nebo o R+, nebo R. MA 0008 - Teorie pravděpodobnosti 21 • Tyto elementární výsledky mají obecně RŮZNOU možnost nastat. • Pak pro pst jevu (a; b) C ŕž nebo (a; b) C ŕž nebo (a; 6) C ŕž nebo (a; 6) C ŕž platí P(a; b) = P({a; b) = P((a; b)) = P {a; b)) = kde f(x) je nezáporná po částech spojitá funkce. V případě spojité psti tři axiomy z předchozí kapitoly přecházejí v následující axiomy pro hustotu psti f(x): 1. fix)dx = 1 (axiom normovanosti), 2. Va, b £ R : f(x)dx > 0 (axiom nezápornosti), 3. P(a;b) = P({a;b) = P((a;b)) = P{a;b)) = f(x)dx (axiom součtu neslučitelných jevů má formu integrálu). Příklad 2.6 mobily jisté značky a typu mají životnost patnáct let. Jaká je pst, že náhodně koupený mobil tohoto typu vydrží více než deset let? Řešení: Jak zdůvodníme později, lze odvodit, že za hustotu psti, která dobře modeluje životnost, lze vzít funkci, která je pro záporná x rovna nule, a pro kladná x je fix) klesající exponenciální funkcí, ve které vystupuje číslo 15 z důvodu průměrné životnosti. Tedy za funkci fix) lze vzít funkci . f 0 ... pro x < 0; t(X) = < 1 -x JK ' \ ^ • eTš .. . pro x > 0 A pokud máme počítat pravděpodobnost, že životnost je větší než deset let (časová jednotka je tedy jeden rok), integrujeme na intervalu od 10 do oo: / 1 —x —10 P((10;oo))=/ — • e~dx = e~ = 0,5134. j iq 15 2.5 Shrnutí Pokud výsledky jistého pokusu, hry nebo experimentu mohou nastat se stejnou pravděpodobností, používáme k jeho popisu klasickou (2.1) nebo geometrickou (2.2) pravděpodobnost. Ovšem pokud některé z elementárních výsledků nastávají častěji než jiné, situaci znázorníme pomocí diskrétní (2.3) nebo spojité (2.4) pravděpodobnosti. Z modelů je vidět, že (2.1) je speciálním případem modelu (2.3) a že model (2.2) je speciálním případem modelu (2.4). Tedy dvěma hlavními modely psti je distrétní model (2.3) a spojitý model (2.4). Když studujeme jistou veličinu, jako první věc bychom si měli uvědomit, zda se jedná o veličinu diskrétní (ta nabývá hodnot z konečné (např. {1,2,3,4,5,6}) nebo spočetné 22 Katedra matematiky PedF MUNI v Brně (např. N, Z) množiny íl) nebo veličinu spojitou (ta nabývá hodnot z reálného intervalu íl =< a, b > nebo z celé množiny reálných čísel). Popis těchto dvou typů veličin se totiž v některých věcech liší. A používané vzorce nebo způsob popisu se neustále odvíjí od jednoho z těchto dvou typů. V následujících kapitolách (a i v úlohách praxe) se potřebuje občas určit pravděpodobnost, že náhodná veličina nabývá hodnot z jistého intervalu (a, b). S ohledem na typ veličiny budeme užívat vzorec P{X G (a, 6))) = P {a < X < b) ^2a 4 už Vennovy množiny selhávají, protože už nedokážou postihnout obecnou polohu čtyř a více překrývajících se množin (u čtyř množin bychom jejich vzájemný vztah museli znázornit pomocí čtyř koulí z nichž každá má střed v jiném vrcholu čtyřstěnu, a všechny mají poloměr o něco větší, než je polovina délky hrany čtyřstěnu; už to je náročné, tj. důkaz bychom vedli spíše pomocí charakteristického obecného prvku x). Ale logika důkazu je celkem jasná: při sečtení pstí jednotlivých množin jsme průniky každých dvou započítali víckrát, takže jejich psti musíme na druhém řádku pravé strany odečíst - ovšem průniky každých tří množin jsme z psti odečetli tolikrát, že tam zase vůbec nejsou započítány, takže jejich psti musíme na třetím řádku pravé strany zase přičíst, atd. až u průniku všech n množin vlastně nevíme, zda jej máme přičíst nebo odečíst, ale to lze snadno zjistit pomocí (—l)ra_1, protože tento člen ctí střídání sčítání a odčítání pstí na každém dalším řádku pravé strany. Příklad 3.2 Elektrikář vystiskl štítky na zvonky bytového domu se čtyřmi byty a zapojuje je náhodně, protože jeho parťák onemocněl a nepřinesl seznam (a nebere telefon). Jaká je pst, že a) Všechny zvonky zapojí ke správným bytům? 5Nebudeme se nyní zabývat výpočtem limity hodnot v tabulce v situaci, kdy počet zákazníků nebude 4000, ale bude se blížit k nekonečnu. Taková data nemáme totiž k dispozici. Namísto toho se spokojíme s tím, že pst výsledku bude určená relativní četností, kterou bychom mohli pro rostoucí počet měření-zákazníků neustále zpřesňovat. Také je pravdou, že vzorek čtyř tisíc zákazníků už o klientele firmy něco vypovídá, tj. má smyl zhruba pst odhadnout pomocí relativní četnosti. MA 0008 - Teorie pravděpodobnosti 25 b) Aspoň jeden zvonek zapojí správně? c) Žádný zvonek nezapojí správně? Řešení: je asi nabíledni, že jedna z otázek a), b), c) bude řešena pomocí právě uvedené věty 3.2, a ty ostatní dvě otázky nějak jinak. Kdo se v tom má vyznat? Začneme tím, že si označíme náhodné jevy, které by možná mohly vést k výsledku v každé otázce - v tom je matematika právě pomocná, že dobré označení či popis situace už je prvním krokem k řešení. Ai ... zvonek k bytu č. 1 bude zapojen správně; A2 ... zvonek k bytu č. 2 bude zapojen správně; A% ... zvonek k bytu č. 3 bude zapojen správně; A4 ... zvonek k bytu č. 4 bude zapojen správně. No a nyní vyjádříme slovní popis jevů a,b,c pomocí náhodných jevů A±, A2, A3, A4, snad to bude možné (aniž jsme si tedy vyjádřili množinu íž všech možných výsledků -brzy se k ní dostaneme): ad a) Ai P1A2 H A3 n A4 ... každý ze zvonků bude zapojen správně, tj. dílčí jevy nastanou současně. ad b) „Aspoň jeden zvonek bude zpojen ke správnému bytu" lze ekvivalentně vyjádřit výrokem „k 1. bytu bude zvonek zapojen správně NEBO ke 2. bytu bude zvonek zapojen správně NEBO ke třetímu bytu bude zvonek zapojen správně NEBO ke 4. bytu bude zvonek zapojen správně", což je právě A\ U A2 U A3 U A4. ad c) Po krátkém přemýšlení (ať logickém,nebo množinovém) lze dospět k tomu, že jev c) je opačným jevem k jevu b), neboli jev c) lze vyjádřit jako Ax U A2 U A3 U AA. Je tedy jasné že P(c) = 1 — P(b). Začněme výpočtem psti jevu (a): Nyní se musíme zamyslet nad tvarem množiny íž: chceme modelovat přiřazení čtyř zvonků k bytům, tj. množina všech možných výsledků by mohla obsahovat všechny možné čtveřice čísel 1, 2, 3, 4 (ale na to už jsme skoro odborníci - to se pozná, když tyto čtveřice budeme nazývat permutacemi), a přitom pokud např. 2 bude na druhém místě této čtveřice, bude to znamenat, že zvonek 2 je správně zapojen k bytu číslo 2. Nyní pst průniku vypočteme klasickým modelem, protože počet možných čtveřic je konečný a každá při náhodném zapojení má stejnou šanci nastat: P(a) = P{A-i n42n43ni4) = ^ = 0,416666 protože příznivý případ správného zapojení všech zvonků je jediný a všech možných zapojení neboli permutací čtyřprvkové množiny je 24. 26 Katedra matematiky PedF MUNI v Brně Dostáváme se k výpočtu (b), kde využijeme větu 3.2 pro n = 4: P(A1 UA2UA3U AA = P(^) + P(A2) + P(A3) + P(AA - -P(A1 n A2) - p(A1 n A3) - P(A1 n AA - P(A2 n A3) - P(A2 n AA - P(A3 n AA + +P{A1 n^n A3) + P(Aľ nA2n AA + p(Ai n^n AA + P(A2 n^n AA --P(A1nA2ílA3ílA4). Návratem k permutacím a jejich počtům dostaneme výsledek ^(3! + 3! + 3! + 3! - 2! - 2! - 2! - 2! - 2! - 2! + 1 + 1 + 1 + 1 - 1) = 0,625. No a poslední výsledek c) dostaneme už přes pst opačného jevu: p(c) = 1 — 0,625 = 0,375. Čili hlavním zájmem našich úvah bylo vypočítat část (b) použitím věty o součtu -doporučuji si pamatovat, že ve větě o součtu se počítá pst sjednocení6, i když se v ní vyskytují průniky jevů! Ovšem sjednocení je v této větě jejím hlavním zájmem. V další části tohoto oddílu se skutečně zaměříme více na pst průniku jevů - takové psti jsme schopni počítat např. pomocí klasického modelu psti, ale řekneme si výpočtům psti průniku ještě několik důležitých věcí, z nichž nej důležitější je rozdíl při výpočtu psti průniku jevů podmíněných a jevů nezávislých. Tento rozdíl bude vysvětlen na následujících dvou příkladech. Příklad 3.3 Hážeme třikrát hrací kostkou. Označme náhodné jevy A ... při prvním hodu padne jednička; B ... při druhém hodu padne dvojka; C ... při třetím hodu padne trojka; Jaká je pst náhodného jevu A n B n C ? Odpověď na tuto otázku získáme podobně, jako získáme počet konfigurací vynásobením dílčích konfigurací při kombinatorickém principu součinu - vynásobíme dílčí psti. Jinými slovy, P (A n B n C) = P (A) ■ P (B) ■ P{C) = -■-■- = 0,004629. 6 6 6 Situace při výpočtu psti průniku nebude ovšem takto jednoduchá vždy: v příkladu 3.3 totiž dílčí jevy jsou na sobě navzájem náhodně nezávislé, neboli pst padnutí dvojky při druhém hodu není ovlivněna tím, jaký byl výsledek prvního hodu, a pst padnutí trojky 6Pokud bychom například přehodili všechny symboly sjednocení za symboly průniku a symboly průniku za symboly sjednocení, za prvé dostaneme nesmysl, a za druhé u zkoušky bychom za tento nesmysl nedostali žádné body. MA 0008 - Teorie pravděpodobnosti 27 při třetím hodu, pokud kostkou hážeme nestranně, stále stejným stylem, nezávisí na tom, co na kostce padlo při hodu prvním a hodu druhém. Tato skutečnost, že pst průniku je rovna součinu dílčích pstí, nám poslouží jako definice nezávislých jevů7: Definice 3.1 • Dva náhodné jevy A\,Ai E A se nazývají stochasticky nezávislé (náhodně nezávislé), když P(A± n A%) = P(A±) ■ P^Az). • n náhodných jevů Ai, A2, ■ ■ ■ , An E A se nazývají stochasticky nezávislé (= náhodně nezávislé), když (i) P(Ai n Aj) = P{Ai) ■ P{Aj) pro 1 < 1 < j < n, (u) P(A, n Aj n Ak) = P(Ai) ■ P(Aj) ■ P(Ak) pro 1 < i < j < k < n, (iii) ... (iv) P(A1 nA2r)A3n---r)An) = p {AJ ■ P(A2) ■ p(A3).....P(An) (tedy ověřujeme 2n — n — 1 vztahů). Třeba v příkladu 3.3 jsou jevy A, B nezávislé, protože platí P (A n B) = P (Ä) ■ P {B). A také jsou jevy A, B, C (stochasticky) nezávislé, protože platí P (A íl B) = P (Ä) ■ P {B), P(A n C) = P (A) ■ P(C), P (B n C) = P(B) ■ P(C), P (A D B D C) = P (A) ■ P {B) ■ P (C) (nezávislost více než dvou jevů je třeba ověřit platností rovností, kde zkoumáme průniky jakýchkoli množin, které lze z daných množin sestrojit). Čtenář by si mohl možná všimnout, že pst průniku A n B n C v příkladu 3.3 je kladná (náhodný jev může nastat), a přesto je tato trojice jevů stochasticky nezávislá. Pojem nezávislosti jevů přímo tedy nesouvisí s tím, zda průniky utvářené z těchto jevů jsou neprázdné nebo prázdné8, ale spíše jakým způsobem se pravděpodobnost těchto průniků vypočte. Tedy i při neprázdných průnicích jevů jsou tyto dílčí jevy někdy závislé, někdy nezávislé - závislost jevů při neprázdném průniku uvidíme v příkladu následujícím. Příklad 3.4 Ze sedmi telefonů daného typu na skladu prodejny jsou tři nekvalitní a čtyři kvalitní. Pro zákazníka prodejce náhodně z daných sedmi vybírá tři telefony, které on chce koupit pro svou rodinu. Označme náhodné jevy K\ ... první náhodně vybraný telefon je kvalitní; K2 ... druhý náhodně vybraný telefon je kvalitní; N% ... třetí náhodně vybraný telefon je NEkvalitní. Určete pst toho, že nastanou tyto tři náhodné jevy současně při náhodném výběru tří mobilních telefonů. 7Viz např. Budíková, Králová, Martoš, 2009, str. 59. 8Náhodné jevy, jejichž průnik je prázdný, se nazývají neslučitelné, nikoli nezávislé - prosím tyto dva pojmy nezaměňujte. Ovšem vztah logické implikace mezi těmito dvěma pojmy skutečně existuje: pokud například Aíl B (1 C = 9, a, přitom P (A) > 0, P(B) > 0, P(C) > 0, tak jsou náhodné jevy A, B, C stochasticky závislé, protože P (A (1 B íl C]i = P(0) = 0, ale P (A) ■ P(B) ■ P(C) > 0. Tedy jestliže neslučitelné jevy s kladnými pstmi mají prázdný průnik, pak jsou stochasticky závislé. 28 Katedra matematiky PedF MUNI v Brně Podobně budeme počítat pst průniku náhodných jevů, ale nyní podle trochu jiného vzorce: P{KX nK2n N3) = P{Ki) ■ P{K2\Ki) ■ P{NZ\K± P K2). Nyní totiž pst výběru druhého kvalitního telefonu bude záviset na tom, jaký byl vybrán první telefon. Označení svislé čáry v zápise P(K2\Ki) vyjadřuje jakousi navazující pst -uvažujeme situaci Ki, na kterou bude navazovat situace K2 v tom smyslu, že i když K\ je náhodný jev, který obecně nastat nemusí, v tomto NAVAZOVACÍM MODU budeme předpokládat, že nastal. P[K\) = |, a nyní se ptáme, jaká je pst, že i druhý vybraný mobil bude kvalitní, pokud ten první byl kvalitní: vypočteme P(K2\Ki) = | (při prvním výběru byl odebrán kvalitní, tj. zbývají 3 příznivé případy, všech možných je už jen 6). Definice 3.2 P(K2\Ki) označuje pst jevu K2 vázanou podmínkou, že nastal rovněž jev K\ ... podmíněná pst jevu K2 za podmínky, že nastal také jev K\. V našem příkladu P{K2) má jinou hodnotu než P(K2\Ki) = | = 0,5, neboť K2 je situace, kdy druhý vybraný mobil je kvalitní, aniž je řečeno něco o prvním vybraném. Při prvním výběru mohou nastat dvě situace, které obě musíme uvažovat, protože obě hrají roli pro výběr druhého kvalitního. Tedy P(K2) = P{Ki) ■ P{K2\Ki) + P{K[) ■ P{K2\K[) = | - | + | ■ | = 0,57143. 7 b 7 b Tedy vidíme, že P(K2), bez ohledu na to, co se stalo-stane při prvním výběru, je větší než P(K2\Ki). Jedná se tedy o dva různé koncepty a tomu P(K2\Ki) se říká podmíněná pst. Dokončeme výpočet našeho příkladu 3.4: PÍK,) ■ PiK.lK,) ■ PiNslKi n K2) = \ -\ -\ = 0,17143. 7 6 5 Vzorec i označení právě vysvětlené a použité ještě zapišme do věty: Věta 3.3 Pokud P(Ai n A2 n • • • n An_i) ^ 0, tak pro průnik náhodných jevů A\, A2, až An platí: P{AľDA2n---nAn) = P{Aľ) ■ P{A2\A1)■ P(A3|^iPA2).....P{An\A1nA2P• • • PA^). Pro n = 2 přechází věta do vzorce P(Ai P A2) = P(Ai) ■ P(^2|^4i), odkud lze získat logicky ekvivalentní představu o tom, co je to podmíněná pst jevu A2 za podmínky A\. tj. podíl psti průniku ^P^i ku psti jevu A\, který předpokládáme, že nastal. Podmíněné psti v příkladu 3.4 jsme vypočetli pomocí klasického modelu přímo, ale v některých jiných příkladech, kde si nebudeme tak jisti, se nám vzorec 3.1 může hodit, protože platí MA 0008 - Teorie pravděpodobnosti 29 i v situacích, kdy se nejedná o model klasické psti. Abychom nyní uzavřeli diskusi nad pstí průniku, vidíme, že existují dva různé vzorce: jednak vzorec z příkladu 3.3 pro nezávislé jevy (výpočet pomocí součinu dílčích pstí), z příkladu 3.4 pro jevy závislé (výpočet pomocí součinu, ve kterém „nabalujeme" u každého dalšího jevu podmínku, že nastaly-nastanou současně i všechny jevy dosud uvažované). Porovnáním těchto dvou vzorců je vidět, například na dvou jevech A±, A2, že pokud tyto dva náhodné jevy jsou nezávislé, platí P(A2|-<4i) = P(^42), tj. podmínka Ai nezávislá na jevu A2 neovlivní pst jevu A2 - ta je pořád stejná, ať už A\ nastane nebo ne. Závěrem ještě dva příklady na procvičení řečeného v této kapitole. Příklad 3.5 Házíme čtyřstěnem, přičemž PADNE ta strana, na kterou celý čtyřstěn dopadne jako na základnu. Přitom stěna A: obarvena červeně; stěna B: obarvena zeleně; stěna C: obarvena modře; stěna D: rozdělena na tři části trojúhelníky, jeden z nich obarven červeně, druhý zeleně, třetí modře. Označme náhodné jevy R ... padne alespoň část stěny červené (R = {A,D}); G ... padne alespoň část stěny zelené (G = {B,D}); B ... padne alespoň část stěny modré (B = {C, D}). Jsou náhodné jevy R, G, B stochasticky nezávislé? (íl = {A, B,C, D}) Řešení: Musíme ověřit platnost čtyř rovností: P(R nG) = P(R) ■ P(G) : \ = \-\, P(RnB) = P(R)-P(B): \ = \\ P(G n B) = P(G) ■ P{B) : \ = \\ P(R n G íl fi) = P(R) ■ P(G) ■ P(B) : \ + \\ = \ Z rovností a nerovnosti plyne: každé dva z jevů R, G, B jsou stochasticky nezávislé, kdežto všechny tři současně jsou stochasticky závislé. Tj. závislost tří jevů je trochu tajemnější a může nastat, i když každá dvojice z daných tří je nezávislá. 30 Katedra matematiky PedF MUNI v Brně Příklad 3.6 Ze sady 100 výrobku je 10 zmetků. Při kontrole jakosti vybereme náhodně tři výrobky z této sady. Určete pst, že a) první dva vybrané výrobky budou kvalitní a třetí vybraný bude zmetek (K\ P K2 P K%); b) ze tří vybraných budou dva kvalitní a jeden zmetek (nezáleží na pořadí, ale vypočtěte tak, že všechna možná příznivá pořadí projdete); c) totéž jako (b), ale počítejte jiným způsobem - tak nějak najednou, když nezáleží na pořadí; d) druhý výrobek ze tří vybíraných bude kvalitní. Řešení: Použijeme v tomto příkladu vše, co bylo v tomto oddílu řečeno: Ad a) P(Kinif2n^) = fi • 1 • i = 0,0826. Ad b) Pokud nezáleží na pořadí zmetku ze tří kontrolovaných, mohou nastat tři situace, které jedna druhou vylučuje, tj. jejich psti se podle axiomu (P3) sečtou: P[KX n^n Ä3) + P[KX nK~2n k3) + p{k[ nK2n k3) = 90 89 10 90 10 89 10 90 89 =-----+-----+-----= 0,2478. 100 99 98 100 99 98 100 99 98 Ad c) užijeme klasické psti, tedy podílu příznivých případů úkolu b) ku počtu všech možných: P = = 0,2478. Ad d) Tuto pst jsme už počítali v příkladu 3.4, pouze s jinými hodnotami: PÍK,) = P(Kl}. P(K2\Kl} + Pm . P(K2m = °° . I + ii . I = 0,9 (výsledek je paradoxní: bez ohledu na pořadí vybíraného výrobku, pst, že vytáhneme výrobek kvalitní, je pořád stejná a rovná ^ ... pokud ji tedy nepodmíníme žádnou infor-mací-požadavkem o tom, jaká je kvalita dříve vybraných výrobků). 3.1 Shrnutí Kromě axiomu (P3), který stanovuje-popisuje pravidlo pro výpočet sjednocení disjunktních jevů, se teorie psti snaží rozšířit práci s náhodnými jevy i na jevy, které mají neprázdný průnik. Nejprve jsme se v této kapitole věnovali výpočtu psti sjednocení jevů, pro něž průniky kterýchkoli z nich mohou být neprázdné - tuto situaci popisuje věta o součtu psti 3.1 nebo spíše její rozšíření pro tři a více jevů, 3.2. Tato věta je pro konečné množiny u klasické psti vlastně jen obdobou principu inkluze a exkluze, kterým počítáme počet prvků sjednocení množin (obdobou získanou z principu inkluze a exkluze vydělením celé rovnosti počtem prvků množiny íž). MA 0008 - Teorie pravděpodobnosti 31 Už v těchto větách o součtu se vyskytuje výpočet psti průniku náhodných jevů. Tuto pst průniku lze počítat různými způsoby, například vyjádřit i pst průniku jevů podle vzorce pro klasickou pst, pokud je to možné, a kombinatoricky vyjádřit počet možných konfigurací příznivých a vydělit počtem konfigurací všech. Ovšem často výpočet průniku jevů nelze určit přímo, ale je možné vyjádřit ji jako součin pstí jistých dílčích jevů - buď přímo součin pstí jevů, jejichž průnik počítáme, jak je tomu v příkladu 3.3, nebo jako součin pstí jevů podmíněných určitými situacemi, jako je tomu v příkladě 3.4. Obecně tedy pro pst průniku lze užít vzorec věty 3.3, ten můžeme použít vždy. Vzorec z příkladu 3.3 lze užít jen pro průnik jevů stochasticky nezávislých. Jak je vidět v definici —refnezav-jevy, stochastickou nezávislost definujeme právě pomocí vlastnosti, že pst průniku jakéhokoli počtu z těchto jevů je roven součinu pstí těchto dílčích jevů. U jevů stochasticky (= náhodně) závislých lze definovat jistou podmíněnou pst pomocí vzorce 3.1, když P(Ai) ^ 0 pro jev A±, o kterém mluvíme jako o podmínce a jehož nastoupení-výskyt je předpokládán při výpočtu P(^42|^i)- Respektive tuto podmíněnou pst lze definovat u jevů jakýchkoli, jen pro nezávislé jevy zjistíme, že nic nového nezískáme, protože pro ně P(A2\A1) = P(A2). 3.2 Otázky k opakování U následujících výroků rozhodněte, zda se jedná o výrok pravdivý či nepravdivý. Otázka 3.1 Podmíněná pst vyjadřuje pst náhodného jevu za předpokladu, že je splněna jistá podmínka. Otázka 3.2 Podmíněná pst P(B\A) nemůže být rovna nule. Otázka 3.3 Pst, že žádný ze čtyř bytů nebude při náhodném zapojení zvonků připojen ke správnému jménu, lze vyjádřit jako P(A± P A2 P A% P A4). Otázka 3.4 Pro stochasticky nezávislé jevy A, B, pro které P (A) > 0, P(B) > 0, platí P{B) = P{B\A). Otázka 3.5 Vzorec P(A1) ■ P(A2) ■ P{AZ) = P{AX) ■ P(A2\A1) ■ P(A3\A1 P A2) platí jen někdy. Otázka 3.6 Vzorec P(A1 nA2n A3) = P{A{) ■ P{A2) • P{A3) neplatí vždy. Otázka 3.7 Vždy platí P(A2\Ai) = P^2^> protože to plyne ze vzorce P(Ai Pl A2) = P(A1)-P(A2\A1). Otázka 3.8 Jevy R, G, B mohou být stochasticky závislé, i když každé dva z nich jsou stochasticky nezávislé. Odpovědi na otázky viz 13.3. 32 Katedra matematiky PedF MUNI v Brně 4 Bernoulliovy pravděpodobnosti, úplná pravděpodobnost, Bayesův vzorec 4.1 Bernoulliovy pravděpodobnosti Uvažujme experiment takové povahy že mohou nastat jen dva různé výsledky které se navzájem vylučují (nemůže k nim dojít současně): „úspěch" a „neúspěch" („úspěch" nemusí znamenat nic světoborného; označuje se tímto termínem proto, že se jedná o ten ze dvou možných výsledků, na který se ve svých úvahách chceme zaměřit). Pravděpodobnost úspěchu je p, pravděpodobnost neúspěchu 1 — p. Náhodná veličina X, která udává počet výskytů úspěchu při N nezávislých opakováních experimentu, má tzv. binomické rozdělení pravděpodobnosti (s parametry N,p) a nabývá hodnot z množiny {0, 1,2,..., N} s pravděpodobností P(X = r)=^j -f-{l-p)N-T. Mluví se zde o nezávislých opakováních experimentu. Slovo „nezávislých" znamená, že výskyt úspěchu při prvním opakování experimentu nemá vliv na to, zda při druhém a dalších opakováních nastane úspěch nebo ne. Skutečnost, že veličina X má binomické rozdělení s parametry N, p, budeme označovat X ~ Bi(N,p). Podívejme se nyní na konkrétní příklady. Příklad 4.1 Hážeme čtyřikrát kostkou. Veličina X udává, kolikrát přitom padne šestka. Jaké je rozdělení pravděpodobnosti veličiny X? Řešení: Pravděpodobnost, že při jednom hodu padne šestka, je rovna p = |. Hody jsou navzájem nezávislé, tj. pokud v prvním hodu padla šestka, nemá to vliv na to, zda ve druhém hodu padne nebo ne. Tedy veličina X, která měří počet šestek při čtyřech hodech, má binomické rozdělení pravděpodobnosti s parametry N = 4, p = jL 5 5 5 5 P(X = 0) = P(ne 6) • P(ne 6) • P(ne 6) • P(ne 6) =-------= 0,482; 6 6 6 6 P(X = 1) = Pojednou padne 6, jinak něco jiného než 6) = = P(6 padne jako první, jinak ne) + P(6 padne druhá, jinak ne) + +P(6 padne jako třetí, jinak ne) + P(6 padne čtvrtá, jinak ne) = -1^55 5155 5515 5 5 5 1 _ 6666 6666 6666 6666 15 5 5 = (všechna možná pořadí výskytu jednoho úspěchu) ■ — ■-■ — ■- = 6 6 6 6 4\ 1 5 5 5 --------= 0,386; 1/6666 ' ' MA 0008 - Teorie pravděpodobnosti 33 P (X = 2) = P(dvakrát padne šestka, jinak ne) = 115 5 = (všechny možnosti výběru 2 poradí ze 4) - v y y f ; 6 6 6 6 ■ 14) = = 1 - (p(15) + p(16) + p(17) + p(18) + p(19) + p(20)) = = 1 - (0,179 + 0,13 + 0,072 + 0,028 + 0,007 + 0,001) = 0,583. 34 Katedra matematiky PedF MUNI v Brně Pokud by agentura STEN v předchozím příkladu zjistila, že „pro" bylo jen 8 lidí z 20, pak některý z teoretických předpokladů nebyl v pořádku: • vzorek dotázaných lidí nebyl náhodný (byl z antiswensonovské oblasti státu); • odpovědi nebyly nezávislé (odpovídající mezi sebou navzájem diskutovali o Swen-sonovi); • STEN pracovala dobře, ale Swenson byl příliš optimistický se svým odhadem (to je nejpravděpodobnější problém). Ukažme si ještě graficky tvar binomického rozdělení, například pomocí pravděpodobnostního histogramu. a) Pokud p = 0,5, rozdělení je vždy symetrické. Například histogram pravděpodobností binomického rozdělení pro N = 3, p = 0,5: 0.35 0.3 0.25 0.2 0.15 0.1 $.05 U" Nebo histogram pravděpodobností binomického rozdělení pro N = 6, p = 0,5: 0.3: 0.25 0.2 -j 0.15 0.1 0.05 -j m o MA 0008 - Teorie pravděpodobnosti 35 Nebo histogram pravděpodobností binomického rozdělení pro N = 10, p = 0,5: 0251 i—i 0.2: i 0.15 ^ 0.1^ 0.05: _ _ 0 ' 2 4 6 8 ' 10 b) Pro p 0,5 a malé N je rozdělení asymetrické, ale pro rostoucí N se stává více a více symetrickým. Histogram pravděpodobností binomického rozdělení pro N = 4, p = 0,1: 3.6: 3.5: 3.4: 3.3: 3.2: 0.1: -1 0 i 2 3 4 5 Histogram pravděpodobností binomického rozdělení pro N = 4, p = 0,9: 0.6: 0.5: 0.4: 0.3: 0.2: 0.1: i 1 2 3 4 5 36 Katedra matematiky PedF MUNI v Brně Histogram pravděpodobností binomického rozdělení pro N = 10, p = 0,1: O.CS o.;? 8 10 Histogram pravděpodobností binomického rozdělení pro N = 40, p = 0,1: 0.2 - 0.15 0.1- 0.05 - 2 4 6 8 10 12 4.2 Úplná pravděpodobnost Uvažujme nyní množinu íl elementárních výsledků experimentu rozloženou (rozklad množiny) na disjunktní podmnožiny Hi, H2, až Hk - viz obrázek (pro k = 7): Lze vidět z obrázku, že množinu A lze rozložit na sjednocení navzájem disjunktních jevů Hz H A, h4 n A, H5 íl A, hqíi A. A pak uplatníme axiom (P3) a dostaneme P(A) = P(Hz nA) + P(H4 ílA) + P(H5 ílA)+ P(H6 n A). MA 0008 - Teorie pravděpodobnosti 37 Užitím vzorce 3.1 pro každý člen na pravé straně dostaneme P(A) = P(H3) ■ P(A\H3) + P(H4) ■ P(A\H4) + P(H5) ■ P(A\H5) + P(H6) ■ P(A\H6). Tomuto právě odvozenému vztahu říkáme věta o úplné psti. Jak je vidět z obrázku, důkaz této rovnosti plyne ze vzájemné disjunktnosti množin H3 n A, H± n A, H5 n A, H§ n A a z axiomu (P3) o psti sjednocení disjunktních množin. A ještě poslední věc: kdy tuto větu užijeme? Odpověď je nasnadě: když máme k dispozici (nebo můžeme snadno určit) všechny dílčí psti na pravé straně rovnosti - tehdy P (A) lze určit na základě tohoto vztahu. Tedy pokud neznáme P (A), ale celkem snadno určíme psti P(A\HA, vzorec se zdarem použijeme. Věta 4.1 (Věta o úplné psti) Množinu íž lze rozložit9 na sjednoceni navzájem disjunktních neprázdných podmnožin PL\, H2, až Hk. A je náhodný jev, tj. A C íl. Pak platí: P(A) = P(#i) • P{A\H^) + P(H2) ■ P(A\H2) + ■■■ + P(Hk) ■ P(A\Hk). Příklad 4.3 V čokoládovně se kompletují bonboniéry na třech výrobních linkách. Linka 1: kompletuje 40% produkce, pokazí (špatně zabalí) 5% bonboniér, které touto linkou procházejí. Linka 2: kompletuje 45% produkce, pokazí (špatně zabalí) 4% bonboniér, které touto linkou procházejí. Linka 3: kompletuje 15% produkce, pokazí (špatně zabalí) 2% bonboniér, které touto linkou procházejí. Zkontrolujeme náhodně bonboniéru zabaleno ve skladu (nevíme, ze které linky) - jaká je pst, že nebude v normě (= není správně zabalena) ? Řešení: Když jsou data takhle krásně naservírována, užít věty 4.1 nebude problém - horší budou příklady, kdy tak krásně sestavit data musíme sami při řešení. V každém případě, pokud by se nám nepodařilo najít systém neprázdných podmnožin Hl1 který vytváří disjunktní pokrytí množiny íž, s příkladem bychom se nemohli vypořádat pomocí vzorce na úplnou pst. Nyní jsou jevy Hi, H2, H3 jasné: PL\ ... náhodně vybraná bonboniéra ze skladu byla vyrobena na lince 1. Odtud P(PL\) = 0,4. H2 ... náhodně vybraná bonboniéra ze skladu byla vyrobena na lince 2. Odtud P(H2) = 0,45. H3 ... náhodně vybraná bonboniéra ze skladu byla vyrobena na lince 3. Odtud P(H3) = 0,15. 9Rozklad množiny na podmnožiny: Viz základy matematiky, přednáška 7, rozklad množiny příslušný pojmu relace ekvivalence. 38 Katedra matematiky PedF MUNI v Brně Jako A označíme náhodný jev, jehož pst hledáme: A ... Náhodně vybraná bonboniéra ze skladu je zmetkově zabalena. Je asi docela srozumitelné, když už vyjádříme výsledek úlohy pomocí P{A) = 0,40 • 0,05 + 0,45 • 0,04 + 0,15 • 0,02 = 0,041. Výsledek vlastně udává jakýsi obecný počet procent (4,1%) špatně zabalených bonboniér. A proto se nejedná o úlohu, která by byla příliš vzdálena základní škole - vlastně počítáme jakési procento špatné zabalenosti z celku všech bonboniér. 4.3 Bayesův vzorec Kdybychom ještě zůstali u stejného obrázku jako v předchozím oddílku, a vlastně i u stejného vzorce 3.1, který jsme využili u úplné psti, lze tento vzorec užít ještě jednou a jinak. Uvažujme tentýž příklad tří linek balicích bonboniéry, i se stejnými údaji o objemech produkce a kvalitách balicích linek - z uvedených dat je možné spočítat ještě psti jiného typu, a sice psti P^A), P(H2\A), P(H3\A). Aby nedošlo k mýlce, zopakujeme si, co označuje podmíněná pst, ať už oba jevy napíšeme v jakémkoli pořadí: P(A\Hi) ... pst, že náhodně vybraná bonboniéra ve skladu bude zabalena zmetkovitě za podmínky (= už víme, že nastala situace), že tato bonboniéra byla zabalena na lince 1 ... tuto pst jsme dostali už v zadání příkladu 4.3 a je rovna 0,05. P(Hi\A) ... pst, že náhodně vybraná bonboniéra pochází z linky 1 za podmínky (= už víme, že nastala situace), že tato bonboniéra byla zabalena nekvalitně. Tato pst v zadání příkladu nebyla uvedena, ale je možné ji vyčíslit pomocí vzorce 3.1, čili P(H A) P{Hl 0 A) Pst P (A) = 0,041 je úplná pst z příkladu 4.3, pst P(HiC\A) vypočteme podle vzorce pro pst průniku: P{HllA) P(A) -P(Ä)-- 0,041 - °'4878- Věta 4.2 (Bayesův vzorec) Množinu íl lze rozložit na sjednocení navzájem disjunktních neprázdných podmnožin H\, H2, až Hk. A je náhodný jev, tj. A C íl. Pak platí: P(H lA) =_p(Hi) • P(A\Hl)_ 1 l| ; P{H1)-P{A\H1) + P{H2)-P{A\H2) + ... + P{Hk)-P{A\Hk) pro každý index i E {1, 2, 3}. Poznámka k tomu, co jsme vlastně spočítali: Pst -P(iři) = 0,40 je tzv. apriorní pst (a priori = předem), neboli pst, jejíž hodnotu známe předem, už v zadání - pst toho, že náhodně zabalená bonboniéra pochází z linky 1. MA 0008 - Teorie pravděpodobnosti 39 Pst P(Hi\A) je tzv. aposteriorní pst (a posteriori = poté, tj. po měření, po provedení kontroly vybrané bonboniéry), je pst, jejíž hodnotu známe až po provedení nějaké kontroly v balírně bonboniér či ve skladu balírny: náhodně jsme vybrali bonboniéru a zkontrolovali ji a zjistili, že je nekvalitně zabalená. Po této informaci-kontrole se pst změní na P(Hi\A) = 0,4878 ... pokud kontrolovaná bonboniéra je nekvalitně zabalená, roste šance, že se jedná o bonboniéru balenou na lince 1, protože linka 1 je známá nej větším procentem zmetkovitého balení, a současně je svým objemem produkce zastoupena celkem silně. Podobně bychom mohli podle Bayesova vzorce vypočítat aposteriorní psti P(H2\A) = 0,439, P(Hs\A) = 0,0732. Všimněte si v tom například, že apriorní patnáctiprocentní P(H3) u náhodně kontrolované bonboniéry klesne jen na aposteriorní 7,3%-ní P(H3\A), protože linka třetí má malou zmetkovitost balení, tj. při špatně zabalené čokoládě klesne šance, že byla balena na lince 3. Dvě pomůcky, které snad pomohou čtenáři si zapamatovat Bayesův vzorec či zkontrolovat jeho správnost: • Při výpočtu např. P(Hi\A) se na pravé straně objevuje v čitateli podmíněná pst v opačném pořadí jevů, tj. P(A\Hi) ... tu totiž známe a můžeme ji proto do pravé strany dobře dosadit. • V čitateli pravé strany se vyskytuje P{Hi) ■ P(A\Hi), ve jmenovateli také - ve jmenovateli se totiž vyskytuje suma všech možných součinů P(HS) ■ P(A\HS) pro s E {1, 2,... , k}. Jinými slovy, v čitateli pravé strany se vyskytuje jeden z členů jmenovatele. • To už jsme měli zmínit dříve: ve jmenovateli pravé strany je vlastně počítána úplná pst jevu A podle věty o úplné psti. V této kapitole jsme se seznámili s prvním typem rozdělení pravděpodobnosti, které má široké využití v praxi. Veličina X s rozdělením Bí(N,p) nabývá hodnot z množiny íl = {0,1,2,..., A^} s pravděpodobností Základní témata výpočtu psti rozvíjejí věty 4.1, 4.2. První z nich, větu o úplné pravděpodobnosti, použijeme při možnosti rozložit množinu íl na několik neprázdných navzájem disjunktních částí Hl takových, že P(HA máme k dispozici. Pravděpodobnosti P(HA představují jakési váhy, pomocí nichž P(A) pak vypočteme jako vážený průměr psti P(A\HA - a jako u každého dobrého váženého průměru, i pro váhy P(Ht) platí, že jejich součet je roven jedné. Poslední významnou větu, Bayesův vzorec 4.2, lze využít při výpočtu P(Hl\A) ... tyto „opačné" podmíněné psti často neznáme, zatímco P(A\HA jsou často známy už ze zadání. Pokud dobře víme, že na pořadí podmínky a neznámého jevu při výpočtu podmíněné psti 4.4 Shrnutí (4.1) 40 Katedra matematiky PedF MUNI v Brně záleží, tak víme, že tyto dvě psti jsou téměř vždy navzájem různé, a jestliže je nezaměníme, tak tu obtížněji vyčíslitelnou právě můžeme vyjádřit pomocí Bayesova vzorce. Je sice pravda, že pst P (A n HA v čitateli Bayesova vzorce lze vyjádřit pomocí P (A) ■ P(Hi\A) i pomocLP(Aj) • P(A\Hi), protože průnik je operace komutativní, tj. větu o psti průniku z kapitoly 3 lze užít „oběma směry". Ale jen naprostý amatér zde při vybavování vzorce nebo při výpočtu příkladu udělá chybu, neboť P(Hl\A) nemá smysl dosazovat, protože právě to neznáme a chceme určit - v čitateli Bayesova vzorce se použije P (HA ■ P(A\H). 4.5 Otázky k opakování U následujících výroků rozhodněte, zda se jedná o výrok pravdivý či nepravdivý. Otázka 4.1 Binomické číslo (^) udává, kolika způsoby lze vybrat k prvků z N -prvkové množiny. Otázka 4.2 Pokud X ~ Bi(N,p), tak veličina X může nabývat pouze hodnot z množiny {1,2,..., N}. Otázka 4.3 Kromě veličiny X s binomickým rozdělením udávajícím počet výskytů i lze také měřit veličinu Y = relativních četností j^. Přitom platí P(X = i) = P(Y = ±). Otázka 4.4 Věta o úplné psti platí, i pokud existují takové indexy í, j 6 {1, 2, ..., n}, že HjDH^$. Otázka 4.5 Psti P(HA ve větě o úplné psti hrají roli tzv. vah, tedy k ^P(H) = l. i Otázka 4.6 Psti P(A\Hl) ve větě o úplné psti hrají roli tzv. vah, tedy k YJP(A\H) = 1. i Otázka 4.7 Pro libovolné náhodné jevy Hl a A platí P(A)-P(H\A) = P(H)-P(A\H). Otázka 4.8 Apriorní psti u Bayesova vzorce je například P(Hi), aposteriorní psti je například P(Hi\Á). Otázka 4.9 Bayesův vzorec bychom mohli teoreticky i upravit na tvar P(A)-P(H\A) P(H\A) = P(/ři) • P(A\H1) + P(H2) ■ P(A\H2) + ■■■ + P(Hk) ■ P(A\Hk)' Odpovědi na otázky viz 13.4. MA 0008 - Teorie pravděpodobnosti 41 5 Procvičování příkladů, příprava na prověrku V této kapitole se jen podíváme na řešení některých typů příkladů, ne nutně všech, které byly probrány v prvních čtyř týdnech na cvičení a mohly by se objevit na prověrce. Příklad 5.1 Výrobce počítačů používá při přejímce hard disků následující strategii: Z celé dodávky detailně zkontroluje soubor náhodně vybraných disků a najde-li mezi nimi 5% nebo více disků s vadnými sektory, odmítne dodávku převzít. V opačném případě dodávku příjme. A) S jakou pravděpodobností výrobce ODMÍTNE dodávku 300 disků, která ve skutečnosti obsahuje přesně 4% disků s vadnými sektory, pokud detailně kontroluje soubor a) 20 náhodně vybraných disků, b) 40 náhodně vybraných disků? B) S jakou pravděpodobností výrobce PRIJME dodávku 300 disků, která ve skutečnosti obsahuje přesně 6% disků s vadnými sektory, pokud detailně kontroluje soubor c) 20 náhodně vybraných disků, d) 40 náhodně vybraných disků? Řešení: Ad a): dodávka disků bude odmítnuta, bude-li ve dvaceti vybraných nalezen aspoň jeden vadný disk. Nejjednodušší výpočet je tedy od hodnoty 1 odečíst pst opačného /288\ jevu, že totiž všech dvacet disků bude dobrých: 1 — j^l = 0,57. I 20 J ad b) Podobně jako a) s tím rozdílem, že firma kontroluje 40 disků v dodávce a odmítne ji při dvou a více nalezených vadných discích, tj. od hodnoty 1 odečteme pst, že ze 40 /288\ A2W288\ kontrolovaných bude vadný disk žádný nebo jeden: 1 — 4^f — 1/3oa\ = 0,4923. I 40 J l 40 J ad c) dodávka disků bude PŘIJATA, bude-li ve dvaceti vybraných nalezeno méně než Í2S2\ pět procent vadných, čili žádný vadný: = 0,2781. I 20 j ad d) dodávka disků bude PŘIJATA, bude-li ve čtyřiceti vybraných nalezeno méně než /282\ /18W282\ pět procent vadných, čili žádný nebo jeden: + ^{obf = 0,2778. I 40 J l 40 J Příklad 5.2 Je známo, že 4% panelů od určitého výrobce mají odchylku od požadované délky, 3% panelů mají odchylku od požadované šířky. Přitom celá čtvrtina panelů mající odchylku délky má i odchylku šířky. S jakou pravděpodobností bude mít náhodně vybraný panel a) odchylku délky i šířky? b) odchylku délky nebo šířky? c) odchylku délky, ale ne šířky? 42 Katedra matematiky PedF MUNI v Brně d) oba rozměry v pořádku? e) odchylku délky, má-li odchylku šířky? Řešení: Je výhodné si celou situaci se zadanými údaji kreslit - tomu říkáme grafická podpora řešení úlohy (na obrázku samotném už data ze zadání zpracováváme v jejich vzájemných vztazích). Jedná se o jednoduchou úlohu na pst náhodných jevů znázorněných množinami nebo jejich částmi. Grafickou podporu (obrázek) bychom mohli nazvat Ven-novým diagramem, ovšem do jednotlivých částí množin nezakreslujeme prvky, ale procenty píšeme jejich procentuální počet vzhledem k celku: ad a) 1%, ad b) 6%, ad c) 3%, ad d) 94%, ad e) § tj. přibližně 33, 33%. Příklad 5.3 V losovacím klobouku zakrytém šátkem 5 bílých a 8 černých koulí. Postupně losujeme 2 koule, přičemž vylosované koule nevracíme zpět. a) S jakou pravděpodobností jsou obě vylosované koule bílé? b) S jakou pravděpodobností jsou vylosované koule různých barev? Zapište výsledky pomocí násobení pravděpodobností, (tj. bez kombinačních čísel) c) Vypočtěte (a), (b) nyní pomocí kombinačních čísel, která se zaměřují jen na výsledky výběru kuliček tak nějak najednou, bez ohledu na pořadí. Řešení: Rozmyslete si, že a proč jsou následující postupy správným vyčíslením: ad a) JĽ A. 13 ' 12' aH h) • 4- • > 13 12 ~ 13 12' ad c) P(a) = jwr, P(b) = Vl/13\1/. Po vyčíslení jsou výsledkem stejná čísla jako (a), l 2 ) { 2 ) (b)M Příklad 5.4 Hodili jsme současně dvěma kostkami. a) S jakou pravděpodobností padla alespoň jedna šestka, víme-li, že padl součet 8? b) S jakou pravděpodobností padl součet 8, víme-li, že padla aspoň jedna šestka? c) S jakou pravděpodobností padl součet větší než 10, víme-li, že padla alespoň jedna šestka? Řešení: Jedná se o příklady na podmíněnou pst, které řešíme podle vzorce 3.1. Je důležitý rozdíl mezi (a) a (b): pst jevu, který víme, že nastal, uvádíme vždy ve jmenovateli. ad a) |, pokud bychom přemýšleli podle vzorce klasické psti, a všechny případy, které mohou nastat, chápali jako ty případy, ve kterých padl součet 8. Takových je 5, že ano? A z nich případy příznivé jevu, že padla aspoň jedna šestka, jsou dva. Odtud výsledek. Pokud byste stůj co stůj chtěli uplatnit vzorec 3.1, který jste se naučili, tak můžete a výsledek je 2- 2 36 _ _ 36 5 Podobným způsobem jako (a) vypočteme: ad b) ad c) MA 0008 - Teorie pravděpodobnosti 43 Příklad 5.5 Velitel záchranné operace soudí, že člun s trosečníky se nachází někde ve čtverci o straně 200 km. Má k dispozici dvě letadla a posádka každého z nich objeví člun ve vzdálenosti 25 km od letadla ve všech směrech. Jedno letadlo přeletí přes jednu úhlopříčku daného čtverce, druhé přes druhou. Jaká je pst, že aspoň jedno letadlo objeví člun? Řešení: protože o trosečnících nevíme bližší informace, předpokládáme, že jejich výskyt v libovolném místě čtvercového území je stejně pravděpodobný. Tj. množinou íl uvažovaných pozic bude daný čtverec, jeho mírou bude jeho obsah. Náhodným jevem A (letadlům se při přeletu nad oběma úhlopříčkami čtvercového území podaří spatřit člun) budeme rozumět všechny body čtverce, které jsou v dosahu 25 km od některé z úhlopříček. Míra množiny A bude její obsah. Pst našeho náhodného jevu A tedy vypočteme jako Zkontrolujte si výpočtem podílu obsahů (na základě svých znalostí geometrie), že tento výsledek je správný. Nejjednodušší je možná odečíst od obsahu 200 • 200 množiny íž obsah čtyř bílých trojúhelníků, které vznikají mimo šrafovanou plochu. Kdybychom si všimli, že čtyři trojúhelníky, které vzniknou odstřihnutím od šrafované plochy, tvoří dohromady čtverec o straně 200 — 2 • 25 • \/2, můžeme počítat P(A) S{A) 2002 ~ (20° ~ 2 • 25 • y^)2 _ P{A) W) -2C^- °'582L Příklad 5.6 Jistá VS přijímá do 1.ročníku studenty ze všech typů SS. Absolventů gymnázia je 65 %, přitom 60% z nich tvoří dívky. Zbylých 35 % přijatých studentů navštěvovalo jiný typ školy a je mezi nimi pouze 30 % dívek. a) Jaká je pst, že náhodně vybraný student 1. ročníku je dívka? b) Systém vybral náhodně jednu dívku ze všech studentů prvního ročníku (už víme) - jaká je pst, že tato dívka je absolventkou gymnázia (ještě nevíme a chceme určit)? 44 Katedra matematiky PedF MUNI v Brně Řešení: ad a) Pst je vlastně rovna procentu dívek ze všech možných studentů. Dívky z gymnáziu tvoří z celku všech přijímaných studentů část 0,65 • 0,60, dívky z ostatních typů škol přijaté na VS tvoří z celku část 0,35 • 0,30. Tedy dohromady dívky ze všech typů škol tvoří z celku 1 všech přijatých na VS část P{A) = 0,65 • 0,60 + 0,35 • 0,30 = 0,495, kde A ... náhodně vybraný přijatý student je dívka. Tedy náhodně vybraný student prvního ročníku VŠ je dívka se šancí 49,5%. Argumentace řešení byla provedena pomocí procenta jako části celku, ale vlastně se jedná přesně o tentýž postup jako výpočet úplné psti!!! Ad b) Nyní použijeme vzorec 3.1: Označme G ... náhodně vybraný student je absolventem-absolventkou gymnázia (víme, že P(G) = 0,65). Dosazením do vzorce 3.1 dostaneme x,/^, ^ P(GnA) P(G)-P(A\G 0,65-0,60 „ „ „ „ p(G|-4) = - Wr= piv = =0J8787878- Celá pravděpodobnostní úvaha byla proveditelná i elementárně jinak: čitatel zlomku ve výpočtu vyjadřuje procento dívek z gymnázia, jmenovatel vyjadřuje procento všech dívek. Příklad 5.7 Doba příchodu studenta do výuky (v minutách) byla zaznamenána do intervalového rozdělení četností: rii <-3;0) 15 (0;3) 10 (3; 6) 3 (6; 9) 2 (9; 12) 1 (12; 15) 1 a) Zpracujte tato data v podobě kumulací a relativních kumulací. b) Jaký je maximální pozdní příchod u 85 procent studentů (tedy 0,85-kvantil)? c) Odhadněte průměr doby pozdního příchodu (v minutách). Řešení: Interval (—3; 0) znamená, že studenti přišli včas před začátkem hodiny, což je tedy pozitivní údaj, třebaže je negativní ... s tímto údajem budeme normálně pracovat, stejně jako s jinými intervaly. Počátek 0 znamená začátek hodiny, tj. nyní popisujeme veličinu, která může nabývat kladných i záporných hodnot. Ad a) nejprve vypočteme, četnosti a kumulace, relativní četnosti a relativní kumulace (počet měření n = 32 dostaneme součtem četností). Viz tabulka na násl. straně. Ad b) Výpočet kvantilů je složitější. Hledáme-li 0,85-kvantil, najdeme ve sloupci relativních kumulací interval (3; 6), na kterém byla poprvé překročena hodnota 0,85. Tím je určen interval (a; b) v následujícím vzorci: in + 1) • a - ca xa = a H---—--• (b — a), n(a; b) MA 0008 - Teorie pravděpodobnosti 45 Tabulka 5.7: Tabulka četností a kumulací doby příchodu studenta do výuky doba příchodu četnost rel. četnost kum. četnost kum. rel. četnost <-3;0) 15 0,46875 15 0,46875 (0;3) 10 0,31250 25 0,78125 (3; 6) 3 0,09375 28 0,875 (6; 9) 2 0,0625 30 0,9375 (9; 12) 1 0,03125 31 0,96875 (12; 15) 1 0,03125 32 1 kde ca je kumulace v bodě a dolní meze intervalu. V našem případě tedy (a; b) = (3; 6). Dále n(a, b) = n(3; 6) = 3 je četnost na intervalu (3; 6). Celkem Q , 0,85-33 -25 ^o,85 = 3 H-----(6 - 3) = 6,05. Tedy 85% studentů přijde dříve než 6,05 minut po začátku hodiny. Pozor na možný jiný průběh dosazení, který se moc neliší, ale dává mírně odlišný výsledek: Pokud nejprve vypočteme část čitatele v uvedeném vzorci 0,85 • 33, dostaneme hodnotu 28,05 a řídíme se sloupcem kumulací, kde hledáme nejbližší vyšší hodnotu kumulace, která přesáhne 28 - tou je 30. Tím jsme ovšem určili (a; b) = (6; 9) a celé dosazení do vzorce děláme pro interval (6; 9), dostaneme: xo,S5 = 6 + °'85 • 323 - 28 • (9 - 6) = 6,075. Hodnota je mírně odlišná, ale oba způsoby jsou legitimní a dávají nám nějaký odhad 0,85-kvantilu, který je přijatelný. Ad c) průměr bychom lehce vypočetli, kdybychom měl ovšem všech 32 naměřených časů k dispozici. Protože máme jen intervalové četnosti, průměr pouze odhadneme. Jako naměřené hodnoty vezmeme středy těchto intervalů —1,5, 1,5, 4,5, 7,5, 10,5, 13,5 (v minutách). Vážený aritmetický průměr doby příchodu pomocí četností je tedy odhadnut jako x = • (15 • (-1,5) + 10 • 1,5 + 3 • 4,5 + 2 • 7,5 + 10,5 + 13,5) = 1,40625. Tedy průměrná doba příchodu studenta do výuky je cca 1,40625 minut po začátku hodiny. Příklad 5.8 Hážeme hrací kostkou desetkrát za sebou, jaká je pst, že v těchto deseti hodech padne osm a více šestek? 46 Katedra matematiky PedF MUNI v Brně Jedná se o klasický příklad na Bernoulliovy psti, pro N = 10 a p = |. Odpověď je: p(8) + p(9) +p(10) = = 0,00001945. Příklad 5.9 Student se na test o 10 otázkach vůbec neučil a zaškrtává právě jednu z odpovědí a),b),c) zcela náhodně (hodí si kostkou, pokud mu padne 1 nebo 2, zaškrtne variantu a), pokud 3 nebo 4, zaškrtne variantu b), pokud 5 nebo 6, zaškrtne c)). Jedná se přitom o test, kde právě jedna z variant a), b),c) je správná u každé otázky. Jaká je pst, že při tomto náhodném vyplnění testu bude student mít 3 a více odpovědí dobře? Opět se jedná o Bernoulliovy psti, přičemž pst jedné správné odpovědi je p = |, a N = 10. Bez počítače, jen s využitím kalkulačky, je nejvhodnější využít psti opačného jevu: p(3) + p(4) + • • • + p(10) = 1 - p(0) - p(l) - p{2) = = 0,7008586. 5.1 Shrnutí V této kapitole snad žádné shrnutí není třeba. Pravděpodobně se na tomto místě objeví nejčastější chyby u studentů, kteří nedobrovolně přispějí (anonymně) do tohoto oddílku na prověrkách na jaře 2022. MA 0008 - Teorie pravděpodobnosti 47 6 Prověrka Prověrka během času přednášky. Příklady z minulých prověrek byly zahrnuty do textu cvičení, kde najdete tedy i možnost je dobře procvičit. Poznámka: Počínaje přednáškou 7 bude velmi potřeba, aby studenti vstřebali přednášku a připravili si příklady a předvedli je na cvičení. Na cvičeních budou zadávány příklady na samostatnou přípravu. Téma 7 je obsáhlejší, takže je probereme na cvičení 6 a přednášce 7 (a na cvičení 7 by pak už měli studenti vystoupit samostatně se svými vyřešenými příklady, které jim budou zadány). Lze tedy na cvičení 6 začít už téma 7, které ovšem je napsáno až v kapitole 7, protože tvoří nedílný celek. Další možností, která se snad časem objeví zde, v kapitole 6, jsou příklady pravděpodobnostního popisu vzaté ze života, nebo z jiných oborů lidské činnosti. První přednáška předmětu: O statistice v programu Excel (kliknutím na odkaz se otevře internetový prohlížeč, i když dané odkazy 3 až 6 nejsou celé viditelné; jedná se o části 1 až 6 série videí na téma STATISTIKA na ZŠ v Excelu): • https://www.youtube.com/watch?v=2AlnqRN0jKY&ab_channel=AG-IVT • https://www.youtube.com/watch?v=3bNt_i_bR24&ab_channel=AG-IVT • https://www.youtube.com/watch?v=c2flHZlZ9UY&list=PLGlp46vbIbJ7uBqh-vaGUAN7a-Gt4-Q3. • https://www.youtube.com/watch?v=tLlKCplmlCY&list=PLGlp46vbIbJ7uBqh-vaGUAN7a-Gt4-Q3 • https://www.youtube.com/watch?v=GxqV77AbfGw&list=PLGlp46vbIbJ7uBqh-vaGUAN7a-Gt4-Q3 • https://www.youtube.com/watch?v=o55UX0nPSas&list=PLGlp46vbIbJ7uBqh-vaGUAN7a-Gt4-Q3 48 Katedra matematiky PedF MUNI v Brně 7 Diskrétní a spojitá náhodná veličina, střední hodnota a rozptyl, distribuční funkce V tomto oddílu-kapitole se podíváme na základní terminologii popisu náhodnosti z vysokoškolského hlediska, tedy popis pravděpodobnosti pro dospělé. Budeme se tady společně zabývat oběma hlavními modely psti z kapitoly 2: diskrétní rozdělením psti a spojitým rozdělením psti. Všechny pojmy budou vysvětleny na dvou příkladech, které se budou prolínat touto celou kapitolou. U diskrétního rozdělení psti bylo dosud řečeno (opakování z kapitoly 2), že ji lze užít k popisu, když: • íl má konečně mnoho možných elementárních výsledků, nebo je jich stejně najko přirozených čísel (říkáme, že íl je množina nejvýše spočetně nekonečná). • všechny elementární výsledky mají obecně RŮZNOU možnost nastat (elementární výsledek uj1 nastane s psti p(c^)). • Pak lze počítat pst náhodného jevu A G A podle vzorce P(A) = ^ PÍ"*) U spojitého rozdělení psti bylo dosud řečeno (viz kapitola 2), že ji lze užít k popisu, když: • íl má nespočetně nekonečně mnoho možných elementárních výsledků, a tedy se jedná o interval reálných čísel nebo o R+, nebo R. • Tyto elementární výsledky mají obecně RŮZNOU možnost nastat. • Pak pro pst jevu (a; b) C ŕž nebo (a; b) C ŕž nebo (a; b) C ŕž nebo (a; b) C ŕž platí P(a; b) = P({a; b) = P((a; b)) = P {a; b)) = kde f(x) je nezáporná po částech spojitá funkce. Nyní na popis těchto modelů navážeme a řekneme s k nim několik dalších typických termínů z teorie psti. Klíčovým bude pojem distribuční funkce F(x) (pozor, nepleťte si s pojmem „distributivní zákon z algebry 1 - u slova „distributivní" je míněn pasivní význam (rozdělený): činitel násobící závorku je po odstranění závorky rozdělen ke každému členu v závorce; kdežto u slova „distribuční" je míněn aktivní význam (rozdělující): samotná distribuční funkce určuje pravidla, podle kterých se budou hodnoty měřené veličiny rozdělovat, čili podle kterých budou nastávat.") Podobně jako fyzikové se snaží o jakýsi sjednocující pohled na svět, i matematika se snažila o sjednocující pohled na náhodnost - a do velké míry se jí to podařilo právě pojmem distribuční funkce F(x). (pozor, písmeno F je důležité, protože / bude označovat MA 0008 - Teorie pravděpodobnosti 49 něco jiného - viz matematická analýza 2, kde J f(x)dx = F(x) + c ... do velké míry se tohoto označení mezi funkcí Fix) a její derivací f(x) budeme držet, pokud bude derivace existovat, a tedy bude mít smysl o ní mluvit). Ale ještě než se dostaneme k pojmu distribuční funkce, musíme projít pojem náhodné veličiny, dva příklady a tři další sjednocující pojmy (takže pojem distribuční funkce bude zlatým hřebem, uvedeným na závěr této kapitoly). Náhodná veličina X není nic nového, ovšem jejímu přesnému vymezení se trochu v tomto textu vyhneme. To právě je veličina, jejíž hodnoty měříme a jejíž náhodnost chceme popsat - formálně se jedná o zobrazení jistých vlastností, které elementárním výsledkům lo £ Cl (čti: malé omega z množiny velké omega) přiřazuje reálná čísla. V obou následujících příkladech upozorníme na to, kde se tato veličina objevuje a proč ji lze chápat jako zobrazení. Příklad 7.1 Hráč hází trestné koše, měříme mu 6 hodů. Předpokládáme, že hráč je stále stejně dobrý, úspěšnost má 70% tj. p = 0, 70 v každém z 6 hodů (pokud jednou mine, neovlivní to následující míru toho, že se trefí v dalším hodu- ta je stále 70% (jednotlivé pokusy jsou stochasticky nezávislé). Popište tuto náhodnou veličinu matematicky. Matematický popis každé náhodné veličiny bude zahrnovat šest bodů či charakteristik (i) až (vi). Podívejme se nejprve na první tři: (i) Co daná veličina měří, X = ...??? X = počet tref ze 6 hodů na koš (z 6 metrů, z tradiční basketbalové značky). (ii) Jakých hodnot veličina X může nabývat? X £ {0,1,2,3,4,5,6}. Možná zde by bylo vhodné vysvětlit rozdíl či souvislost množiny elementárních výsledků lo £ Cl a veličinou X: Cl = {NNTTTN, NTTNTT,...} - množina elementárních výsledků, jedna šestiznaková sekvence představuje sérii šesti pokusů jednoho hráče, N = netrefil se, T = trefil se při konkrétním hodu. Veličina X je vlastně zobrazením množiny Cl do množiny {0,1,2,3,4,5,6}; X(NNTTTN) = 3 (tj. 3x se hráč trefil ze šesti pokusů), X(NTTNTT) = 4 (hráč se v dané sekvenci trefil 4x), atd. Až na prvky množiny {0,1,2,3,4,5,6} je nasazeno další zobrazení P zvané pravděpodobnost, které přiřazuje jednotlivým hodnotám množiny {0, 1, 2, 3, 4, 5, 6} reálné číslo z intervalu (0,1). (iii) S jakými pstmi nabývá veličina X svých hodnot? Tedy u diskrétní veličiny: Jaké jsou psti p(k) := P(X = k), pro k £ {0,1, 2, 3,4, 5, 6}? Hodnoty p(k) nazýváme hodnoty pstní funkce. Pomocí znalostí získaných v první polovině semestru určíme dílčí psti pomocí psti průniku nezávislých jevů, tj. jako součin dílčích psti v jednotlivých hodech: 50 Katedra matematiky PedF MUNI v Brně p{0) = P{X = 0) = 0, 36 = 0, 000729. pil) = P (X = 1) = 6 • 0, 35 • 0, 7 = 0, 0102 (daný součin šesti pstí je násoben ještě šesti, protože bereme v úvahu počet všech sekvencí s jednou trefou a pěti netrefami). p(2) = P(X = 2) = 0, 34 • 0, 72 • g) = 0, 0595. Atd. jedná se vlastně o binomické psti, P(X = 3) = 0,1852, P(X = 4) = 0,3241, P(X = 5) = 0, 3025, P(X = 6) = 0,1176. Tyto hodnoty pstní funkce pik) můžeme znázornit i graficky: 0,0 < 0,0102 0,0007 • 0,1 < 595 » 0,3 i 352 » 241 ► 0,3 4 325 » 0,1 i 176 » Vlili 0 1 2 3 4! i ( Než vysvětlíme tři další charakteristiky, projdeme si tytéž už uvedené tři na druhém slibovaném příkladu. Nyní jen ještě zdůrazněme, že X je diskrétní náhodná veličina, protože nabývá hodnot oddělených, diskrétních (množina hodnot je většinou podmnožinou množiny N nebo Z, může se ovšem jednat i o konečnou nebo spočetnou množinu zlomků). Aby pravděpodobnostní funkce pik) splňovala vlastnosti psti, musí platit 1. Y^oP(k) = 1 (axiom normovanosti), 2. pik) > 0 pro každé k G {0,1, 2, 3,4, 5, 6} (axiom nezápornosti), 3. P{X G (a; b) = ^Zk^a.b^p{k) (když chceme určit pst, že veličina X nabude hodnot z intervalu (a;b), sečteme psti pik) pro k G (a; b)). Z určitého důvodu, který bude patrný ze sjednocujícího pojmu distribuční funkce, bereme nterval (a; b) bez levého krajního bodu. MA 0008 - Teorie pravděpodobnosti 51 Příklad 7.2 Popište matematicky veličinu X vyjadřující dobu příchodu studenta na konkrétní výuku v rozvrhu (v minutách). Zohledňujeme, že 75% studentů přijde v čas v intervalu (—5,0). Předpokládáme, že každý okamžik z intervalu je stejně pravděpodobný. Ostatní přijdou pozdě v intervalu (0,10). Šance jejich pozdního příchodu rovnoměrně klesá až k nule. Student více než minut předem ani později než 10 minut po začátku nepřijde. (i) Co daná veličina měří, X = ...??? X = doba příchodu studenta vzhledem k času r(0) = 0 (minut). (ii) Jakých hodnot veličina X může nabývat? X nabývá hodnot v intervalu (—5; 10). (ŕž je nyní už přímo interval (—5; 10), tj. veličinu X lze chápat jako identitu (—5; 10) —> (—5; 10), zde už její užití nic zajímavého nepřináší, ale formálně je použijeme také, abychom právě též mohli mluvit o veličině X, která nabývá hodnot z intervalu - terminologie s množinou íl už se zde nepoužívá) (iii) S jakými pstmi nabývá veličina X svých hodnot? Tedy u spojité veličiny: Jaké jsou psti P(X G (a; 6))? y=o,is 1. J (—oo, oo)f(x)dx = 1 2. J(a,b)f(x)dx > 0 3. J (a, b)f(x)dx = P(X G (a, 6)) 0, 05x + 10y + c = 0 c =-0,5 52 Katedra matematiky PedF MUNI v Brně y = O, 005x + O, 05 y = ax + b O, 05 = 10a + 6 -0,05 = 10a -0,005 = a .. x < — 5 ..x G (-5,0) ..x G (0;10) . .x > 10 4. F(x) 0...X < -5 -5- \ o = 0,15(x + 5) ... x G (-5;0) O, 75 + /(x, 0) = (-0, 005ŕ + O, 05)dt x, 0) + 0,05 [t] (O, x) = 0,75 - 0,005| = O, 75 — O, 0025x2" + O, 05x x G (0,10) MA 0008 - Teorie pravděpodobnosti 53 1...X > 10 Příklad 7.3 EX=J2 k ■ p(k) = 0-0, 0007 + 1-0, 0102 DX=(J2 k2 ■ p(k)) - 4, 22 = O2 • 0, 0007 + l2 • 0, 0595 + VOX = ^/T726 = 1,1225 2-0,0595 + ... .. + 62-0,1176 ■6-0,1176 = 4,2 4,22 = 1,26 EX±il)ĎA-(0^25;7,875) Příklad 7.4 F(x) = = x ■ f(x)dx = J\x ■ 0, Ibdx + 10 = 0,15 • 0,005 10 0,05 io -0, 005x + 0, 05)dx = 54 Katedra matematiky PedF MUNI v Brně = 0,15-f DX=£lx> 5 1000 " 1000 ' 3 fix)dx = 0,15- [f 1° -0,005 1,085 = 9,331667 VŤJX = y/9, 331667 = 3, 0548 5 100 ^ 100 ' 2 1,042 = J_°5x2 10 + 0,05 o 1,0417 0,15dx + /010x2(-0, 005x + O, 05)dx - 1, 084 10 -0,085 = 0,15 o 125 3 5 1000 10000 i _5_ 4 ' 100 1000 3 MA 0008 - Teorie pravděpodobnosti 55 8 Některá význačná rozdělení pravděpodobnosti — diskrétní i spojitá Viz slajdy 08prednaska, kde najdete přehled základních rozdělení pravděpodobnosti. Obsah přednášky je dobré doplnit i příslušnou kapitolou skript MA08 s využitím Excelu (Fajmon, Nezval, 2021). Podrobnější povídání doporučuji též v textu (Fajmon, Hlavičková, Novák, 2014) - s tím rozdílem, že geometrické rozdělení pravděpodobnosti v tom textu nenajdete, kdežto tam možná najdete navíc představené hypergeometrické rozdělení, které nebylo zařazeno do textu, který čtete. 56 Katedra matematiky PedF MUNI v Brně 9 Normální rozdělení psti 9.1 Normální rozdělení pravděpodobnosti Normální rozdělení pravděpodobnosti je rozdělení pro veličiny spojitého typu a má hustotu /(*) = 2tt • o Vzorec této funkce na první pohled nemá příjemný tvar - asi by ji nikdo nechtěl potkat v noci na liduprázdné ulici. Dalo by se spočítat, že střední hodnota veličiny X s rozdělením zadaným touto hustotou je rovna parametru /i, rozptyl je roven parametru a2. Proto budeme značit No(n,a2). Na obr. 9.6 jsou uvedeny grafy hustoty pro a2 stále rovno jedné a různé střední hodnoty /i, na obr. 9.7 je /i = 6 a mění se hodnoty rozptylu a2 ( Při malém rozptylu je rameno grafu hustoty vysoké a úzké, pro větší rozptyl hustota nabývá nižších funkčních hodnot, ale interval s hodnotami významně odlišnými od nuly je širší). U všech těchto grafů hustot platí f(t)dt = 1. —13 8 Obrázek 9.6: Hustota normálního rozdělení pro různé střední hodnoty \i. Normální rozdělení se stalo slavným díky tomu, co říká tzv. centrální limitní věta: Jestliže Xi, X2,..., Xn jsou navzájem nezávislé veličiny, které mají všechny stejné rozdělení (nemusí být normální, ale libovolné, jeho střední hodnota je EX% = ji a rozptyl DX% = a2), pak součtem těchto veličin je náhodná veličina Y (platí Y = Xt) se střední hodnotou EY = N ■ [i a rozptylem D Y = N ■ a2, která má pro dostatečně velké N (N > 30) normální rozdělení, tj. platí P(Ye(a;b))= / -e-^W^dt. Ja V^TľVNa To, že hodně proměnných lze s velkou přesností popsat pomocí normálního rozdělení, je právě důsledkem centrální limitní věty. Následující dvě situace to dokreslují. MA 0008 - Teorie pravděpodobnosti 57 0.8 0.6 0.4 0.2 O 123456789 Obrázek 9.7: Hustota normálního rozdělení pro různé rozptyly a2. Příklad 9.1 Y\ udává výšku borovic v daném lese (v metrech). Průměrná výška (= /i) je 50 metrů. Vezměme nyní jeden konkrétní strom, jehož výskaje 54 metrů. Co způsobilo, že vyrostl o 4 metry nad průměr? Hodně různých vlivů: a) Stromek byl zasazen v obzvlášť příznivém období roku, což způsobilo, že vyrostl o lm nad průměr. b) Místo, kde strom roste, získává zdroje hnojiva navíc, což vede k růstu o 2,3m nad průměr. c) Nešťastnou náhodou byl stromek při sazení nalomen, což znamená, že narostl o l,4m nižší, než mohl. d) Strom má dobré místo na slunci, což mu pomohlo vyrůst o 2m nad průměr. e) Skupina příslušníků antagonistického hmyzu si vybrala strom za svůj domov, což mu vzalo šance vyrůst o 0,6m výš než ostatní stromy. Zkrátka a dobře, vychýlení 4m nad průměr je dáno součtem všech těchto možných kladných i záporných vlivů. Protože těchto vlivů je většinou poměrně dost, výslednou výšku stromu danou soustem všech těchto vlivů lze s velkou přesností popsat normálním rodělením. Příklad 9.2 Y2 udává výsledek zkoušky z matematiky. Vezmeme nyní výsledek zkoušky jednoho konkrétního studenta. Co naň mělo vliv? a) Honza měl den před zkouškou chřipku. To snížilo jeho výkon o 5 bodů. b) Honza si něco tipl a náhodou to trefil - přidalo mu to 2 body. c) Honza chyběl na klíčové přednášce a neměl u zkoušky její kopii - přišel o 5 bodů. d) Profesor byl v dobré náladě a při opravování Honzovi 3 body přidal zadarmo. atd. 58 Katedra matematiky PedF MUNI v Brně atd. Opět vidíme, že výsledek Honzovy zkoušky je dán součtem většího počtu navzájem nezávislých náhodných vlivů, a tedy jej lze s velkou přesností popsat normálním rozdělením. Následující příklad by klidně mohl být uveden jako matematická věta, protože se jedná o důležitý důsledek centrální limitní věty (a někdy je také uváděn jako věta - říká se jí Moivre - Laplaceova věta (čti: moávr laplasova)). Příklad 9.3 Důsledek centrální limitní věty číslo 1. Specielně i binomické rozdělení lze pro dostatečně velké N dobře popsat (aproximovat, nahradit) normálním rozdělením: Uvažujme například veličinu X, která udává počet líců při 100 hodech korunou. Tato veličina má binomické rozdělení s parametry N = 100, p = i; EX = Np = 50; DX = Np(l - p) = 25. Tuto veličinu lze vyjádřit jako součet veličin X±, X2, ■ ■ ■, Xioo, kde X, má binomické rozdělení s parametry N = 1, p = |, tj. udává počet líců v jediném hodu mincí (pro N = 1 se binomické rozdělení někdy nazývá alternativní rozdělení, protože veličina může zde nabývat pouze dvou alternativ: 0 (= číselné vyjádření alternativy „neúspěch") nebo 1 (= číselné vyjádření alternativy „úspěch")). Jako součet stejně rozdělených nezávislých veličin lze tedy X s velkou přesností popsat normálním rozdělením s parametry (pro N = 100^ li = EX = N ■ EX, = Np = 50, o1 = DX = N ■ DX, = Np(l - p) = 25. Čili pro dostatečně velké N lze binomické rozdělení s velkou přesností aproximovat normálním rozdělením se stejnou střední hodnotou a rozptylem. Příklad 9.4 Důsledek centrální limitní věty číslo 2. Tento důsledek budeme potřebovat v následující kapitole, když se budeme snažit popsat rozdělení průměru ze stejně rozdělených veličin: Jestliže X\, X2, ■ ■ ■, XN jsou stejně rozdělené veličiny, ne nutně normálně rozdělené, a každá z nich má stejnou střední hodnotu /i a stejný rozptyl a2, Tak jejich průměr 1 N N ^ 1 1 = 1 2 má normální rozdělení se střední hodnotou ji a rozptylem j~. Skutečně, lze dokázat výpočtem střední hodnoty a rozptylu této veličiny. Od tvrzení původní centrální limitní věty se tato věta liší pouze tím, že celý součet veličin je ještě vydělený konstantou N, díky tomu tedy jiná střední hodnota a rozptyl: MA 0008 - Teorie pravděpodobnosti 59 a2 = °- N (při výpočtu rozptylu využíváme toho, že se počítá jako druhá mocnina odchylky v argumentu - tedy při vytýkání konstanty násobené sumou náhodných veličin před operátor d tuto konstantu musíme umocnit na druhou). 9.2 [/-rozdělení Uvažujme náhodnou veličinu X udávající výsledky zkoušky z matematiky kterou lze s velkou přesností popsat normálním rozdělením (viz příklad 9.2)s hustotou fit) a parametry fix = 75, o\ = 25. Její normované hodnoty (viz př. ??, ??, ??) budeme chápat jako hodnoty veličiny u, kde X - /Ax X - 75 u =-— =- ox 5 a platí eu = r ■ f(t)dt=—( r t- f(t)dt~iix. r f^t j — oo ®x ®~x \j — oo j — oo 1 . du = e{u2) - e2u = eu2 - 0 = J°° {^^j ■ f(t)dt = = - / (t-^x)2-f(t)dt = -.a2x = l. ®x j — oo o"x Zajímá-li nás pravděpodobnost, s jakou student dosáhne výsledku mezi 75 a 77 body, musíme spočítat P 75 < X < 77 = / -=--e--~dt, J75 což je obsah vyšrafované plochy na obrázku 9.8. Tato pravděpodobnost je stejná jako pravděpodobnost, že veličina u nabude hodnot z intervalu určeného příslušnými normovanými hodnotami: ,r ms „,75-75 X — 75 77- 75, P 75 < X < 77) = Pi---<--— <--- = 5 5 5 °'4 1 = P(0 < U < 0.4) = / -= • e" du, '2tt což je obsah šrafované plochy na obrázku 9.9. Platí tedy 77 75 v2tt • 5 0 77-75 1 (t-75)2 ľ 5 • e 2-25 dt = f (u) du, 75-75 60 Katedra matematiky PedF MUNI v Brně 0.08 -0.06 -0.04 -0.02 - 60 65 70 75 80 85 90 Obrázek 9.8: Obsah šrafované plochy je roven pravděpodobnosti, že X nabude hodnot z intervalu < 75; 77 >. Obrázek 9.9: Obsah šrafované plochy je roven pravděpodobnosti, že U nabude hodnot z intervalu < 0; 0.4 >. Tento obsah je stejný jako obsah šrafované plochy z obr. 9.8. kde f (u) je hustota U-rozdělení, tj. libovolný integrál z hustoty normálního rozdělení lze převést na integrál z hustoty rozdělení U. Veličina U má tedy normální rozdělení No(fi = 0; u2 = 1), které nazýváme standardizovaným normálním rozdělením (v anglické literatuře Z-distribution; hodnoty veličiny s tímto rozdělením se nazývají Z-values nebo také Z-scores). Výpočty uvedených integrálů jsou dosti pracné (buď musíme užít některou z numerických metod, nebo rozvinout exponenciální funkci v nekonečnou řadu a integrovat člen po členu), a proto se s výhodou používá následujícího postupu: pravděpodobnostní výpočty obecného normálního rozdělení se převedou právě popsaným postupem na výpočet integrálu ř7-rozdělení, pro které byla vypočtena a sestavena tabulka integrálů MA 0008 - Teorie pravděpodobnosti 61 ($(11) je označení distribuční funkce rozdělení U - jako pravděpodobnost má svůj geometrický význam, což znázorňuje obrázek 9.10). Obrázek 9.10: Obsah šrafované plochy je roven funkční hodnotě distribuční funkce $(-u) rozdělení U. Protože graf funkce fiu) je symetrický vzhledem ke svislé ose (přímce u = 0), v tabulce nemusí být uvedeny hodnoty $(u) pro záporná u. Platí totiž pro u > 0: $(-u) = 1 - ? b) menší než 65 ? c) větší než 80 ? d) v intervalu < /ix — 3ax; /ix + 3ax > ? Řešení: 62 Katedra matematiky PedF MUNI v Brně 3.4- 3.3 / 3.2 0.1 B x. 0.5 Obrázek 9.11: Obsahy ploch A a B jsou stejné. ad a) P(69 < X < 72) . '69 - iix < X - \ix < 72 - iix o~„ = P,^<ř,< 72 - 75N 5 - - 5 = P(-l,2 < U < -0,6) = $(-0,6) - $(-1,2) = = 1 - $(0,6) - (1 - $(1,2)) = = $(1,2) - $(0,6) = 0,8849303 - 0,7257469 = 0,1591834, což je obsah plochy na obrázku 9.12. Pokud si zvídavý čtenář položil otázku, proč místo některých neostrých nerovností nejsou v tomto odvozování ostré a naopak, pak bych mu rád připomněl, že u spojitých veličin platí P(X = t0) = 0 pro libovolné ŕ0- Díky tomu nezáleží na tom, zda u normálního rozdělení definujeme distribuční funkci předpisem F (t) = P (X < t) nebo F (t) = P (X < t) (tyto dva druhy definice se totiž objevují v matematické literatuře oba, ale žádný velký vliv to nemá - u spojitých veličin to nemá žádný vliv, u diskrétních veličin je schodová distribuční funkce v prvním případě zprava spojitá, ve druhém zleva spojitá, tj. v bodě skoku je v prvním případě funkční hodnota definována na horním schodu, ve druhém případě na dolním). ad b) P(X<65) = p,^^]^^^-^ ox ox j \ 5 = P(U < -2) = $(-2) = 1 - $(2) = = 1 - 0,9772499 = 0,0227501. MA 0008 - Teorie pravděpodobnosti 63 Tabulka 9.8: Hodnoty distribuční funkce $(-u) - l.část. u u u u u 0,00 0,5000000 0,30 0,6179114 0,60 0,7257469 0,90 0,8159399 1,20 0,8849303 0,01 0,5039894 0,31 0,6217195 0,61 0,7290691 0,91 0,8185887 1,21 0,8868606 0,02 0,5079783 0,32 0,6255158 0,62 0,7323711 0,92 0,8212136 1,22 0,8887676 0,03 0,5119665 0,33 0,6293000 0,63 0,7356527 0,93 0,8238145 1,23 0,8906514 0,04 0,5159534 0,34 0,6330717 0,64 0,7389137 0,94 0,8263912 1,24 0,8925123 0,05 0,5199388 0,35 0,6368307 0,65 0,7421539 0,95 0,8289439 1,25 0,8943502 0,06 0,5239222 0,36 0,6405764 0,66 0,7453731 0,96 0,8314724 1,26 0,8961653 0,07 0,5279032 0,37 0,6443088 0,67 0,7485711 0,97 0,8339768 1,27 0,8979577 0,08 0,5318814 0,38 0,6480273 0,68 0,7517478 0,98 0,8364569 1,28 0,8997274 0,09 0,5358564 0,39 0,6517317 0,69 0,7549029 0,99 0,8389129 1,29 0,9014747 0,10 0,5398278 0,40 0,6554217 0,70 0,7580363 1,00 0,8413447 1,30 0,9031995 0,11 0,5437953 0,41 0,6590970 0,71 0,7611479 1,01 0,8437524 1,31 0,9049021 0,12 0,5477584 0,42 0,6627573 0,72 0,7642375 1,02 0,8461358 1,32 0,9065825 0,13 0,5517168 0,43 0,6664022 0,73 0,7673049 1,03 0,8484950 1,33 0,9082409 0,14 0,5556700 0,44 0,6700314 0,74 0,7703500 1,04 0,8508300 1,34 0,9098773 0,15 0,5596177 0,45 0,6736448 0,75 0,7733726 1,05 0,8531409 1,35 0,9114920 0,16 0,5635595 0,46 0,6772419 0,76 0,7763727 1,06 0,8554277 1,36 0,9130850 0,17 0,5674949 0,47 0,6808225 0,77 0,7793501 1,07 0,8576903 1,37 0,9146565 0,18 0,5714237 0,48 0,6843863 0,78 0,7823046 1,08 0,8599289 1,38 0,9162067 0,19 0,5753454 0,49 0,6879331 0,79 0,7852361 1,09 0,8621434 1,39 0,9177356 0,20 0,5792597 0,50 0,6914625 0,80 0,7881446 1,10 0,8643339 1,40 0,9192433 0,21 0,5831662 0,51 0,6949743 0,81 0,7910299 1,11 0,8665005 1,41 0,9207302 0,22 0,5870604 0,52 0,6984682 0,82 0,7938919 1,12 0,8686431 1,42 0,9221962 0,23 0,5909541 0,53 0,7019440 0,83 0,7967306 1,13 0,8707619 1,43 0,9236415 0,24 0,5948349 0,54 0,7054015 0,84 0,7995458 1,14 0,8728568 1,44 0,9250663 0,25 0,5987063 0,55 0,7088403 0,85 0,8023375 1,15 0,8749281 1,45 0,9264707 0,26 0,6025681 0,56 0,7122603 0,86 0,8051055 1,16 0,8769756 1,46 0,9278550 0,27 0,6064199 0,57 0,7156612 0,87 0,8078498 1,17 0,8789995 1,47 0,9292191 0,28 0,6102612 0,58 0,7190427 0,88 0,8105703 1,18 0,8809999 1,48 0,9305634 0,29 0,6140919 0,59 0,7224047 0,89 0,8132671 1,19 0,8829768 1,49 0,9318879 64 Katedra matematiky PedF MUNI v Brně Tabulka 9.9: Hodnoty distribuční funkce $(-u) - 2.část. u $(ií) u $(ií) u $(ií) u $(ií) ,50 0,9331928 1,80 0,9640697 2,10 0,9821356 2,40 0,9918025 ,51 0,9344783 1,81 0,9648521 2,11 0,9825708 2,41 0,9920237 ,52 0,9357445 1,82 0,9656205 2,12 0,9829970 2,42 0,9922397 ,53 0,9369916 1,83 0,9663750 2,13 0,9834142 2,43 0,9924506 ,54 0,9382198 1,84 0,9671159 2,14 0,9838226 2,44 0,9926564 ,55 0,9394392 1,85 0,9678432 2,15 0,9842224 2,45 0,9928572 ,56 0,9406201 1,86 0,9685572 2,16 0,9846137 2,46 0,9930531 ,57 0,9417924 1,87 0,9692581 2,17 0,9849966 2,47 0,9932443 ,58 0,9429466 1,88 0,9699460 2,18 0,9853713 2,48 0,9934309 ,59 0,9440826 1,89 0,9706210 2,19 0,9857379 2,49 0,9936128 ,60 0,9452007 1,90 0,9712834 2,20 0,9860966 2,50 0,9937903 ,61 0,9463011 1,91 0,9719334 2,21 0,9864474 2,51 0,9939634 ,62 0,9473839 1,92 0,9725711 2,22 0,9867906 2,52 0,9941323 ,63 0,9484493 1,93 0,9731966 2,23 0,9871263 2,53 0,9942969 ,64 0,9494974 1,94 0,9738102 2,24 0,9874545 2,54 0,9944574 ,65 0,9505285 1,95 0,9744119 2,25 0,9877755 2,55 0,9946139 ,66 0,9515428 1,96 0,9750021 2,26 0,9880894 2,56 0,9947664 ,67 0,9525403 1,97 0,9755808 2,27 0,9883962 2,57 0,9949151 ,68 0,9535213 1,98 0,9761482 2,28 0,9886962 2,58 0,9950600 ,69 0,9544860 1,99 0,9767045 2,29 0,9889893 2,59 0,9952012 ,70 0,9554345 2,00 0,9772499 2,30 0,9892759 2,60 0,9953388 ,71 0,9563671 2,01 0,9777844 2,31 0,9895559 2,70 0,9965330 ,72 0,9572838 2,02 0,9783083 2,32 0,9898296 2,80 0,9974449 ,73 0,9581849 2,03 0,9788217 2,33 0,9900969 2,90 0,9981342 ,74 0,9590705 2,04 0,9793248 2,34 0,9903581 3,00 0,9986501 ,75 0,9599408 2,05 0,9798178 2,35 0,9906133 3,20 0,9993129 ,76 0,9607961 2,06 0,9803007 2,36 0,9908625 3,40 0,9996631 ,77 0,9616364 2,07 0,9807738 2,37 0,9911060 3,60 0,9998409 ,78 0,9624620 2,08 0,9812372 2,38 0,9913437 3,80 0,9999277 ,79 0,9632730 2,09 0,9816911 2,39 0,9915758 4,00 0,9999683 u 4,50 5,00 5,50 $(ií) 0,9999966 0,9999997 0,9999999 MA 0008 - Teorie pravděpodobnosti 65 ad c) P{X>80) = P [ U > 80 c 75 ) = P (U > 1) = 1 - P (U < 1) = 5 = 1 - $(1) = 1 - 0,8413447 = 0,1586553. ad d) P(/ix - 3ax < X < jix + 3ax) = _ p i fJ'x 3<7X jlx ^ ^ /ix + 3(7^ /i^ 0"x CFX = P(-3 < t/ < 3) = $(3) - $(-3) = $(3) - (1 - $(3)) = = 2$(3) - 1 = 0,9973002 Většina hodnot veličiny X leží tedy v intervalu < /ix — 3ax,/ix + 3ax >. Veličina X nabude hodnoty z tohoto intervalu s pravděpodobností 99,7% (= tzv. pravidlo tří sigma). Příklad 9.6 Firma vyrábí balíčky ořechů po 200/cs, přičemž | oříšků jsou burské a j lískové, dokonale se promíchají, a pak se teprve sypou do balíčků. Jestliže koupíme jeden balíček ořechů, jaká je pravděpodobnost, že počet lískových ořechů je v intervalu < 47; 56 > ? Řešení. Náhodná veličina X udávající počet lískových ořechů v jednom balíčku má rozdělení Bi{N = 200, jo = 0,25), čili \ix = 50, o2x = 37,5. Přímý výpočet P (47 < X < 56) = P(X = 47) + P(X = 48) + • • • + P(X = 56) = 20(A0,25470,75153 + P°°V,25480,75152 + • • • + P°°V,25560,75144 = 47 y V 48 / V 56 = 0,568 66 Katedra matematiky PedF MUNI v Brně byl určen pomocí robustní kalkulačky, která má funkci pro obecnou sumu a také funkci pro vyčíslení kombinačních čísel. Při náhradě daného binomického rozdělení normálním rozdělením se stejnou střední hodnotou a rozptylem (ax = 37,5 ==> ax = 6,12) dostaneme výsledek: P(47 < X < 56) = P 1-^2- ~U- -6~12~) = $(°'98) " $(-0'49) = = $(0,98) - (1 - $(0,49)) = 0,524. Je vidět, že chyba od přesného výsledku je v řádu procent (druhé desetinné místo). Pokud bychom použili korekce (viz následující příklad 9.7), dostali bychom výsledek P(46, 5 < X < 56, 5) = 0, 569, jehož odchylka od přesného výsledku je v řádu desetin procenta (třetí desetinné místo). 9.3 Aproximace binomického rozdělení normálním s korekcí Příklad 9.7 Náhodná veličina X udává počet líců při čtyřech hodech mincí. Vypočteme například pravděpodobnost, že počet líců ve čtyřech hodech bude jeden nebo dva, a) pomocí Bí(N = 4,p = 0,5); b) pomocí normálního rozdělení; c) pomocí normálního rozdělení s korekcí. Řešení: ad a) P{1 < X < 2) = Pl + p2 = 0,25 + 0,375 = 0,625. ad b) Aproximujme binomické rozdělení normálním rozdělením No([ix = Np = 2, ax = Np{l-p) = 1); P(1 v = +1,96 => xv = 120+1,96-V96 = 139,2. (K5) Rozhodnutí našeho statistického testu: X = 135 G {xm,xv) = (100,8; 139,2), tedy H0 nezamítáme. Zájem o nový výrobek je zatím zhruba u 20% zákazníků. Neprokázalo se, že by zájem o nový výrobek byl statisticky významně jiný než u 20% zákazníků. 10.3 Statistický test střední hodnoty průměru z normálního rozdělení Příklad 10.3 Je známo, že počet bodů získaných souhrnně na testech z matematiky v průběhu prvního pololetí maturitního ročníku má normální rozdělení pro /i = 500 bodů a směrodatnou odchylku a = 100 bodů. 74 Katedra matematiky PedF MUNI v Brně Firma KAPPA vyvinula program INTEL, jehož cílem je zlepšit znalosti matematiky u středoškolských studentů, zejména pak zlepšit výsledky testů v maturitním ročníku. Chtějí svůj program INTEL otestovat, a proto náhodně vybrali 25 studentů z ČR a program zaslali každému z nich. Po provedení testu z matematiky se ukázalo, že průměr ohodnocení daných 25 studentů je x = 540. Otázka zní: lze nyní říct, že program INTEL zlepšuje výkon v testu, nebo se jen náhodou vybralo 25 studentů s vyšším výkonnostním průměrem v matematice? Jedná se o „skutečný" výsledek (= lze jej zobecnit pro celou populaci?), nebo bylo vyššího průměru dosaženo jen díky náhodným faktorům? Tyto otázky nás přivádějí ke statistickému testu, který rozhodne. (Kl) Hq: /i = 500 (program intel nemá vliv na zlepšení matematických schopností, tj. střední hodnota bodového ohodnocení testu celé populace studentů i po rozšíření programu všem (celé populaci) zůstane stejná). Him. /i > 500 (jednostranný test - můžeme předpokládat, že program znalosti matematiky nezhoršuje). (K2) Kritériem volíme právě veličinu X, která teoreticky popisuje průměr hodnot (= průměr náhodných naměřených hodnot). (K3) Za předpokladu platnosti Ho má veličina X parametry [i-x = 500, a\ = — = 400 => 1,64, zamítáme Ho na hladině významnosti a. V našem případě náhodná veličina x nabyla při měření hodnoty x = 540, tedy příslušná U-hodnota je u = 5402~0500 = 2 > 1,64. Proto zamítáme Ho a uzavíráme, že program „skutečně" zlepšuje matematické schopnosti studentů. Poznámka. Souvislost statistického testu s pojmem podmíněné pravděpodobnosti: V průběhu právě dokončeného statistického testu jsme vlastně počítali podmíněnou pravděpodobnost P(x > 540|iío platí) (čti: pravděpodobnost, že x nabude hodnoty větší nebo rovny 540, pokud H0 platí; tomu, co v uvedeném zápisu následuje za svislou čarou, se říká podmínka; podmíněná pravděpodobnost je pak pravděpodobnost události zaznamenané před svislou čarou vypočtená za předpokladu, že platí podmínka. Protože a = 0,05 = P(x > 532,8|iío platí), je očividné, že P(x > 5a0\H0 platí) < a; přesněji (viz obr. 10.16) 0 440 460 480 500 532.8 560 Obrázek 10.16: Ad př. 10.3 - hustota rozdělení veličiny x za předpokladu, že platí Hq. a = 0,05 = P(532,8 < x < 5a0\H0 platí) + P(x > 5a0\H0 platí) = s {A) + s{B). Protože podmíněná pravděpodobnost P(x > 540|iío platí) = S(B) je menší než naše a = 0.05 = S (A) + S(B), uzavíráme, že něco z našich výchozích předpokladů nebylo správné - to „něco" je hypotéza Ho- Samozřejmě, že kromě Ho jsme měli i další výchozí předpoklady, např. naše data mohla být ovlivněna tím, že a) Náš vzorek 25 studentů nebyl náhodný (byl z výběrových škol). 76 Katedra matematiky PedF MUNI v Brně b) Kolega při opisování dat omylem zapsal některá ohodnocení vyšší než ve skutečnosti. Ale vlivy typu a),b) mohou být vyloučeny správným naplánováním a provedením měření, takže se v podobných případech většinou uzavírá, že nízká pravděpodobnost P(X > 5A0\H0 platí) je důsledkem toho, že nesprávný byl předpoklad platnosti H0. Příklad 10.4 Ředitel firmy KAPPA (data i situace viz předchozí příklad 10.3) zjistil, že konkurenční softwarová firma DELTA rovněž vyvinula program pro výuku matematiky (s názvem KILL). Zavolal si proto svého firemního psychologa a požádal ho, aby zjistil, který z obou konkurenčních programů INTEL a KILL je lepší, tj. který více zvyšuje úroveň matematických znalostí. Psycholog získal kopie obou programů. První z nich předal 25 náhodně vybraným studentům, druhou jiným 30 náhodně vybraným studentům. Po provedení testu z matematiky získal od těchto studentů výsledky jejich ohodnocení a spočetl průměry příslušných hodnot. U programu INTEL xi = 600, u programu KILL x2 = 575. Aby zjistil, do jaké míry je jeho měření reprezentativní a zda rozdíl průměrů není pouze náhodný (tj. způsobený např. tím, že program INTEL byl rozdán mezi studenty, kteří byli náhodou chytřejší, ale ne tím, že by INTEL byl lepší než KILL), sáhne ke statistickému testu. (Kl) Ho: \i\ = /i2 (kdyby se oba programy distribuovaly celé populaci, výsledná střední hodnota ohodnocení by byla u obou stejná). H±: \i\ \i2 (musíme použít oboustranný test, protože nevíme, který z programů je lepší). (K2) Testovým kritériem bude rozdíl náhodných veličin Xi — X2 s konkrétní naměřenou hodnotou x\ — x2 = 600 — 575 = 25. (K3) Za předpokladu platnosti Ho je rozdělení kritéria X± — X2 normální, vypočteme jeho střední hodnotu a rozptyl: E(X~i -X~2) = EXi - EX2 = ih-ii2 = 0, Dále a nás bude zajímat směrodatná odchylka \/733,333 = 27,08. Při výpočtu jsme využili důležitý fakt rozptylu rozdílu dvou nezávislých veličin: rozptyly dílčích veličin sečteme, nikdy je neodečítáme; plyne to z faktu, že rozptyl funguje jako kvadratická odchylka, tedy konstanta (—1) vyjadřující rozdíl se při vytýkání před operátor rozptylu umocní na druhou. MA 0008 - Teorie pravděpodobnosti 77 (K4) Pro a = 0,05 jsou kritické řJ-hodnoty oboustranného testu stejné jako u oboustranného testu v kapitole ??: um = —1,96, uv = 1,96. (K5) Rozhodnutí testu: příslušná řJ-hodnota xl - ~2 ~ 0 600- 575 -0 25 27 = 0,92 G (-1,96; 1,96) ==> NEzamítáme H0, programy vyjdou svou kvalitou zhruba nastejno. Nenašlo se dost důkazů pro to, že by oba programy byly odlišné svou kvalitou. Test v přikladu se liší od předchozího testu pouze krokem (K3), kde jsme museli určit rozdělení rozdílu dvou náhodných veličin. 78 Katedra matematiky PedF MUNI v Brně 11 í-test, intervaly spolehlivosti K přednášce 11 najdete v IS slajdy, ty vás provedou naprostým jádrem - text, kterrý následuje, obsahuje trochu víc materiálu. 11.1 Nestranný a konzistentní odhad parametru rozdělení Ve statistických testech v minulé kapitole jsme tiše předpokládali, že rozptyl a2 je známý. To ale ve skutečnosti většinou není pravda a my jej musíme odhadnout (= přibližně určit). Proto se nyní pustíme do trochy teorie a praxe v odhadování parametrů. Příklad 11.1 Pět sad součástek o dvaceti kusech bylo podrobeno zkouškám extrémních teplot. U každé sady je v tabulce uveden počet součástek z daných dvaceti, které v teplotní zkoušce obstály: z 20 obstálo Xj x,-x {x% - x)2 13 0 0 11 -2 4 12 -1 i 15 2 4 U 1 l V tabulce už byla využita hodnota průměru | V^Xj = 13. Ve třetím sloupci tabulky jsou uvedeny čtverce odchylek od průměru, odkud spočteme empirický rozptyl (= průměr čtverců odchylek od průměru ... :-)): s2 = -Y( Xl-x)2 = - = 2. 5 ^ ; 5 Jedná se o měření hodnot náhodné veličiny, kterou je možné popsat střední hodnotou /i a rozptylem a2. Ovšem tyto hodnoty neznáme - pokusíme se je odhadnout. Otázka zní: Jak dobrým odhadem pro [i je průměr'x? Jak dobrým odhadem pro a2 je empirický rozptyl s2 ? Hodnoty x, s2 jsou různé pro různé soubory měření, při jejich popisu užíváme náhodné veličiny X±, X2, ..., X^ označované jako náhodný výběr. Zde v teorii odhadů je potřeba tento i následující pojmy uvést přesně. Definice 11.1 Říkáme, že veličiny X\, X2, ..., X^ tvoří náhodný výběr rozsahu N z rozdělení pravděpodobnosti o distribuční funkci F(x), pokud a) jsou navzájem nezávislé; b) mají stejné rozdělení pravděpodobnosti zadané distribuční funkcí F(x). Třeba v příkladu 11.1 je x\ = 13, ale stejně dobře jsme mohli naměřit x\ = 10 nebo x\ = 17 - tuto náhodnost prvního měření reprezentuje náhodná veličina X±, které nepřiřazujeme žádnou konkrétní hodnotu, pouze jsme si vědomi, že pod (velkým písmenem) X\ se mohou skrývat různé hodnoty. Podobně se mohou skrývat různé hodnoty pod veličinami X2, .. ., X^. MA 0008 - Teorie pravděpodobnosti 79 Definice 11.2 Libovolnou funkci T/v := T(Xi,X2, ■ ■ ■ ,X^) nad náhodným výběrem X\, X2, ■ ■ ■, Xn nazveme statistikou. Specielně a) Statistiku — 1 N i=i nazveme výběrovým průměrem; b) Statistiku — 1 N — S2 = ^l-Y.^-X)2 (n-2) i=i nazveme výběrovým rozptylem. Pokud do statistiky T/v dosadíme konkrétní naměřené hodnoty X\, X2, • • • , %Ni dostaneme hodnotu ŕ/v = í( X\, X2, . . . , X/v ), která se nazývá realizací statistiky T/v- Například pokud dosadíme do vzorců 11.1, 11.2 konkrétní hodnoty měření xl5 dostaneme realizaci x výběrového průměru X a realizaci s2 výběrového rozptylu S2. No a nyní nás bude zajímat, jak dobrým odhadem neznámé střední hodnoty /i veličiny X je realizace x výběrového průměru X (respektive jak dobrým odhadem neznámého rozptylu a jsou realizace s2, s2 veličin S2, S2). Definice 11.3 Statistiku T/v nazveme nestranným odhadem parametru 7, pokud ETN = 7 (střední hodnota veličiny TN je rovna hodnotě parametru ry). Vysvětlení pojmu nestrannosti pomocí konkrétních hodnot měření: pokud budeme opakovaně měřit hodnoty xi:i, x2^, ..., xN^ a opakovaně počítat realizace tN,i = t(xi:i, x2:l, ..., xn,í) nestranného odhadu T/v parametru 7 pro i = 1,2,... ,n,..., bude platit vztah Ař|Š'")Ě(,"5,t!|)=1 X2\ -X2. (11.8) N i=i a) Užijeme nejprve úvah kapitoly předchozí, že totiž a2 = EX2 — ji2, a dále platí = _2 EX — ir. Vypočtěme střední hodnotu veličiny S2: E* = E (i £ *? - = jf (E BX!) - EX* = = ^(£("2+/<2))-(<4+/<2) = 2,2 2 2 2 2 2 a2 N — 1 2 = a +ii -a^-iL =o -o^ = a - — = • a . Čili střední hodnota statistiky S2 není rovna odhadovanému parametru a2, to znamená, že S2 není nestranným odhadem rozptylu a2. Zkrátka a dobře vzoreček 11.7 není dobře zkonstruován, protože jeho realizace s2 jsou vždy trochu menší než neznámá hledaná hodnota a2 82 Katedra matematiky PedF MUNI v Brně až na patologické případy a2 = 0 a a2 = oo, které nás nezajímají (matematicky jsou takové náhodné veličiny zkonstruovatelné, ale v praxi měřené veličiny mají vždy konečný kladný rozptyl). Ale k nalezení nestranného odhadu už máme jen krok - můžeme se totiž poučit z výpočtu E S2. Pokud vynásobíme S2 konstantou n n- j (označme novou veličinu S2): S2:=j-^--S2, (11.9) tak dostaneme Ešs = JL..ES> = JL..Ľ-í.^ = a>, N-l N-l N čili S2 už je nestranným odhadem hodnoty a2. b) Dá se ukázat, že S2 je i konzistentním odhadem rozptylu a2, což plyne z faktu, že lim (jfj = 0, ale to zde už podrobně provádět nebudeme. Dále budeme jako nestranný a konzistentní odhad rozptylu a2 veličiny X užívat tedy statistiku S2. Má tedy ještě nějaký smysl „stará a překonaná" hodnota S27 Vrátíme-li se k příkladu 11.1, kde s2 = 2, lze vypočíst s2 = | • 2 = 2,5. 1. Hodnota s2 = 2 má svou váhu - vyjadřuje rozptyl souboru uvedených pěti měření. Jedná se o empirický rozptyl - rozptyl naměřených hodnot. 2. Skutečný rozptyl a2 veličiny přeživších součástek je větší než rozptyl měření u pěti sad - proto je s2 = 2,5 jeho vhodnějším odhadem. V příkladu 11.1 můžeme uzavřít, že počet přeživších součástek ze sady dvaceti při extrémní teplotní zátěži lze popsat normálním rozdělením s parametry /i = x = 13, a2 = s^ = 2,5. Jednoduše řečeno, rozptyl s2 vypočtený z několika naměřených hodnot je vždy o něco menší než skutečný rozptyl a2 měřené veličiny. Proto při odhadu a2 musíme vypočtené s2 „trochu zvětšit" vynásobením členem Další možný tvar vzorce pro S2 lze získat po úpravách s využitím 11.8 a vztahu X = TP = JL..s>= N r UŽ*-MM')- N-l N a tedy po vykráčení konstantou N a roznásobení závorky dostaneme MA 0008 - Teorie pravděpodobnosti 83 Definice 11.5 Výraz s s := ^2(xt — x)2 budeme nazývat součet čtverců měření veličiny X. Při tomto označení platí S2 = jj-SS (11.11) a zejména Š2 = —— -SS. (11.12) N -1 v J S pojmem součtu čtverců nadále pracuje tzv. analýza rozptylu (ANOVA = ANalysis Of Variance), která se zabývá dalšími statistickými testy zkoumajícími rozptyl (pracuje většinou s tzv. F-rozdělením). Na tu ovšem v tomto kursu už nezbývá prostor. Podle okolností budeme při výpočtu S2 užívat vzorec 11.2, 11.9, 11.10 nebo 11.12. Zbývá ještě vyjádření k takzvanému počtu stupňů volnosti odhadu. Příklad 11.2 Kdybych vám řekl, abyste mi nadiktovali pět reálných čísel, a nedal žádnou další podmínku nebo omezení, mohli byste říct čísla, jaká chcete, například 0,70,314,32,100. Máte svobodu volby, která čísla vybrat. Jinými slovy, máte pět stupňů volnosti, protože si zcela svobodně a volně vybíráte pět čísel. Kdyby ale úkol zněl: Nadiktujte mi pět čísel, jejichž průměr je 25, trochu bych vaši volnost omezil - první čtyři čísla byste mohli volit libovolně, například 0,70,314,32, ale páté číslo je mým požadavkem jednoznačně určeno. Aby průměr pěti čísel byl 25, jejich součet musí být roven 5 • 25 = 125, tj. páté číslo musí být rovno 125 — 416 = —291. Tuto druhou úlohu lze charakterizovat tím, že stupeň její volnosti je 4. Čili obecně pro N hodnot, u kterých je předem dán jejich průměr, zbývá N — 1 stupňů volnosti. Podobná situace se objevuje i při odhadování rozptylu populace: Uvažujeme-li soubor měření N hodnot jisté veličiny X, z nich lze určit průměr x. Chceme-li dále odhadnout rozptyl pro tuto konkrétní (už určenou) hodnotu x, máme už jen N — 1 stupňů volnosti (ve vzorci pro s2 hodnotu x potřebujeme znát, protože při určení s2 počítáme totiž míru vychýlení měření právě od hodnoty x). 84 Katedra matematiky PedF MUNI v Brně Tedy třeba v příkladu 11.1 má odhad rozptylu s2 = 2,5 čtyři stupně volnosti. Tento přístup určení počtu stupňů volnosti lze užít i na některé další situace v tomto textu. Obecně platí: Počet stupňů volnosti odhadu = počet měření minus počet parametrů odhadnutých již dříve. 11.2 r-test typu =konstanta" Příklad 11.3 Je známa následující grafická iluze (viz obr. 11.17), že totiž úsečka a se zdá delší než úsečka h (počítá se délka bez koncových šipek), i když ve skutečnosti jsou obě úsečky stejně dlouhé. Obrázek 11.17: K př. 11.3: Grafická iluze: délky úseček a, b jsou stejné. Chceme nyní experimentem ověřit, že úsečka typu a se zdá pozorovateli delší sama o sobě, bez porovnání s úsečkou h. Náhodně vybraným pěti lidem jsme na deset sekund ukázali úsečku a dlouhou 6 cm. Poté jsme je požádali, aby úsečku dané délky nakreslili, a změřili jsme její délku. Byla získána data x\ = 8, x2 = 11, x% = 9, x4 = 5, x5 = 7. Průměr těchto dat je x = 8 cm. Chceme testovat hypotézu, že střední hodnota /i celé lidské populace při ohodnocení délky úsečky je významně větší než její skutečná délka 6 cm. V této situaci neznáme rozptyl a2 měřené veličiny a musíme jej odhadnout pomocí s2. Pak testovacím kritériem nebude _ x — 6 ťT ' MA 0008 - Teorie pravděpodobnosti 85 ale tzv. rozdělení t s hodnotou vypočtenou podle vztahu t := kde 5= V7^. Toto ŕ-rozdělení odvodil jistý pan William Sealy Gosset - ovšem příslušný článek uveřejnil nikoli pod svým vlastním jménem, ale pod jménem Student, a rozdělení je tedy známo pod názvem Studentovo r-rozdělení. Hustota r-rozdělení závisí na počtu v stupňů volnosti, se kterými se určí odhad rozptylu S2, a má tvar fÁx) =_i = r(^) podle toho, zda se čtenáři více líbí funkce (3(p,q) = Í u1'? ■ (l-^Wu Jo (tzv. /3-funkce), nebo funkce T(r) = I ví'1 -e-uáu 'o (tzv. T-funkce). Přechod mezi jednotlivými verzemi vzorce hustoty plyne ze vztahu mezi /3-funkcí a T-funkcí ^,9)-r(ri'rw T(p + q) a z jedné další drobnosti, že totiž T(|) = \/tŤ (tato drobnost je vypočtena například v učebnici [?], která je více zaměřena na odvozování matematických vztahů v porovnání třeba s učebnicí [?]). Funkce fu(x) je opět jedna z funkcí, kterou by člověk nerad potkal pozdě na ulici při návratu domů, ale ukazuje se, že i takové funkce jsou užitečné. Uveďme zde některé vlastnosti r-rozdělení, které budeme využívat: a) Hustota fv je symetrickou funkcí vzhledem k ose y, tj. je sudá: platí fv{x) = fv(—x). b) Kritická r-hodnota je dále od počátku než kritická ř7-hodnota, protože r-rozdělení je odvozeno při neznámém rozptylu, tj. zahrnuje větší míru náhodnosti a nejistoty než U-rozdělení (veličina t má větší rozptyl než veličina U). Hustota rozdělení t je „nižší a širší" než hustota rozdělení U. 86 Katedra matematiky PedF MUNI v Brně c) Čím lepší je náš odhad neznámeho rozptylu o měřené veličiny, tím více se r-rozdělení bude podobat ř7-rozdělení. A odhad rozptylu bude tím lepší, čím vyšší je počet měření N (tj. čím vyšší je počet stupňů volnosti u). Vlastnosti b), c) lze znázornit graficky porovnáním ř7-rozdělení s ŕ-rozdělením o různém počtu u stupňů volnosti - (hustota ř7-rozdělení je v obrázcích znázorněna plnou čarou, hustota r-rozdělení čárkovanou čarou): MA 0008 - Teorie pravděpodobnosti 87 Z obrázků je vidět, že pro rostoucí počet stupňů volnosti se hustota r-rozdělení (v obrázku její graf vyznačen slabě) svým tvarem stále více blíží ke tvaru funkce hustoty ř7-rozdělení, a pro v = 60 je hustota r-rozdělení prakticky totožná s hustotou ř7-rozdělení (omlouvám se za malou tloušťku čar, ale při silnější tloušťce nebyl na obrázku patrný rozdíl mezi čárkovanou a plnou čarou). d) Pro určení kritických hodnot tk budeme potřebovat hodnoty integrálů Tyto integrály se nepočítají vždy znovu a znovu, poněvadž jejich výpočet je složitý, ale jednou provždy byly spočteny a sestaveny do tabulky. Protože pro jednu hodnotu v lze sestavit tabulku tak velkou jako je tabulka funkce $ (BMA3), měli bychom pro 35 různých hodnot v také 35 různých tabulek. Toto množství dat je zredukováno jen na několik hodnot v závislosti na hladině významnosti a. A vůbec, pro statistické testy je nej užitečnější místo hodnot distribuční funkce přímo tabulka kritických hodnot pro různé a a v - jedná se o tabulku 11.11. S touto tabulkou budeme pracovat tak, že vybereme řádek s daným počtem stupňů volnosti z/, sloupec s danou hodnotou a = q u pravostranného (a = 2q u oboustranného) testu. Na průsečíku řádku se sloupcem se pak nachází požadovaná kritická hodnota testu.Tabulku lze volit takto úsporně, protože mezi jednostranným a oboustranným testem je následující vztah: — tk u levostranného testu se liší od pravostranného pouze znaménkem. — tk u pravostraného testu pro a = q je stejné jako | ± tk\ u oboustranného testu pro a = Iq. Je to vidět i na srovnání následujících dvou obrázků: -4 -0,1; 4 tk=2,132 Pravostranný ŕ-test pro a = q = 0,05, z/ = 4 ... tk = 2,132. Šrafovaná část tvorí 5% obsahu celého podgrafu. 88 Katedra matematiky PedF MUNI v Brně Tabulka 11.11: Kritické hodnoty ŕ-testu. q=0,4 0,25 0,1 0,05 0,025 0,01 0,005 0,001 v 2q=0,8 0,5 0,2 0,1 0,05 0,02 0,01 0,002 1 0,325 1,000 3,078 6,314 12,704 31,821 63,657 318,31 2 0,289 0,816 1,886 2,920 4,303 6,965 9,925 22,326 3 0,277 0,765 1,638 2,353 3,182 4,541 5,841 10,213 4 0,271 0,741 1,533 2,132 2,776 3,747 4,604 7,173 5 0,267 0,727 1,476 2,015 2,571 3,365 4,032 5,893 6 0,265 0,718 1,440 1,943 2,447 3,143 3,707 5,208 7 0,263 0,711 1,415 1,895 2,365 2,998 3,499 4,785 8 0,262 0,706 1,397 1,860 2,306 2,896 3,355 4,501 9 0,261 0,703 1,383 1,833 2,262 2,821 3,250 4,297 10 0,260 0,700 1,372 1,812 2,228 2,764 3,169 4,144 11 0,260 0,697 1,363 1,796 2,201 2,718 3,106 4,025 12 0,259 0,695 1,356 1,782 2,179 2,681 3,055 3,930 13 0,259 0,694 1,350 1,771 2,160 2,650 3,012 3,852 14 0,258 0,692 1,345 1,761 2,145 2,624 2,977 3,787 15 0,258 0,691 1,341 1,753 2,131 2,602 2,947 3,733 16 0,258 0,690 1,337 1,746 2,120 2,583 2,921 3,686 17 0,257 0,689 1,333 1,740 2,110 2,567 2,898 3,646 18 0,257 0,688 1,330 1,734 2,101 2,552 2,878 3,610 19 0,257 0,688 1,328 1,729 2,093 2,539 2,861 3,579 20 0,257 0,687 1,325 1,725 2,086 2,528 2,845 3,552 21 0,257 0,686 1,323 1,721 2,080 2,518 2,831 3,527 22 0,256 0,686 1,321 1,717 2,074 2,508 2,819 3,505 23 0,256 0,685 1,319 1,714 2,069 2,500 2,807 3,485 24 0,256 0,685 1,318 1,711 2,064 2,492 2,797 3,467 25 0,256 0,684 1,316 1,708 2,060 2,485 2,787 3,450 26 0,256 0,684 1,315 1,706 2,056 2,479 2,779 3,435 27 0,256 0,684 1,314 1,703 2,052 2,473 2,771 3,421 28 0,256 0,683 1,313 1,701 2,048 2,467 2,763 3,408 29 0,256 0,683 1,311 1,699 2,045 2,462 2,756 3,396 30 0,256 0,683 1,310 1,697 2,042 2,457 2,750 3,385 40 0,255 0,681 1,303 1,684 2,021 2,423 2,704 3,307 60 0,254 0,679 1,296 1,671 2,000 2,390 2,660 3,232 120 0,254 0,677 1,289 1,658 1,98 2,358 2,617 3,160 oo 0,253 0,674 1,282 1,645 1,960 2,326 2,576 3,090 MA 0008 - Teorie pravděpodobnosti 89 t =-2,132 tv=2,132 Oboustranný ŕ-test pro a = 2q = 0,1, v = 4 ... tm = —2,132, tv = 2,132. Šrafovaná část tvoří celkem 10% obsahu celého podgrafu (na každé straně je vyšrafováno 5% obsahu podgrafu). — Ze symetrie hustoty r-rozdělení je patrné, že pokud budeme provádět levostranný ŕ-test, stačí najít kritickou hodnotu pravostranného testu a změnit její znaménko na záporné. Vraime se nyní zpět k příkladu 11.3 a proveďme statistický t-test: (Kl) Ho: /i = 6 (střední hodnota délky úsečky není ovlivněna iluzí prodloužení). Hx: ii > 6. (K2) Testovým kritériem bude výběrový průměr X, jehož realizaci x = 8 převedeme na t-hodnotu 8-6 esta- x („est" označuje odhad, z anglického „estimate" [estimitj - protože v dalším textu budeme odhadovat odchylku i pomocí jiných funkcí než X, bude výhodné si tímto označením připomenout, u které veličiny vlastně odchylku nebo rozptyl odhadujeme). (K3) s2 = 5, a tedy esta^r = — = — = 1, x N 5 přičemž počet stupňů volnosti odhadu je N — 1 = 5 — 1 =4, tj. za předpokladu platnosti Ho má veličina Studentovo t-rozdělení pro v = 4. (K4) Příslušná kritická hodnota t^ je na průsečíku řádku u = 4 a sloupce pro a = 0,05 (u pravostranného testu), tj. t^ = 2,132. (K5) = 2 < tk = 2,132 => Ho nezamítáme, nenašli jsme dostatek důkazů pro potvrzení iluze větší délky. 90 Katedra matematiky PedF MUNI v Brně 11.3 Několik poznámek ke statistickému testu Poznámka A) Logika formulace „nezamítáme i/0" V právě dokončeném příkladu bylo odpovědí „hypotézu Ho nezamítáme". Logiku této formulace snad osvětlí následující příklad. Příklad 11.4 Když něco někde nenajdu, neznamená to, že to tam není. S nástupem lyžařské sezóny pan Loftus začal oprašovat svou výstroj a zjistil, že nemůže najít své lyžařské brýle, i když prohledal celý byt. Potom jej ovšem zděsila představa, že si za dva tisíce bude muset koupit brýle nové, a celý byt prohledal ještě jednou, a to důkladněji. Nakonec brýle našel v zadním rohu své skříně!! Tento příklad je ilustrací jednoho celkem logického principu: pokud naleznu hledaný předmět, určitě vím, že tam je. Ale pokud jej nenaleznu, může to znamenat buď že tam není, nebo že tam je, ale mé hledání nebylo dost důkladné (nemělo dostatečnou sílu). Testování hypotéz je také takovým hledáním - hledáme vliv jedné veličiny na druhou veličinu. Pokud nalezneme tento vliv (zamítáme Ho), víme „s jistotou" (na hladině významnosti a), že existuje. Pokud vliv nenalezneme, může to znamenat buď že tento vliv neexistuje, nebo že existuje, ale síla testu nebyla dostatečná pro jeho nalezení. Výsledek „zamítáme Hqu má docela pevný logický základ (pro a = 0,05 platí s pravděpodobností 95%). Ale říct v případě, kdy nebyla překročena kritická hodnota, že „Ho přijímáme" nebo „Ho platí", je příliš ukvapené, protože při důkladnějším hledání by se mohlo ukázat, že určitý vliv existuje, tj. H0 neplatí. Ustálilo se tedy rčení „nezamítáme Ho11, které odpovídá jisté opatrnosti v učinění konečného závěru. Fráze „nezamítáme Hqu je tedy opatrným vyjádřením, které je zcela na místě. Znamená to, že říkáme: „Výsledky testu nám neposkytují dostatečné důkazy k závěru, že Ho neplatí." K příkladu 11.4: Co by to znamenalo, kdyby pan Loftus provedl tak důkladné hledání, že by obrátil celý byt naruby, ale přesto brýle nenašel? Stále by existovala jistá malá šance, že je přehlédl v nějaké zapadlé škvíře, ale protože je nenašel, bylo by rozumné koupit nové. Podobně i experiment provedený v úžasné síle a rozsahu, pokud neprokáže vliv nezávislé proměnné na závislou proměnnou, nás vede k závěru, že „je rozumné přijmout H0íl. Příklad 11.5 Chceme otestovat kvalitu jisté techniky pamatování. Vybereme náhodně dvě skupiny lidí. Oběma skupinám je předložen jistý počet navzájem nesouvisejících slov k zapamatování (například 20 slov). Poté jsou lidé z první skupiny okamžitě vyzkoušeni, kolik slov si zapamatovali. Lidé ze druhé skupiny jsou vyzkoušeni až o týden později. Cili nezávislou proměnnou je doba pamatování, závislou proměnnou je počet zapamatovaných slov z daných dvaceti. Stanovíme hypotézy testu: Ho', počet zapamatovaných slov nezávisí na době pamatování (technika zapamatování byla tak dobrá, že po týdnu si pamatuji stejně dobře jako po bezprostředním naučení slov). MA 0008 - Teorie pravděpodobnosti 91 Him. počet zapamatovaných slov závisí na době pamatování (= době držení slov v paměti). Pokud v testovaných skupinách bude například jen v každé pět lidí a vliv se neprokáže, můžeme uzavřít, že Hq platí, tj. že technika učení je vynikající? Asi ne, protože právě zde bychom se mohli dopustit té chyby, že jsme vliv nenašli, i když je možné, že existuje. Na druhé straně pokud by v každé z testovaných skupin bylo 10000 lidí a stále by se neprokázala existence závislosti, závěr „Ho platí" by asi byl docela rozumný. Poznámka B) Snížení rozptylu zvyšuje sílu testu V příkladu 11.5 lze vidět jednu celkem přirozenou skutečnost, že totiž výpovědní síla statistického testu se zvyšuje se zvýšením počtu měření. Pro připomenutí síla testu je pozitivní pojem - je to pravděpodobnost, se kterou správně zamítneme Ho, pokud platí H\. Je to tedy jakási síla nalezení vlivu mezi proměnnými testu. Na tuto sílu má především vliv rozptyl u^-neboli Cokoli, co snižuje rozptyl a^, zvyšuje současně i sílu testu. Jedním činitelem je počet měření N - je vidět ze vzorce, že pokud zvyšujeme N, zvyšuje se hodnota jmenovatele ve zlomku, a tím klesá hodnota rozptylu. Další možností, jak snížit rozptyl, je snížit přímo hodnotu rozptylu a2 celé populace v čitateli zlomku. Pokud si říkáte, že a2 je dáno a nelze je přece měnit, máte pravdu. Ale stejně některé vlivy na rozptyl a2 celé populace můžeme vyloučit vhodným naplánováním experimentu. Příklad 11.6 Experimentem se má zjistit, zda alkohol v krvi má vliv na reakční dobu řidiče. Náhodně byly vybrány dvě skupiny lidí. První skupině je nabídnut alkohol ve formě ginu s tonikem, druhé skupině pouze tonik. Pak jsou všichni podrobeni měření reakční doby. Testovaný člověk sedí u stolu a před sebou má lampu s červenou žárovkou a tlačítko. Lampa se rozsvěcuje v různých nepravidelných intervalech - jakmile se rozsvítí, je úkolem testovaného co nejrychleji stisknout tlačítko. Je změřena jeho reakční doba (v milisekundách). U každého člověka se měření několikrát opakuje, a pak je vypočten průměr jeho reakční doby. Samozřejmě uvnitř každé ze skupin se projeví určitá variabilita v průměrné době reakce. Ta je dána různými faktory, z nichž některé nemůžeme ovlivnit, ale jiné ano. Mezi neovlivnitelné faktory patří: 1. Nálada člověka během měření (špatná nálada = delší doba reakce). 2. Osobní předpoklady - někdo má prostě schopnost rychlejší reakce než ostatní. 3. Postoj člověka vůči experimentu (znuděný postoj = delší doba reakce). Mezi ovlivnitelné faktory lze zahrnout .2 4 N 1. Teplotu v místnosti, kde se provádí měření (extrémní teploty => delší doba reakce). 92 Katedra matematiky PedF MUNI v Brně 2. Vlhkost v místnosti, kde se provádí měření (vyšší vlhkost => delší doba reakce). 3. Pohlaví (u žen ... kratší doba reakce). 4- Věk (vyšší věk ... kratší doba reakce). 5. Cas dne (měřenípozdě odpoledne ... delší doba reakce). Některé faktory rozptylu hodnot můžeme významně ovlivnit - jak výběrem sledované populace (omezení se na stejné pohlaví a věk eliminuje rozdíly způsobené těmito faktory), tak zajištěním stejných podmínek měření (stálá vlhkost a teplota místnosti, měření u všech ve stejnou denní dobu). Tímto způsobem plánování a provedení experimentu pak následný statistický test získá větší výpovědní sílu v těch parametrech, které jsou pro nás důležité, a není zkreslen rozdíly v těch ovlivnitelných faktorech, které nás nezajímají. 11.4 Interval spolehlivosti pro střední hodnotu \x Kromě statistických testů jsou při zpracování měření často užitečnější tzv. intervaly spolehlivosti. V této fázi výkladu se seznámíme s intervalem spolehlivosti pro střední hodnotu EX = /i průměru z normálního rozdělení. 11.4.1 Interval spolehlivosti pro ji při známém rozptylu Střední hodnotu /i měřené veličiny obyčejně neznáme. Kdybychom ji znali, nemusíme provádět ani měření, ani statistický test Určit /i je v podstatě naším cílem. Jakýmsi odhadem střední hodnoty je výběrový průměr X. Ovšem tento průměr (zejména při nižším počtu měření N) není přesně roven střední hodnotě /i - vlastně víme, že platí P{X = /i) = 0. Potřebovali bychom spíše najít nějaký interval (X — a; X + a) pro nějaké vhodné a „ne příliš velké" a > 0. A to bude vlastně interval spolehlivosti pro střední hodnotu ji. Přesněji řečeno, r%-ní interval spolehlivosti pro střední hodnotu ji průměru X je takový interval, který obsahuje ji s pravděpodobností r 100* Příklad 11.7 Životnost 75-wattové žárovky má normální rozdělení se směrodatnou odchylkou o = 25 hodin. U náhodně vybraného vzorku dvaceti žárovek byla naměřena průměrná životnost x = 1024 hodin. Utvořte 95%-ní interval spolehlivosti pro střední hodnotu ii průměrné životnosti. Řešení tohoto příkladu je instruktivní, proto si dovolím vypnout kurzívu (:-)). Každý interval spolehlivosti je velmi úzce svázán se statistickým testem. Budeme se zabývat zejména oboustrannými intervaly spolehlivosti, proto v našem příkladu je zde vazba na oboustranný U-test s hypotézami H0: ji = Ho (skutečnou střední hodnotu yU0 neznáme). MA 0008 - Teorie pravděpodobnosti 93 Pokud hledáme 95%-ní interval spolehlivosti, je příslušná hladina významnosti a = 0,05. Kritériem testu je výběrový průměr X. Dále vezmeme v úvahu počet měření pro výpočet průměru: a 25 = 5,59. Jak je dobře známo ze BMA3, příslušné kritické hodnoty v tomto případě jsou usl = —1,96, iíi_2l = 1,96. 2 ' ' 2 ' Obě tyto hodnoty lze převést na kritické hodnoty vzhledem k veličině X: -1,96 = Xm xm = iA0 - 1,96 • 5,59 = ii0 - 10,96; 5,59 1,96 = Xv xv = iA0 + 1,96 • 5,59 = ^ + 10,96. 5,59 Interval pro „nezamítnutí Hqu je pak ~X G (/j-o — 10,96; jiQ + 10,96). (H-14) Ovšem hodnotu /i0 neznáme. Ale pokud ze vzorce 11.14 vyjádříme místo X hodnotu lio, dostaneme vztah pro interval spolehlivosti: /j-o G (X — 10,96; ~X + 10,96) . (11.15) Odtud pro jednu realizaci x = 1024 dostaneme Vo G (1024 - 10,96; 1024 + 10,96) = (1013,04; 1034,96), se spolehlivostí 0,95, což je odpověď příkladu 11.7. Obecně s využitím symetrie u°l = —-Ui_a 2 2 lze (1 — a) ■ 100%-ní interval spolehlivosti pro střední hodnotu ji při známém rozptylu psát ve tvaru li G (X - iíi_| • <7T;X + • aY) ■ (11.16) V některé literatuře se objevuje kromě pojmu „interval spolehlivosti" ještě pojem „konfidenční interval" - to je jen nesprávný (nebo jiný) překlad anglického termínu „confidence interval", ale jedná se o totéž (překladatelé se zase jednou nedomluvili ... :-)). Pojem intervalu spolehlivosti úzce souvisí se silou příslušného statistického testu - jak už to vyplývá ze vzorce 11.16, čím větší je síla příslušného statistického testu, tím menší je rozptyl cr^, a tím užší je interval spolehlivosti. 94 Katedra matematiky PedF MUNI v Brně 11.4.2 Interval spolehlivosti pro [i při neznámém rozptylu Příklad 11.8 Uvažujme stejnou situaci jako v příkladu 11.7 (N = 20, x = 1024J, pouze odchylka a není známá a musíme ji odhadnout - tedy z měření životnosti u dvaceti žárovek byl vypočten rozptyl s2 = 625. Odtud esto% = — = — = 31,25. Tedy esta^ = \/31,25 = 5,59 - toto číslo je stejné jako v příkladu 11.7, ovšem nyní se nejedná o přesnou hodnotu, ale odhad, čili zde bude v = N — 1 = 19 stupňů volnosti odhadu. Nalezněte 95 %-ní interval spolehlivosti pro střední hodnotu /i výběrového průměru x. s2 625 V příslušném statistickém testu použijeme nyní r-rozdělení - nalezneme kritické hodnoty pro oboustanný test (a = 2q = 0,05) a pro v = 19 stupňů volnosti (tabulka 11.11): tv = 2,093, odtud tm = -2,093. Hypotézy H0, H\ a kritérium oboustranného testu zde zůstávají stejné jako v 11.7: Ho : ii = hq, H\ : /i ^ /io, kritériem je výběrový průměr x. Přepočteme nyní kritické hodnoty vzhledem k veličině x: -2,093 = Xm xm = /Iq - 2,093 • 5,59 = /i0 - 11,7; 5,59 2,093 = Xv ~ ^° ^ = ^0 + 2,093-5,59 = ^0 + 11,7. 5,59 Nyní interval pro „nezamítnutí Hqu je ~x G (no — 11,7; no + 11,7), (11.17) nás ovšem zajímá spíše tvar (rychle jej naň převedem) /j-o G (x — 11,7; ~x + 11,7) . (11.18) Odtud pro příklad 11.8 se spolehlivostí 0,95 a realizaci (= konkrétní měření) průměru x = 1024 dostaneme li0 G (1024 - 11,7; 1024 + 11,7) = (1012,3; 1035,7), Vidíme, že při větší míře nejasnosti, kdy rozptyl neznáme a musíme jej odhadnout, je interval spolehlivosti širší (ostatní hodnoty v příkladech 11.7 a 11.8 jsou stejné, takže lze opravdu provést porovnání). Obecně s využitím symetrie MA 0008 - Teorie pravděpodobnosti 95 lze (1 — a)-100%-ní interval spolehlivosti pro střední hodnotu ji při neznámém rozptylu psát ve tvaru 11.4.3 Několik důležitých poznámek k intervalům spolehlivosti Následuje několik poznámek k intervalům spolehlivosti, každá z nich je důležitější než ty ostatní ... :-) a) Vztah mezi intervalem spolehlivosti a pravděpodobností. Je potřeba říci něco velmi důležitého k formulaci „95%-ní interval spolehlivosti pro střední hodnotu ji obsahuje tuto hodnotu s pravděpodobností 0,95". Věta je vyslovena správně ale může být zavádějící - a problém pochopení souvisí s pojmem statistika a realizace statistiky (viz definice 11.2). Interval spolehlivosti je totiž vlastně intervalem, jehož mezemi jsou náhodné veličiny. A pak pro konkrétní měření dosadíme do vzorců 11.16, 11.19 konkrétní realizaci x. Třeba v příkladu 11.7 interval (1013,04; 1034,96) neznámou střední hodnotu ji buď obsahuje (stoprocentně), nebo neobsahuje (stoprocentně). Souvislost s pravděpodobností se projeví pouze při opakovaném měření a opakované konstrukci realizace intervalu spolehlivosti: pokud bychom například tisíckrát zopakovali experiment změření životnosti u dvaceti žárovek, spočetli tisíc různých realizací x~i, x2..., äfiooo a sestrojili tisíc různých realizací intervalu spolehlivosti podle vzorce 11.16, tak přibližně 95% těchto intervalů (tj. asi 950 z nich) bude neznámou hodnotu /i obsahovat, zbylých pět procent ji obsahovat nebude. V dalších výpočtech realizací intervalů spolehlivosti pro x budu slovo „realizace" vynechávat, takže pojem interval spolehlivosti se středem v X (středem intervalu je nikoli konkrétní hodnota, ale náhodná veličina) bude splývat s pojmem realizace intervalu spolehlivosti se středem v x (středem intervalu je konkrétní číslo). Matematicky je mezi těmito dvěma pojmy rozdíl, ale v praxi pod intervalem spolehlivosti máme na mysli vždy konkrétní interval vypočtený na základě měření. b) Jednostranné intervaly spolehlivosti. Pozorný čtenář by možná mohl položit otázku: no dobrá, oboustranný interval spolehlivosti odpovídá jistému oboustrannému statistickému testu (příklad 11.7) - pokud se ale týká jednostranných testů (například test grafické iluze 11.3), existuje také u nich nějaký analogický jednostranný interval spolehlivosti? Odpověď zní „ano, existuje". Jeho odvození je analogické, proveďme jej například pro data testu grafické iluze 11.3: (11.19) !!!! :-) 96 Katedra matematiky PedF MUNI v Brně Ho : /i = /io, Hi : /i > /io, kritériem je X, kritickou hodnotu použijeme přesně tu stejnou jako v daném pravostranném testu: tk = 2,132. Převodem normovaného tvaru kritické hodnoty do tvaru aktuálního vzhledem k veličině X dostaneme 2,132 = Xk ~ ^° =>šfe = /io + 2,132-l = /i0 + 2,132; tedy interval pro „nezamítnutí Hqu je X G (-oo^o+ 2,132), (11.20) ale protože nás zajímá spíše interval pro /io, tak z tohoto vztahu vyjádříme ohraničení pro /io a index 0 vypustíme: ji G [X — 2,132; oo) = (5,868; oo) (11.21) a to je hledaný interval se spolehlivostí 0,95. Vidíme, že oboru 11.20 pravostranného testu odpovídá levostranný interval spolehlivosti 11.21. I když jsou tedy jednostranné intervaly spolehlivosti zcela přirozené a možné, v dalším textu se na ně nebudeme příliš zaměřovat - spíše nás bude zajímat vymezení pro /i na intervalu konečné délky. Tedy i když budeme provádět jednostranné statistické testy, intervaly spolehlivosti budeme hledat na základě příslušného oboustranného testu se stejnou hladinou významnosti. Tak tedy i v příkladu 11.3 lze sestrojit oboustranný interval spolehlivosti: Pro u = 4 je kritická hodnota rovna íi_Mž(4) = 2,776; 2 Pak (vzorec 11.19): /i G (8 - 2,776 • 1; 8 + 2,776 • 1) = (5,224; 10,776). c) Vztah mezi intervalem spolehlivosti a statistickým testem. Mezi výsledkem statistického testu a intervalem spolehlivosti existuje jednoznačný vztah: Statistický test zamítne hypotézu Ho : \i = Ho právě tehdy, když /io nenáleží do příslušného intervalu spolehlivosti Třeba pokud bychom v situaci příkladu 11.7 testovali hypotézu Ho : \i = 1000, místo abychom prováděli test, stačí se podívat na příslušný interval spolehlivosti oboustranného testu: 1000 ^ (1013,04; 1034,96), tj. to znamená, že příslušný MA 0008 - Teorie pravděpodobnosti 97 statistický test zamítne hypotézu Ho- Nebo podíváme-li se na příklad pravostranného testu 11.3, kde Ho : \i = 6, vidíme, že 6 G (5,868; oo) (levostranný interval spolehlivosti vypočten v předchozí poznámce b)), tj. to znamená, že hypotéza Ho příslušného jednostranného testu nebude zamítnuta. d) Interval spolehlivosti uvádí více informací než statistický test. Omlouvám se za další členění, ale budu prezentovat tuto poznámku ve čtyřech myšlenkách: 1. Výsledek statistického testu není přesně to, co bychom chtěli znát. Ve skutečnosti chceme znát míru platnosti hypotézy H±, je-li dán výsledek experimentu - ovšem místo toho se ze statistického testu dovídáme pravděpodobnost výsledku experimentu za předpokladu platnosti hypotézy Ho (a stále neznáme míru platnosti Hi, a to ani v případě, kdy je Hq zamítnuto). 2. Statistický test nám ve svém výsledku nedává informaci o rozsahu studovaného vlivu, kdežto interval spolehlivosti ano. Informace o umístění střední hodnoty ji je ve statistických testech, které jsme dosud prováděli, skryta, ale interval spolehlivosti činí tuto informaci zjevnou a překládá ji do srozumitelného měřítka. Například test 11.3 pouze prohlásí, že se nenašlo dostatek důkazů pro vliv grafické iluze na \i. Ale interval spolehlivosti (nyní už spíše ten oboustranný, tj. pro a = 0,05 byl odvozen v poznámce b)) (5,224; 10,776) navíc naznačuje, že se spolehlivostí 0,95 by střední hodnota místo šesti mohla být stejně dobře rovna i osmi nebo deseti, ale už ne jedenácti nebo dvanácti. Statistický test zdůrazňuje chybu prvního druhu, ale říká velmi málo o chybě druhého druhu. Na druhé straně interval spolehlivosti naznačuje i chybu druhého druhu - pokud a necháme pevné a zmenšujeme /3, tak interval spolehlivosti zmenšuje svou délku. Závěr: Z uvedených důvodů je lepší používat intervaly spolehlivosti spíše než jen pouhé testování hypotéz. Někdy statistické zpracování v literatuře příliš zdůrazňuje testy a zapomíná dodat užitečné informace navíc, které lze snadno vyčíst z intervalů spolehlivosti. 11.5 r-test typu ,,/íi = fi2u 11.5.1 Párový test V tomto oddílu se budeme zabývat statistickými testy při experimentech, kde získáváme dva soubory měření. Zde je potřeba si dát pozor na vztah mezi těmito dvěma soubory (= skupinami) měření, na základě tohoto vztahu rozlišujeme totiž dva typy statistického testu - párový a nepárový test. Párovým testem se budeme zabývat nejdříve - spočívá 98 Katedra matematiky PedF MUNI v Brně v tom, že sice získáme dvě skupiny (= dva soubory) měření, ale tyto soubory jsou navzájem těsně svázány v tom smyslu, že ke každé hodnotě v prvním souboru měření lze jednoznačně přiřadit tzv. párovou hodnotu měření ze druhého souboru. Zejména to taky znamená, že počet měření v obou souborech je stejný - a v podstatě bychom mohli říct, že místo dvou souborů měření máme jediný soubor, ve kterém jedna položka je reprezentována uspořádanou dvojicí hodnot. Párový test tedy užijeme v situaci, kdy sice máme k dispozici dva soubory měření, ale tyto dva soubory měření jsou spolu těsně svázány - obyčejně tak, že v obou skupinách jsou hodnoceni stejní jedinci; nejprve provedeme měření vybrané skupiny jedinců za systému podmínek A, a pak provedeme měření téže skupiny jedinců za systému podmínek B. Proto se tomuto typu experimentů také říká experiment opakovaného měření. Další vhodný název je zde experiment typu „jedna skupina dvakrát", protože jedna skupina jedinců je podrobena měření při dvou různých situacích. Příklad 11.9 Chceme experimentem zjistit, jak se změní počet úderů srdce člověka za minutu po vypití šálku kávy (studujeme vliv kofeinu na činnost srdce). Kdybychom k tomuto experimentu přistupovali „nepárovým" přístupem a vybrali náhodně dvě skupiny lidí, z nichž jedna by vypila kávu s kofeinem a druhá kávu bez kofeinu, do měření by byl zanesen jistý rozptyl způsobený tím, že tempo srdečních úderů se liší u různých lidí. Mnohem vhodnější je zde experiment opakovaného měření, kdy jedna a táž skupina vybraných lidí je vystavena měření po kávě bez kofeinu, a pak po kávě s kofeinem. Potom se vypočte rozdíl obou hodnot vždy u téhož člověka a testuje se, zda je tento rozdíl významný. Byla získána následující data počtu srdečních úderů za minutu u devíti lidí (na každém řádku jsou hodnoty měření jednoho člověka): Xn bez kofeinu xi2 s kofeinem rozdíl xl2 — Xn 70 76 6 60 61 1 49 52 3 72 71 -1 70 81 11 66 70 4 55 55 0 54 61 7 80 89 9 První dva sloupečky tabulky představují dva soubory měření párového testu. My ovšem budeme dále pracovat jen s jednorozměrným souborem, a sice s vektorem rozdílů měření ve třetím sloupci. To znamená, že párový test vlastně odpovídá situaci jednorozměrného souboru měření (= oddílu 11.2). MA 0008 - Teorie pravděpodobnosti 99 Spočteme průměr x = 4,44 a odhadneme rozptyl pomocí s2. Aby čtenář neměl pocit, že v oddílu 11.5 nebude vzhledem k 11.2 nic nového, vypočteme s2 pomocí pátého možného vzorce, který jsme si ještě neuváděli: _ q q S2 = — (11.22) v (ono se vlastně jedná o vzorec 11.12, ovšem ve jmenovateli vzorce je v místo N — 1). Dále do čitatele za SS dosadíme ze vzorce 11.11, který zkombinujeme s nejpohodlnějším způsobem výpočtu 11.8: n SS = N-S2 = [^X2 čili pak pro realizaci ss platí ,i=i N ,i=i a po dosazení 402 ss = 314--= 136,22. 9 Počet stupňů volnosti pro odhad rozptylu je is = N — 1 = 8, a tedy — ss s2 = — = 17,03. v a) Sestrojme nyní 95%-ní interval spolehlivosti pro ji: tk najdeme jako průsečík řádku v = 8 a sloupce 2q = a = 0,05 (oboustranný interval spolehlivosti vychází z oboustranného testu): tk = 2,306. Pak interval pro ji se spolehlivostí 0,95 je s2 /17 03 x ± \ — ■ tk(is = 8) = 4,44 ± a/—!— • 2,306 = (1,27; 7,61). I JV V 9 Z tohoto intervalu spolehlivosti se dovídáme, že kofein zvyšuje činnost srdce, a sice o 1,27 až o 7,61 úderů za minutu. b) Provedeme i statistický r-test: (Kl) Hq. ii = 0 (rozdíl hodnot je nulový, tj. počet úderů srdce za minutu je stejný s kofeinem i bez kofeinu - srdeční tep nezávisí na kofeinu); Hi. /i^0. (K2) Testovým kritériem bude výběrový průměr X, respektive jeho normovaná hodnota -4^. 100 Katedra matematiky PedF MUNI v Brně (K3) s2 = 17,03 s2 17 03 est o\ = — = = 1,89 est = A/b89 = 1,37. x N 9 XV' Tj. za předpokladu platnosti Hq má veličina Studentovo ŕ-rozdělení s z/ = 8 stupni volnosti. (K4) tk = ±2,306 je u oboustranného testu stejné jako u intervalu spolehlivosti a). (K5) Příslušná ŕ-hodnota je 4,44 - 0 --= 3,24 > 2,306, 1,37 a tedy zamítáme Ho o nezávislosti, je potvrzen vliv kofeinu na zvýšení srdečního tepu. Hypotézy Ho nejsou pravdivé téměř nikdy (pokud uvažujeme větší počet desetinných míst), tj. zamítnutí Ho nám nie podstatného neříká. Spíše nás zajímalo, jak velký je vliv kofeinu, a to jsme se dozvěděli z intervalu spolehlivosti. 11.5.2 Nepárový test Nyní se pojďme věnovat nepárovému testu neboli zpracování dat při experimentu typu „dvě skupiny jednou". Příklad 11.10 Chceme zjistit kvalitu jisté techniky pamatováni. Náhodně jsme vybrali deset lidi a rozdělili do dvou skupin po pěti lidech. Skupina 1 (tzv. experimentálni skupina) se naučila 100 zadaných slov novou technikou, skupina 2 (kontrolní skupina ... zažitý nesprávný překlad anglického „control group", správný význam překladu je „řízená skupina", protože „control" = řídit, vést, nikoli kontrolovat) použila obyčejnou klasickou techniku zapamatování. Po týdnu se vyzkouší, kolik si kdo pamatuje z daných 100 slov -jsou získána data experimentální skupina kontrolní skupina 43 16 37 22 51 24 27 30 32 18 Nyní data na jednom řádku spolu nijak nesouvisí, jedná se o měření u dvou různých lidí. Zdá se, že experimentální skupina má lepší výsledky, ale musíme statisticky prokázat, že to není způsobeno pouze náhodnými vlivy. V každé ze skupin vypočteme průměr a odhadneme rozptyl. MA 0008 - Teorie pravděpodobnosti 101 skupina 1: x\ = 38, podle vzorce 11.23 ssi = 352, v\ = 4, a tedy podle 11.22 esíi a2 = s\ = — = 88. skupina 2: x2 = 22, podle vzorce 11.23 ss2 = 120, v2 = 4, a tedy podle 11.22 esŕo c2 = Sn = -——' = 30. 2 4 No a teď přicházíme k úvahám, které jsou pro další vývoj (i další kapitolu) důležité. V situaci experimentu typu „dvě skupiny jednou" je potřeba se vypořádat se dvěma typy rozptylu, kterými jsou - vnitřní rozptyl a vnější rozptyl. vnitřní rozptyl: Jedná se o rozptyl představující vzájemnou rozdílnost jedinců v celé populaci (např. rozdílnost lidí, rozdílnost různých součástek stejného typu, apod.). V tomto textu se budeme převážně zabývat situacemi, kdy je splněn tzv. princip homogenního vnitřního rozptylu: jakýkoliv experiment nemá vliv na rozptyl rozdělení celé populace, z níž byla náhodně vybrána skupina jedinců pro měření. Slovy našeho příkladu, rozdílnost výsledků esti způsobená růzností lidí ve skupině 1 je přibližně stejná jako rozdílnost výsledků est2 způsobená růzností lidí ve skupině 2. Jinak řečeno, ať už měříte daný soubor měření za jakékoli podmínky, „rozmanitost" těchto měření jev dané skupině přibližně stejná. Z Tohoto principu homogenního rozptylu tedy plyne, že odhady esŕi, est2 jsou odhady jednoho a stejného vnitřního rozptylu a2 (díky tomu jsem u písmenka o o pár řádků výše už nepsal žádný index), který vypočteme jako aritmetický průměr obou odhadů: 2 esti a2 + est2 a2 88 + 30 est o =-=-= 59. 2 2 Tedy nejlepší možný odhad vnitřního rozptylu a2 je roven 59 a v dalším budeme pracovat s ním. Počet stupňů volnosti je v = 4 + 4 = 8, protože jsme tento odhad získali pomocí dvou jiných odhadů o počtu stupňů volnosti 4 - stupně volnosti ve výsledném odhadu sečítáme. vnější rozptyl: Jedná se o rozptyl vyjadřující rozdílnost mezi danými podmínkami měření. Tento rozptyl v případě dvou souborů měření lze odhadnout na základě průměrů xi = 38, x2 = 22. Způsob je následující: Vypočteme rozptyl těchto dvou průměrů podle vzorců 11.23 a 11.22: Protože v = 2 — 1 = 1, máme ss 382 + 222 - ^ est rN = Y = -1- = 128- Ale to ještě není všechno - tento odhad je odhadem rozptylu průměru pěti hodnot (N = 5). Abychom získali odhad rozptylu jediné hodnoty měření, musíme v souladu se vzorcem est = ^r1 (analogie vzorce 11.13) počítat est r = N ■ est rN = 5 • 128 = 640. 102 Katedra matematiky PedF MUNI v Brně celkový rozptyl: Aby byla plejáda přehledu rozptylu úplná, je možné si položit následující otázku - co se vlastně spočítá, když budeme považovat všech deset hodnot za měření jediné veličiny a vypočteme s2 ze všech deseti měření? Podle logiky výpočtu by to měl být jakýsi celkový rozptyl - a skutečně je tomu tak. Průměr všech deseti hodnot je x = 30, což je mimochodem aritmetický průměr hodnot xi, x2. Bude tedy podobně hodnota s2 průměrem hodnot s2^, s2.? Podle vzorce 11.23 ss = 1112, a tedy podle 11.22 ss 1112 s2 = — =-= 123,56, v 9 což není hodnota rovná součtu s\ + s\ = 88 + 30 = 118. Ještě méně se zdá, že by odhad celkového rozptylu 123,56 byl součtem odhadu vnitřního rozptylu 59 a odhadu vnějšího rozptylu 640 - ale přesto zde platí jisté součtové vzorce: a) Celkový počet stupňů volnosti 9 u odhadu celkového rozptylu je součtem volnosti 8 u odhadu vnitřního rozptylu a volnosti 1 u odhadu vnějšího rozptylu. b) Celkový součet čtverců 1112 je součtem součtu čtverců 472 vnitřního rozptylu (který vznikl součtem ssi = 352 a ss2 = 120) a 640 u vnějšího rozptylu. Tolik přehled a jemné intro do problematiky rozptylu - více na to téma nebude prostor, ale čtenáři by se s tématem setkali při už zmiňované analýze rozptylu (ANOVA), která se používá až tehdy, když skupiny měření jsou tři a více. Nyní se vraťme k řešení našeho příkladu. Odhad vnitřního rozptylu je est a2 = 59, odtud odhad rozptylu průměru 59 estery = — = 11,8. x 5 Nyní lze užitím 11.19 určit např. 95 %-ní interval spolehlivosti pro střední hodnotu průměru v každé ze skupin měření: Pro tkiu = 8; a = 2q = 0,05) = 2,306 /ii G 38 ± ^/lÄ~8 ■ 2,306 = (30,08; 45,92), li2 G 22 ± y/llč ■ 2,306 = (14,08; 29,92). V souvislosti se statistickým testem tohoto příkladu nás ovšem spíše zajímá interval spolehlivosti pro střední hodnotu veličiny X± — X2. Střed intervalů spolehlivosti bude v tomto případě x~[ — ~x^ = 38 — 22 = 16, odhad rozptylu je est a^rr- -^r- = est a^r- + est a^r- =--1--= 23,6. Ai— A2 Ai 2 5 5 Tedy pro tk{v = 8; a = 2q = 0,05) = 2,306 £ti - \±2 G 16 ± y/23ß ■ 2,306 = 16 ± 11,2 = (4,8; 27,2). MA 0008 - Teorie pravděpodobnosti 103 Protože výsledný interval spolehlivosti pro rozdíl středních hodnot neobsahuje nulu, víme také, že příslušný statistický test zamítne hypotézu Hq : \i\ = /i2- A skutečně, pojďte se přesvědčit: (Kl) Ho: \i\ = /i2 (střední hodnoty obou skupin ohodnocení jsou stejné, tj. nová technika zapamatování ovlivňuje výsledek přibližně stejně jako ta dřívější). H±: \i\ 7^ Ii2 (nová technika zapamatování má přibližně stejné výsledky jako dřívější technika). (K2) Testovým kritériem bude rozdíl X± — A~2. (K3) Při platnosti Ho má veličina Studentovo t-rozdělení pro u = 8. (K4) Pro a = 0,05 příslušná kritická hodnota tk je na průsečíku řádku u = 8 a sloupce pro a = 2q = 0,05, tj. tk = 2,306. (K5) 34g5g2 = 3,29 ^ {—tk',tk). Ho tedy zamítáme - nová technika významně zvyšuje úroveň zapamatování. Příklad 11.11 Psychologové fyziologie chtějí experimentem ověřit, že podvěsek mozkový je hlavním řídícím centrem sexuálního chování. Rozhodli se získat dvacet dobrovolníků z řad studentů, kteří by se chtěli podrobit operaci mozku. Protože žádní dobrovolníci se nepřihlásili (zejména do experimentální skupiny), byly náhodně vybrány dvě skupiny po deseti krysách. Krysám z experimentální skupiny byl operací odebrán podvěsek mozkový. Krysám z kontrolní skupiny byla pouze otevřena lebka, ale nic nebylo odebráno (aby byl snížen rozptyl způsobený otevřením lebky). Protože operaci prováděl nezkušený operatér, některé z krys zahynuly přímo na operačním stole. V experimentální skupině přežilo pět krys, v kontrolní skupině sedm. Psycholové byli rozmrzelí nad nezkušeným studentem, ale pokračovali dále v experimentu. Byla získána data o počtu pohlavních spojení v průběhu jistého časového intervalu. V experimentální skupině (Ni = 5): 0,1,4,4,1. Odtud ~x~\ = 2, ssi = ^xj — = 14, ľi = Ni - 1 = 4, pak s\ = ^ = % = 3,5. V kontrolní skupině (N2 = 7): 5, 7,4, 3,4, 6, 6. Odtud x~2 = 5, SS2 = ^2 x\ ~ ^n'^ = 12, 1y2 = N2-l = 6, pak4 = ^ = f = 2. Odhad vnitřního rozptylu: Podobně jako u předchozího příkladu (vyjdeme z platnosti principu homogenního rozptylu), i nyní vypočteme jakýsi jeden odhad rozptylu jako průměr odhadů s\, S2 - nebude se jednat ovšem o aritmetický průměr, ale o tzv. vážený průměr. X1-X2-O 104 Katedra matematiky PedF MUNI v Brně Protože odhad s2, byl sestaven na základě většího počtu stupňů volnosti (většího počtu měření), budeme mu přikládat větší váhu: est a2 = ^^-4 + ^^-4 (11.24) V\ + l>2 Vl + V2 V našem příkladu est a2 = ^ • 3,5 + ^ • 2 = 2,6. Pak intervaly spolehlivosti pro jednotlivé střední hodnoty a t^iu = 10, a = 2q = 0,05) = 2,228 jsou /ii G 2 ± J— ■ 2,228 = 2 ± 1,61 = (0,39; 3,61); V 5 li2 G 5 ± • 2,228 = 2 ± 1,36 = (3,64; 6,36). Intervaly nemají společný průnik, což znamená, že testovaná hypotéza o rovnosti středních hodnot bude zamítnuta. Dále je možné si všimnout, že interval spolehlivosti pro /i2 má menší délku než interval pro \i\ - to je dáno větším počtem měření ve druhé skupině, pak totiž ve druhé skupině při odhadu rozptylu průměru dělíme sedmi, nikoli pěti. V testu, který bude následovat, budeme používat rozdělení Xi—Xi. Pokud bychom chtěli najít 95 %-ní interval spolehlivosti pro rozdíl \i\ —112, použijeme střed x~[ — x~2~ = 2 —5 = —3 a odhad rozptylu 2 2 2 2,6 2,6 est o^r- -v- = est ov- + est o^r- =--1--= 0,891. X1—X2 Jíi 2 5 7 Pak ft-/i2G-3i ^0,891 • 2,228 = -3 ± 2,1 = (-5,1; -0,9). Příslušný statistický test: (Kl) H0: iii = 112 (odstranění podvěsku mozkového nemá vliv na sexuální chování); FL\: ii\ < /i2 (odstraněnípodvěsku mozkového povede ke snížení sexuální aktivity). (K2) Testovým kritériem bude veličina X± — Xi. (K3) Při platnosti H0 má veličina Xi — X2 — 0 Xi — X2 est a2^= Studentovo t-rozdělení pro u = 10. (K4) Pro a = 0,05 příslušná kritická hodnota je na průsečíku řádku u = 10 a sloupce pro a = q = 0,05, tj. tk = 1,812. Pozor, intervaly spolehlivosti budeme vždy konstruovat pro a = 2q, ovšem u jednostranného statistického testu musíme vzít hodnotu tk pro a = q\\ (K5) Odpovídající t-hodnota kritéria je ^~|Q1 = —3,178 ^ {—tk',tk). Hq tedy zamítáme. MA 0008 - Teorie pravděpodobnosti 105 11.6 Předpoklady použitelnosti parametrických testů Při odvozování testů (zejména r-testu - odvození je mimo rámec tohoto kursu) muselo být učiněno několi předpokladů: 1. Naměřené hodnoty xt jsou navzájem nezávislé (= předpoklad nezávislosti) -například předpoklad nezávislosti v příkladu 11.10 je porušen, pokud členové skupiny podvádějí a opisují jeden od druhého. 2. Měřená veličina má normální rozdělení (= předpoklad normality). 3. Rozptyl uvnitř experimentální skupiny je stejný jako rozptyl uvnitř kontrolní skupiny, tj. oba rozptyly jsou odhadem stejného (vnitřního) rozptylu a2 celé populace (= princip homogenního rozptylu). Testy, které splňují uvedené tři předpoklady, se nazývají parametrické testy. Pokud některý z předpokladů není splněn, kritérium použité v testu nemá rozdělení t (nebo U, pokud známe rozptyl a2), a tudíž nelze určit kritické hodnoty - pro srovnání středních hodnot se v tom případě užívají tzv. neparametrické testy. Na tu v tomto kursu už nebude moc prostoru - jsou to například Mannův-Whitneův test, Friedmanův test, Wilcoxonův test, znaménkový test, Kruskalův-Wallisův test, Spearmanův test korelace a další. Upíná diskuse použitelnosti parametrických testů U, t (a v následující kapitole testu F) je mimo rámec tohoto kursu. Ovšem následující poznámky mohou být důležitým vodítkem, který pro běžného „uživatele" statistiky dostačuje: a) Mějte se na pozoru pouze tehdy, když ŕ-hodnota kritéria je blízká hodnotě tk- Přepoklady by musely být porušeny velmi hrubě, aby například při jednostanném testu pro a = 0,05 kritická hodnota tk „usekla" ve skutečnosti významně více než 5% obsahu podgrafu hustoty t - i při porušených předpokladech tato kritická hodnota většinou usekne 6 nebo 7 procent, a nikoli třeba 15 procent obsahu. Proto pokud r-hodnota kritéria přesáhne hodnotu tk výrazně, je rozhodnutí zamítnout Hq celkem bezpečné. b) Zkontrolujte své rozdělení. Nákres histogramu rozdělení je užitečný jak pro ověření předpokladu normality, tak ověření principu homogenního rozptylu. c) Porovnejte s\ a s2.. pokud se hodnoty obou odhadů liší výrazně, znamená to porušení předpokladu homogenního rozptylu. Ale pokud podíl těchto odhadů je menší než 4 při přibližně stejné délce obou souborů měření, není třeba dělat paniku. d) Porušení předpokladů nemá takový dopad, pokud Ni > 20 a Ni = N2. e) Pozor na porušení měřítka. Některé proměnné jsou bezproblémové, např. X = průměrná rychlost (v km za hodinu), protože rozsah stupnice 10 až 20 km má stejnou váhu jako rozsah 70km až 80km. 106 Katedra matematiky PedF MUNI v Brně Ale existují pochybné proměnné v tom smyslu, že měřítko porušují - například Y = ohodnocení otázky v dotazníku počtem bodů ze stupnice 1 až 7. Zde totiž rozsah 3 až 4 body nemusí být ekvivalentní rozsahu stupnice 6 až 7 bodů. Taková stupnice je hodně subjektivní, nemá pevně vymezený absolutní přírůstek, a proto může vést ke zkreslenému tvaru rozdělení. f) Pokud některý z předpokladů je porušen do té míry, že U-test nebo ŕ-test nelze použít, je možné zkusit neparametrické testy. 11.7 Shrnutí Tato kapitola je klíčovou kapitolou z kapitol 10,11,12, protože obsahuje nejčastěji prováděný test porovnání dvou souborů měření - ŕ-test - a také odvozuje a ilustruje význam intervalů spolehlivosti. Úvodem v oddílu 11.1 jsou zopakovány některé vzorce, zejména vzorce pro X, S2 -a dále je vysvětlen a odvozen vzorec pro S2 jako nejlepší nestranný odhad neznámého rozptylu o2 normálního rozdělení. ŕ-test používáme v situacích analogických U- testu (= u veličiny s normálním rozdělením) s tím jediným rozdílem, že totiž není znám rozptyl a musíme jej odhadnout pomocí Pro odhad rozptylu průměru je důležitý zejména vzorec 11.13, na který je potřeba nezapomenout. Celá kapitola předpokládá, že čtenář už ví, co je to statistický test - přesto ty důležité informace ohledně statistických testů opakuje (poznámky 11.3 objasňují terminologii a otázku přístupu ke statistickému testu). Protože téměř všechno se vším souvisí, zamítne statistický test, který je dostatečně silný, hypotézu Ho prakticky vždy - z toho důvodu je někdy lepší hledat informace nikoli ve statistickém testu, ale v intervalu spolehlivosti (blíže viz poslední poznámku v 11.4.3). Vyvrcholením kapitoly jsou testy typu \i\ = /i2, které opět nemohou pozorného studenta překvapit, protože test podobného typu byl probrán v předchozí kapitole. Ovšem věcí novou je představení rozdílu mezi párovým a nepárovým testem. 11.8 Otázky k opakování U následujících výroků rozhodněte, zda se jedná o výrok pravdivý či nepravdivý. Otázka 11.1 Výběrový průměr X je nestranným a konzistentním odhadem parametru /i měření veličiny s normálním rozdělením. Otázka 11.2 Statistika S2 je nestranným a konzistentním odhadem parametru a2 měření veličiny s normálním rozdělením. Otázka 11.3 Kritická t- hodnota je blíže počátku než odpovídající (= pro stejnou hladinu významnosti sestrojená) kritická U-hodnota. MA 0008 - Teorie pravděpodobnosti 107 Otázka 11.4 Pro rostoucí počet stupňů volnosti graf hustoty t-rozdělení stále více splývá s grafem hustoty normovaného normálního rozdělení. Otázka 11.5 Je možné, že interval spolehlivosti pro střední hodnotu /i průměru X sestrojený na základě konkrétní realizace x tuto střední hodnotu vůbec neobsahuje. Otázka 11.6 Pokud hodnota /io nepadne do oboustranného intervalu spolehlivosti pro střední hodnotu /i průměru X, znamená to, že oboustranný test pro Ho : /i = /io tuto hypotézu Ho nezamítne. Otázka 11.7 Párovým testem je každý test typu /ii = /i2, který porovnává střední hodnoty dvou náhodných veličin. Otázka 11.8 Vnitřní rozptyl popisuje rozmanitost konkrétních jedinců v populaci - tato rozmanitost přitom nezávisí na podmínkách, při kterých je měření prováděno (je stejná u kontrolní skupiny i experimentální skupiny). Otázka 11.9 Celkový rozptyl je součtem vnitřního rozptylu a vnějšího rozptylu. Otázka 11.10 Při nestejných délkách obou souborů měření lze vnitřní rozptyl odhadnout jako aritmetický průměr rozptylů si, s2. jednotlivých souborů měření. Otázka 11.11 Existují situace, kdy neplatí princip homogenního rozptylu (rozptyl měření v kontrolní skupině je nesrovnatelně větší než rozptyl měření v experimentální skupině). Odpovědi na otázky viz 13.5. 108 Katedra matematiky PedF MUNI v Brně 12 Testy x2 (cní kvadrát), Mannův-Whitneyův test 12.1 Vlastnosti rozdělení %2 Uvažujme veličinu X s normálním rozdělením pravděpodobnosti No(n,a2). Víme, že veličina U = ^—^ má normované normální rozdělení No(0; 1). Jaké rozdělení má veličina (X -jz)2 y2 U2 = ^—f^l o Především můžeme říci, že hodnoty veličiny U2 jsou nezáporné. Dále víme, že asi 68% veličiny U leží v intervalu (—1; 1), tj. asi 68% veličiny U2 leží v intervalu (0; 1). Zkrátka a dobře, vlastnosti veličiny U2 lze odvodit z vlastností veličiny U. A protože se veličina U2 ve statistice hojně používá, dostala i své jméno: x2(l) ... čti: chĺ kvadrát o jednom stupni volnosti. Označení x2(l) naznačuje, že může nastat i více stupňů volnosti než jeden. A skutečně, pokud dvě hodnoty Ui, U2 veličiny U umocníme na druhou mocninu a sečteme, dostaneme obecně větší hodnotu než X2(l), označujeme ji x2(2) (veličina „chí kvadrát" se dvěma stupni volnosti): X2i2) = Ul + U22. Čili střední hodnota veličiny x2(2) je větší než střední hodnota veličiny X2(l). Obecně lze pak vyjádřit veličinu o n stupních volnosti: X2(n) = ^2 + ^22 + --- + ^2. Příklady %2 o různých stupních volnosti jsou na obrázku: MA 0008 - Teorie pravděpodobnosti 109 kde T je tzv. gama-funkce. Co se týká střední hodnoty a rozptylu rozdělení %2, vypočteme jen střední hodnotu, rozptyl uvedeme bez důkazu: E {X\n)} = E(U2 + U2 + • • • + U2) = 1 + 1 + • • • + 1 = n. Opravdu platí E(U2) = 1: e(?—?)2 = -■E(X-li)2 = -(EX2-2liEX + li2) = \ a J <7Z <7Z = \{EX2-2iř + iř) = —(o1 + iř-iř) = \. o o Pro výpočet EX2 jsme využili faktu, že o2 = DX = EX2 - E2X = EX2 - fi2, tj. EX2 = a2 + [i2. D{x2{n)} = 2n. Další důležitou vlastností je tzv. aditivita rozdělení %2, že totiž X2(m) + X2(n2) = X2{ni + n2), která v podstatě plyne z toho, že x2(n) = Y^™ U2. Podobně jako u jiných rozdělení, i zde byly kritické hodnoty rozdělení spočteny jednou provždy a seřazeny do tabulky, takže při konkrétním užívání kritických hodnot nemusíme počítat žádné nechutné integrály (kritické hodnoty viz tabulky 12.12, 12.13). Například pokud chceme určit kritickou hodnotu hk tak, že P(X2(10)>M = 0,05, tak ve druhé části tabulky najdeme hodnotu 18,307 na průsečíku řádku 10 a sloupce pro 0,05. Pokud hledáme dk tak, aby P(x2(10) < 4) = 0,05, tak v první části tabulky na průsečíku řádku 10 a sloupce 0,95 (protože v tabulce jsou kritické hodnoty uvedené pro pravou část podgrafu) najdeme hodnotu 3,94 (viz též obrázek): 110 Katedra matematiky PedF MUNI v Brně Tabulka 12.12: Kritické hodnoty jednostranného testu \2 ~ část 1. q ->■ v l 0,995 0,990 0,975 0,950 0,900 0,750 0,500 1 392,704-lCrlu 157,088-lCr9 982,069-10"y 393,214-10"s 0,0157908 0,1015308 0,454937 2 0,0100251 0,0201007 0,0506356 0,102587 0,210720 0,575364 1,38629 3 0,0717212 0,114832 0,215795 0,351846 0,584375 1,212534 2,36597 4 0,206990 0,297110 0,484419 0,710721 1,063623 1,92255 3,35670 5 0,411740 0,554300 0,831211 1,145476 1,61031 2,67460 4.35146 6 0,675727 0,872085 1,237347 1,63539 2,20413 3,45460 5,34812 7 0,989265 1,239043 1,68987 2,16735 2,83311 4,25485 6,34581 8 1,344419 1,646482 2,17973 2,73264 3,48954 5,07064 7,34412 9 1,734926 2,087912 2,70039 3,32511 4,16816 5,89883 8,34283 10 2,15585 2,55821 3,24697 3,94030 4,86518 6,73720 9,34182 11 2,60321 3,05347 3,81575 4,57481 5,57779 7,58412 10,3410 12 3,07382 3,57056 4,40379 5,22603 6,30380 8,43842 11,3403 13 3,56503 4,10691 5,00874 5,89186 7,04150 9,29906 12,3398 14 4,07468 4,66043 5,62872 6,57063 7,78953 10,1653 13,3393 15 4,60094 5,22935 6,26214 7,26094 8,54675 11,0365 14,3389 16 5,14224 5,81221 6,90766 7,96164 9,31223 11,9122 15,3385 17 5,69724 6,40776 7,56418 8,67176 10,0852 12,7919 16,3381 18 6,26481 7,01491 8,23075 9,39046 10,8649 13,6753 17,3379 19 6,84398 7,63273 8,90655 10,1170 11,6509 14,5620 18,3376 20 7,43386 8,26040 9,59083 10,8508 12,4426 15,4518 19,3374 21 8,03366 8,89720 10,28293 11,5913 13,2396 16,3444 20,3372 22 8,64272 9,54249 10,9823 12,3380 14,0415 17,2396 21,3370 23 9,26042 10,19567 11,6885 13,0905 14,8479 18,1373 22,3369 24 9,88623 10,8564 12,4011 13,8484 15,6587 19,0372 23,3367 25 10,5197 11,5240 13,1197 14,6114 16,4734 19,9393 24,3366 26 11,1603 12,1981 13,8439 15,3791 17,2919 20,8434 25,3364 27 11,8076 12,8786 14,5733 16,1513 18,1138 21,7494 26,3363 28 12,4613 13,5648 15,3079 16,9279 18,9392 22,6572 27,3363 29 13,1211 14,2565 16,0471 17,7083 19,7677 23,5666 28,3362 30 13,7867 14,9535 16,7908 18,4926 20,5992 24,4776 29,3360 40 20,7065 22,1643 24,4331 26,5093 29,0505 33,6603 39,3354 50 27,9907 29,7067 32,3574 34,7642 37,6886 42,9421 49,3349 60 35,5346 37,4848 40,4817 43,1879 46,4589 52,2938 59,3347 70 43,2752 45,4418 48,7576 51,7393 55,3290 61,6983 69,3344 80 51,1720 53,5400 57,1532 60,3915 64,2778 71,1445 79,3343 90 59,1963 61,7541 65,6466 69,1260 73,2912 80,6247 89,3342 100 67,3276 70,0648 74,2219 77,9295 82,3581 90,1332 99,3341 MA 0008 - Teorie pravděpodobnosti 111 Tabulka 12.13: Kritické hodnoty jednostranného testu \2 ~ část 2. q ->■ v l 0,250 0,100 0,050 0,025 0,010 0,005 0,001 1 1,32330 2,70554 3,84146 5,02389 6,63490 7,87944 10,828 2 2,77259 4,60517 5,99147 7,37776 9,21034 10,5966 13,816 3 4,10835 6,25139 7,81473 9,34840 11,3449 12,8381 16,266 4 5,38527 7,77944 9,48773 11,1433 13,2767 14,8602 18,467 5 6,62568 9,23635 11,0705 12,8325 15,0863 16,7496 20,515 6 7,84080 10,6446 12,5916 14,4494 16,8119 18,5476 22,458 7 9,03715 12,0170 14,0671 16,0128 18,4753 20,2777 24,322 8 10,2188 13,3616 15,5073 17,5346 20,0902 21,9550 26,125 9 11,3887 14,6837 16,9190 19,0228 21,6660 23,5893 27,877 10 12,5489 15,9871 18,3070 20,4831 23,2093 25,1882 29,588 11 13,7007 17,2750 19,6751 21,9200 24,7250 26,7569 31,264 12 14,8454 18,5494 21,0261 23,3367 26,2170 28,2995 32,909 13 15,9839 19,8119 22,3621 24,7356 27,6883 29,8194 34,528 14 17,1170 21,0642 23,6848 26,1190 29,1413 31,3193 36,123 15 18,2451 22,3072 24,9958 27,4884 30,5779 32,8013 37,697 16 19,3688 23,5418 26,2962 28,8454 31,9999 34,2672 39,252 17 20,4887 24,7690 27,5871 30,1910 33,4087 35,7185 40,790 18 21,6049 25,9894 28,8693 31,5264 34,8053 37,1564 42,312 19 22,7178 27,2036 30,1435 32,8523 36,1908 38,5822 43,820 20 23,8277 28,4128 31,4104 34,1696 37,5662 39,9968 45,315 21 24,9348 29,6151 32,6705 35,4789 38,9321 41,4010 46,797 22 26,0393 30,8133 33,9244 36,7807 40,2894 42,7956 48,268 23 27,1413 32,0069 35,1725 38,0757 41,6384 44,1813 49,728 24 28,2412 33,1963 36,4151 39,3641 42,9798 45,5585 51,179 25 29,3389 34,3816 37,6525 40,6465 44,3141 46,9278 52,620 26 30,4345 35,5631 38,8852 41,9232 45,6417 48,2899 54,052 27 31,5284 36,7412 40,1133 43,1944 46,9630 49,6449 55,476 28 32,6205 37,9159 41,3372 44,4607 48,2782 50,9933 56,892 29 33,7109 39,0875 42,5569 45,7222 49,5879 52,3356 58,302 30 34,7998 40,2560 43,7729 46,9792 50,8922 53,6720 59,703 40 45,6160 51,8050 55,7585 59,3417 63,6907 66,7659 73,402 50 56,3336 63,1671 67,5048 71,4202 76,1539 79,4900 86,661 60 66,9814 74,3970 79,0819 83,2976 88,3794 91,9517 99,607 70 77,5766 85,5271 90,5312 95,0231 100,425 104,215 112,317 80 88,1303 96,5782 101,879 106,629 112,329 116,321 124,839 90 98,6499 107,565 113,145 118,136 124,116 128,299 137,208 100 109,141 118,498 124,342 129,561 135,807 140,169 149,449 112 Katedra matematiky PedF MUNI v Brně 0,08- 0,06- 0,04- 0,02-0--0,02--0,04- 12.2 Využití rozdělení y2 12.2.1 Testování hypotézy a2 = konst Příklad 12.1 Zajímá nás, zda jistý výukový program je schopen naučit jisté partie aritmetiky při výuce na ZS. Může se totiž stát, že nadaní studenti budou chápat instrukce počítače, kdežto průměrní žáci budou mít potíže s programem komunikovat a naučí se méně, než by pochopili z výkladu živého učitele. Je známo, že rozptyl výsledků testu z aritmetiky při klasické výuce je a2 = 25. Pokud by naše obava byla oprávněná, rozptyl výsledků znalostí by byl při použití programu větší (nadaní žáci by byli lepší, průměrní žáci horší než obvykle). Byl proveden experiment, kdy deset žáků se podrobilo programové výuce. Výsledky znalostí (bodové ohodnocení) byly: 68, 90, 70, 91, 72, 80, 85, 82, 91, 95. Odtud 10 ^(x, - x)2 = 846,4 i a odhad est a2 = 94,04 populačního roptylu je mnohem větší než Oq = 25. Proveďte statistický test, který by potvrdil, že ke zvýšení rozptylu nedošlo náhodou. Kl: Hq\ rozptyl výsledků znalostí a2 nabytých počítačovú výukou je stejný jako rozptyl Oq = 25 při klasické výuce (tj. a2 = 25). H\. o2 25 (oboustranný test). K2: Ukazuje se (uvidíme v bodě K3), že vhodným kritériem testu je Aj • — XÝ'■ K3: Za předpokladu platnosti Hq má výraz • Y^i°{xí ~ x)2 rozdělení x2(9). Skutečně, dokažme tento fakt. Víme, že ■ Y^iixí ~ I1)2 m& rozdělení x2{n)i protože se jedná o součet n čtverců rozdělení U. Ovšem ji neznáme - jaký je tedy vztah mezi • Yli(xi ~ I1)2 a ~^ ' £Ío(zi-a02? Platí ,y^{xl—ji)2 = y~^(xt—x+x—ji) = ^^(xj—ji)2+2-^^(xj—x) ■ (x—ji)+^^(^_ i1)2 ■ stupeň volnosti 10 MA 0008 - Teorie pravděpodobnosti 113 A protože 2 • — x)- (x — ji) = 2(x — ji) ■ 'y^{xl — x) = 0, S =o ' dostaneme Máme tedy rovnici 'y^{xl — x)2 = 'y^{xl — x)2 + n ■ (x — ji)2, kterou vynásobením 4 lze převést na tvar CT0 XX^-yti)2 ^(Xj-X) (X ~ /i)2 ok o2 ži =X2(") =x2(i) To, že člen na levé straně má rozdělení x2(n), už bylo řečeno, člen na pravé straně má rozdělení X2(l), protože se jedná o druhou mocninu normovaného rozdělení průměru 2 x se střední hodnotou /i a rozptylem Dohromady tedy dostáváme to, co jsme chtěli spočítat a dokázat: = X\n)-x2H) = x\n-l). On K4: Pro a = 0,05 usekáváme na obou stranách hodnotu 0,025 z obsahu hustoty, tj. 4(9) = 2,70039 (na průsečíku řádku 9 a sloupce 0,975) a hk(9) = 19,0228 (na průsečíku řádku 9 a sloupce 0,025). K5: Po dosazení naměřených hodnot x% - x 846,4 o2 25 33,86 i (2,70039; 19,0228) => zamítáme H0, rozptyl je (bohužel) významně odlišný od 25, v našem případě významně větší. A to je tragédie počítačové výuky :-) V případě oboustranného testu - kdybychom neměli teoretický podklad, že rozptyl poroste, ale bylo by stejně možné, že třeba i klesne - bychom našli dvě kritické hodnoty na řádku 9, a sice Xm = 2,7 (ve sloupci 0,975) a Xv = 19,02 (ve sloupci 0,025) a Hq bychom zamítli na hladině významnosti a = 0,05, pokud by hodnota kritéria ležela mimo interval (2,7; 19,02). 114 Katedra matematiky PedF MUNI v Brně 12.2.2 Test druhu rozdělení — \2 test dobré shody Příklad 12.2 Rodičům se narodily už čtyři dcery, a přesto by si přáli i syna. Chystají se mít páté dítě s nadějí, že pravděpodobnost narození chlapce je 0,5 (tj. že rození dětí má podobný charakter - co se týká pohlaví dítěte - jako házení korunou). Ale přece jen si vyhledali data o 1024 rodinách s pěti dětmi a zjistili, v kolika rodinách se narodilo kolik chlapců: 0 chlapců . . 40 rodin 1 kluk . . 184 rodin 2 kluci . . 300 rodin 3 kluci . . 268 rodin 4 kluci . . 196 rodin 5 kluků . . 36 rodin Pokud tato data o pohlaví při rození dětí mají stejný charakter jako házení korunou, pak je lze dobře popsat binomickým rozdělením s parametry N = 1024, p = 0,5. Teoretické rozdělení pravděpodobnosti a rozdělení četnosti mají následující průběh: počet chlapců xt Pi četnost f i 0 1/32 32 1 5/32 160 2 10/32 320 3 10/32 320 4 5/32 160 5 1/32 32 Otázka zní: do jaké míry se shoduje empirické rozdělení četnosti a teoretické rozdělení četnosti, čili: lze nashromážděná data dobře popsat binomickým rozdělením s uvedenými parametry? Provedeme tzv. test dobré shody (v angličtině: good fit test ... GFT). Kl: Hq\ počet chlapců z pěti narozených dětí lze dobře popsat binomickým rozdělením pro p = 0,5. Hi. Nelze. K2: Jaké kritérium zvolit? Vezmeme součet čtverců rozdílů normalizovaných odchylek naměřené a teoretické četnosti V^ ^t~/m') : počet chlapců naměřená četnost teoretická četnost (ft — f m)2 (ft— fmY ft 0 40 32 64 2 1 184 160 576 3,6 2 300 320 400 1,25 3 268 320 2704 8,45 4 196 160 1296 8,1 5 36 32 16 0,5 MA 0008 - Teorie pravděpodobnosti 115 K3: Za předpokladu platnosti Hq má kritérium z bodu K2 rozdělení x2(/c — 1). Tento fakt nebudeme dokazovat. K4: Kritérium je vhodným reprezentantem míry platnosti Hq: pokud Hq platí, očekáváme, že hodnota kritéria bude malá, pokud neplatí, bude velká. Jedná se tedy o jednostranný test, kde k je počet skupin četnosti, tj. v našem případě k = 6. Tedy pro a = 0,05 je Xfc(5) = 11,0705 („usekáváme" přet procent obsahu hustoty psti zprava). K5: 6 (f — f)2 Um JtJ = 23 9 > llj07 ^ zarm'táme H0, binomické rozdělení není příliš dobré pro popis našich dat (tj. pohlaví chlapců při narození se nechová jako počet líců při hodu korunou). 12.2.3 Testování nezávislosti v kontingenční tabulce Příklad 12.3 Zajímá nás, zda existuje vztah mezi názory na jadernou energii a politickou příslušností. Proto jsme se dotázali nezávisle vybraných 200 lidí, jaký mají názor na jadernou elektrárnu Temelín (neměla by být v provozu - nezajímá mě to - měla by být v provozu), a dále které ze stran ODS, ČSSD dávají větší přednost. Výsledky průzkumu byly sestaveny do kontingenční tabulky (čísla v závorkách vyjadřují empirické pravděpodobnosti = četnosti vydělené číslem 200): elektr. by neměla být nevím elektr. by měla být ČSSD 40 (0,2) 70 (0,35) 40 (0,2) 150 (0,75) ODS 35 (0,175) 5 (0,025) 10 (0,05) 50 (0,25) 75 (0,375) 75 (0,375) 50 (0,25) 200 (1,000) Při testování, zda existuje závislost mezi oběma proměnnými, můžeme použít test %2: Kl: Hq: Obě proměnné se chovají nezávisle, čili empirické rozdělení je hodně blízké následujícímu teoretickému rozdělení, kde poslední řádek a poslední sloupec jsou stejné jako v předchozí tabulce (udávající výsledky průzkumu), ovšem ostatní pravděpodobnosti jsou získány vynásobením příslušných pravděpodobností v posledním řádku a sloupci; označme A\... ČSSD (P(Ai) = 0,75); A2... ODS (P(A2) = 0,25); Bx... elektrárna NE {P{BX) = 0,375); B2... nevím (P(B2) = 0,375); B3 ... elektrárna ANO (P(B3) = 0,25). Nyní pokud Au B3 jsou nezávislé, tak P{AlnBJ) = P{Al)-P{BJ) (například P(A1 n Bľ) = P{AX) ■ P(Si) = 0,281, atd.). Dostáváme tedy tabulku teoretických pravděpodobností (uvedených v závorce), četnosti jsou získány vynásobením příslušné pravděpodobnosti číslem 200 (četnosti tedy nemusí být celočíselné): 116 Katedra matematiky PedF MUNI v Brně elektr. by neměla být nevím elektr. by měla být CSSD 56,2 (0,281) 56,2 (0,281) 37,6 (0,188) 150 (0,75) ODS 18,8 (0,094) 18,8 (0,094) 12,4 (0,062) 50 (0,25) 75 (0,375) 75 (0,375) 50 (0,25) 200 (1,000) Hi'. Obě proměnné jsou závislé, čili nelze je dost dobře popsat příslušným teoretickým rozdělením. K2: Kritériem bude ^t^m-> , kde k je počet různých tříd četností (v našem případě počet různých oken tabulky kromě posledního řádku a posledního sloupce: k = 2 • 3 = 6), ft jsou příslušné teoretické četnosti (=četnosti z poslední tabulky), fm příslušné naměřené četnosti (z předposlední tabulky). K3: Za předpokladu platnosti H0 má kriteriální funkce rozdělení %2((J — 1)(K — 1)), kde J je počet podmínek veličiny A, K je počet podmínek veličiny B (tento fakt nebudeme dokazovat). V našem případě %2(1 • 2) = x2(2). K4: Pro a = 0,05 kritická hodnota Xfc(2) = 5,99. K5: A (/* ~ fm? (56,2 - 40)2 (56,2 - 70)2 (12,4 - 10)2 _ on V f t 56,2 + 56,2 +"'+ 12,4 ~dVb' toto číslo zdaleka přesahuje kritickou hodnotu testu 5,99, tedy H0 zamítáme, prokázala se závislost obou veličin. 12.3 Neparametrický Mannův-Whitneyův test podle pořadí Příklad 12.4 Vraťme se k příkladu 12.1, kde jsme chtěli zjistit, jaký vliv na studenty bude mít počítačová výuka matematiky. Proveďme nyní experiment jiného rázu: náhodně vybraných 24 studentů rozdělíme na dvě skupiny po dvanácti lidech. Jedna skupina se účastnila výuky pod dohledem učitele, druhá příslušné počítačové výuky. Potom se žáci podrobili písemce, kde se měřil čas potřebný na vyřešení zadaných úloh. Získala se data: 1... bežná výuka: 43,12, 21,41, 39, 23, 27, 37, 35, 31, 33, 29; 2 ... počítačová výuka: 3,13,1, 5,11,10, 9, 8, 6, 2,4, 7; Pomocí všech naměřených hodnot odhadneme rozptyl: x 2 SS1 + SS2 908,92 + 154,92 est a =- = - = 48,36 Vi + V2 11 + 11 A nyní můžeme provést r-test: Kl: Hq. \i\ = /i2 (doba potřebná na vyřešení písemky z aritmetiky má stejnou střední hodnotu u obou skupin); Ex. ji! ^ ii2. MA 0008 - Teorie pravděpodobnosti 117 K2: Kritériem je X1~*2~*\-2, kde [ix_2 = 0, est (Ti_2 = \/est o[ + est = \j —--- + —--- = 2,84. 48,36 48,36 K3: Za předpokladu platnosti Hq má naše kritérium rozdělení r(22), protože V1+V2 = 22. K4: Pro a = 0,05 je rfc(22) = ±2,09. K5: Hodnota kritéria: 30,9^~^,5S = 8,57, a tak H0 zamítáme. Ovšem právě provedený r-test nesplňoval předpoklad rovnosti rozptylů v obou skupinách: estľ a2 = ^ = 82,63, kdežto est2 a2 = ^ = 14,08. První odhad je přibližně šestinásobkem druhého, což už přesahuje rozumnou (= čtyřnásobnou) míru. Toto hrubé porušení předpokladu r-testu je důvodem k detailnějšímu prozkoumání dat pomocí neparametrického testu. Vhodným kandidátem nyní je Mannův-Whitneyův test. Vraťme se datům z právě opuštěného příkladu 12.4 a podrobme jej Mannovu-Whitneyovu testu: Kl: Uspořádejme všechna měření (z obou souborů dohromady) podle velikosti či z čiz n či-menej me přitom a) pořadí dané hodnoty; b) příslušnost dané hodnoty k experimentální skupině ( B ... běžná výuka, P ... počítačová výuka). hodnota 1 2 3 4 5 6 7 8 9 10 11 12 pořadí 1 2 3 4 5 6 7 8 9 10 11 12 skupina P P P P P P P P P P P B 13 21 23 27 29 31 33 35 37 39 41 43 13 14 15 16 17 18 19 20 21 22 23 24 PBBBBBBBBBBB K2: Nyní vypočteme jakési míry Ui, Ľ2- (počet dětí z B, které mají horší skóre než dítě i). děti ze skupiny P Tedy pro dítě s hodnotou 1 na prvním místě pořadí má všech dvanáct dětí z B horší skóre. Pro dítě s hodnotou 2 na druhém místě pořadí má opět všech dvanáct dětí z B horší skóre, atd. až pro dítě s hodnotou 11 na jedenáctém místě má stále všech 118 Katedra matematiky PedF MUNI v Brně dvanáct dětí z B horší skóre. A konečně změna, pro dítě s hodnotou 13 na třináctém místě má už jen jedenáct dětí z B horší skóre. Dohromady TJx = 12 + 12 + • • • + 12 +11 = 143. N-*-' jedenáctkrát Podobně U2 = (počet dětí z P, které mají horší skóre než dítě i). děti ze skupiny B Zde pouze pro dítě s hodnotou 12 na dvanáctém místě má jedno dítě z P horší skóre, tj. £/i = l + 0 + 0 + -- - + 0 = l. v-v-' jedenáctkrát Z konstrukce Ui, U2 je vidět, že tyto míry zachycují závažnost, s jakou má jedna skupina lepší pořadí než druhá. Samozřejmě existují poněkud pohodlnější vzorce pro jejich výpočet: Ui = ri\ ■ 77-2 H---—^ 2 —- — (pořadí hodnot ze skupiny 2), ni ■ (ni + 1) v~v 1 ■ -1 \ 1^2 = ni ' n2 H-----/ J (poradí hodnot ze skupiny 1) (mimochodem, platí také XJ\ + U2 = ri\ -n2 - v našem příkladu tedy 143 +1 = 12-12). Kritériem testu bude nyní menší z obou vypočtených hodnot: U = min(Ui, L^)- V našem příkladu U = mm (143,1) = 1. K3: Kritická hodnota testu: a) pro ni, 712 < 20: Byly sestaveny tabulky kritických hodnot našeho obou- stranného testu, a to pro a = 0,05 tabulka 12.14, pro a = 0,01 tabulka 12.15. b) pro ni, 77-2 > 20: Rozdělení kritéria U je normální se střední hodnotou ji = a směrodatnou odchylkou a = 77i • 772 • (?7i + 772 + 1) 12 ; čili normovanou hodnotu jj _ ni-n2 2 ra1-ra2-(ra1+ri2+l) 12 testujeme s běžnými kritickými hodnotami ±1,96 normálního rozdělení pro a = 0,05. K4+K5: V našem příkladu tedy stanovíme kritickou hodnotu MA 0008 - Teorie pravděpodobnosti 119 z tabulky pro a = 0,05, ri\ = n2 = 12: uk = 37 > u = 1, tj. Hq zamítáme ve prospěch alternativní hypotézy H\. Všimněte si, že na rozdíl od většiny testů v této přednášce zde zamítnutí H0 nastane tehdy, když hodnota kritéria kritickou hodnotu NEPŘEKROČÍ. Je to dáno konstrukcí kriterijní funkce - pokud převáží malé hodnoty pořadí v jednom souboru, tak hodnota kritéria je malá, ale současně to znamená jasný a zřetelný rozdíl mezi skupinami. pomocí aproximace normálním rozdělením (nyní méně přesné, ale výpočetně jednodušší): jj _ — = —4,1 < —1,96 => H0 zamítáme / rai-ra2-(rai+ri2 + l) V 12 ve prospěch alternativní hypotézy H\. Vidíme, že výsledky neparametrického testu jsou stejné jako výsledky příslušného parametrického testu 12.4 s porušenými předpoklady. Z toho je vidět, že navzdory porušeným předpokladům ŕ-testu je i při silném rozdílu obou souborů výsledek testu správný, To ovšem nemusí být pravdou, pokud rozdíly mezi oběma skupinami nebudou tak jednoznačné, jak to dokumentují další situace v této kapitole. 12.4 Shrnutí Cílem této kapitoly bylo představit další užitečné rozdělení pravděpodobnosti, a sice rozdělení %2. rozdělení x2(n) (° n stupních volnosti) se definuje jako součet čtverců n normovaných normálních rozdělení u2. Ukazuje se, že mnohé veličiny v praxi jsou rozděleny jako x2, a tedy toto rozdělení se vyskytuje v mnoha statistických testech: 1. V příkladu 12.1 jsme viděli, že rozdělení \2 lze užít v testu typu o2 = konst. Pokud měření jsme získali z populace, jejíž rozptyl je a2, pak kritérium má rozdělení %2 o počtu stupňů volnosti {n — 1). 2. V příkladu 12.2 jsme viděli, že %2 lze užít v testu, zda naměřená data odpovídají jistému teoretickému rozdělení pravděpodobnosti (toto je asi nejčastější a nejznámější využití rozdělení %2, kterému se říká test dobré shody). Pokud máme konkrétně n naměřených (či pozorovaných) četností fm, a jim odpovídající teoretické četnosti ft, pak kritérium ft má rozdělení %2 o počtu stupňů volnosti {n — 1). 120 Katedra matematiky PedF MUNI v Brně Tabulka 12.14: Kritické hodnoty Mannová-Whitneyova testu pro a = 0,05. n-2 ri\ 3 i 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 1 — 2 - 0 0 0 0 1 1 1 1 1 2 2 2 2 3 - — 0 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 4 0 1 2 3 4 4 5 6 7 8 9 10 11 11 12 13 13 5 2 3 5 6 7 8 9 11 12 13 14 15 17 18 19 20 6 5 6 8 10 11 13 14 16 17 19 21 22 24 25 27 7 8 10 12 14 16 18 20 22 24 26 28 30 32 34 8 13 15 17 19 22 24 26 29 31 34 36 38 41 9 17 20 23 26 28 31 34 37 39 42 45 48 10 23 26 29 33 36 39 42 45 48 52 55 11 30 33 37 40 44 47 51 55 58 62 12 37 41 45 49 53 57 61 65 69 13 45 50 54 59 63 67 72 76 14 55 59 64 67 74 78 83 15 64 70 75 80 85 90 16 75 81 86 92 98 17 87 93 99 105 18 99 106 112 19 113 119 20 127 MA 0008 - Teorie pravděpodobnosti 121 Tabulka 12.15: Kritické hodnoty Mannová-Whitneyova testu pro a = 0,01. _n2_ m 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 2- ---------------0 0 3- -----0001 1 122223 3 4 --00112234455667 8 5 012334567789 10 11 12 13 6 2 3 4 5 6 7 9 10 11 12 13 15 16 17 18 7 4 6 7 9 10 12 13 15 16 18 19 21 22 24 8 8 10 12 14 16 18 19 21 23 25 27 29 31 9 11 13 16 18 20 22 24 27 29 31 33 36 10 16 18 21 24 26 29 31 34 37 39 42 11 21 24 27 30 33 36 39 42 45 48 12 27 31 34 37 41 44 47 51 54 13 34 38 42 45 49 53 56 60 14 42 46 50 54 58 63 67 15 51 55 60 64 69 73 16 60 65 70 74 79 17 70 75 81 86 18 81 87 92 19 93 99 20 105 122 Katedra matematiky PedF MUNI v Brně 3. V příkladu 12.3 jsme viděli, že x2 lze užít při testu nezávislosti hodnot v kontingenční tabulce o počtu řádků a sloupců J x K (contingent = závislý, podmíněný ... tj. test si klade otázku: do jaké míry jsou data pozorovaná přibližně stejná jako data vypočtená = nezávislá? tj: je mezi dvěma uvedenými veličinami nějaká závislost?). Tento test je specielním příkladem předchozího testu dobré shody, kdy za teoretické pravděpodobnosti vezmeme ty, co jsou dány součinem součtových pozorovaných pravděpodobností, nikoli měřením. Za této situace má kritérium ft rozdělení %2 o (J — 1) • [K — 1) stupních volnosti. V závěru kapitoly byl představen jeden příklad neparametrických testů. U parametrických testů byl obyčejně nějaký parametr rozdělení neznámý, a ten byl podroben danému testu (např. /i, a). Nyní u neparametrických testů žádný takový parametr není u daného testu k dispozici - odtud název „neparametrické". Parametrické testy většinou lépe a rychleji vyvrátí hypotézu Ho, což je jejich cílem, pokud skutečně H0 má být zamítnuta. Když ovšem nejsou splněny tři důležité předpoklady POUŽITELNOSTI těchto testů, máme k dispozici pouze testy neparametrické. Tabulka 12.16 uvádí přehled statistických testů neparametrických i parametrických, z nichž k některým jsme se v tomto textu vůbec nedostali, společně s přehledem situací a vhodností jejich použitelnosti. 12.5 Otázky k opakování U následujících výroků rozhodněte, zda se jedná o výrok pravdivý či nepravdivý. Otázka 12.1 Rozdělení \2 0 n stupních volnosti je součtem n stejně rozdělených veličin U. Otázka 12.2 Rozptyl veličiny x2 o n stupních volnosti je roven hodnotě In. Otázka 12.3 Protože hustota rozdělení x2 není symetrickou funkcí vzhledem k žádné přímce, některé kritické hodnoty mohou být záporné. Otázka 12.4 Testy dobré shody lze používat jen u diskrétních náhodných veličin. Otázka 12.5 Při oboustranném x2 testu jsou kritické hodnoty Xm> xl symetrické vzhledem k průměru, tj. Xm = Ex2 — d, x\ = Ex2 + d pro jistou hodnotu d. Otázka 12.6 Pro rostoucí n se hustota rozdělení t2in) blíží hustotě rozdělení x2(ji). Otázka 12.7 Při testech v kontingenční tabulce je počet tříd četnosti vždy sudý. MA 0008 - Teorie pravděpodobnosti 123 Tabulka 12.16: Přehled parám, i neparam. testů data účel testu parametrický test nepař amet rický test jeden vzorek zjistit, zda střední hodnota populace, ze které byl vzorek vybrán, se liší od jisté hodnoty ji0 [/-test či r-test znaménkový test dva vzorky jednou zjistit, zda střední hodnoty populací, ze kterých byly vzorky vybrány, se rovnají [/-test či r-test pro nezávislé skupiny Mannův-Whitneyův test jeden vzorek dvakrát zjistit, zda střední hodnoty populací, ze kterých byly vzorky vybrány, se rovnají [/-test či r-test typu „jeden vzorek dvakrát" znaménkový test nebo Wilco-xonův test více než dva vzorky jednou zjistit, zda populace, ze kterých byly vzorky vybrány, mají tutéž střední hodnotu jednorozměrná ANOVA (F-test) Kruskalův-Wallisův test jeden vzorek více než dvakrát dvakrát zjistit, zda populace, ze kterých byly vzorky vybrány, mají tutéž střední hodnotu jednorozměrná ANOVA opakovaného měření Friedmanův test množina položek, z nichž každá má dva parametry zjistit, zda tyto parametry či proměnné jsou korelovány Pearsonův test korelace Spearmanův test korelace jeden vzorek zjistit, zda populace, ze které byl vzorek vybrán, má jisté teoretické rozdělení test x2 typu 12.2.2 nebo 12.2.3 nebo Kolmogorovův-Smirnovův test 124 Katedra matematiky PedF MUNI v Brně Otázka 12.8 Test dobré shody je jednostranným (konkrétně pravostranným) testem. Otázka 12.9 Mannův-Whitneyův test místo jednotlivých hodnot měření zpracovává jen pořadí těchto měření v souboru uspořádaném podle velikosti hodnot. Otázka 12.10 Neparametrické testy mají obecně větší sílu (= větší schopnost správně zamítnout Hq, když neplatí). Odpovědi na otázky viz 13.6. MA 0008 - Teorie pravděpodobnosti 125 13 Odpovědi na otázky a výsledky příkladů ke cvičení 13.1 Výsledky cvičení ke kapitole 1 Odpovědi na otázky 1.1 - A, 1.2-A, 1.3-A, 1.4 - N (ale lze, třetí axiom psti se často použije pro konečně mnoho disjunktních náhodných jevů), 1.5 - N (P(A) musíme odečíst od jedničky), 1.6 - N (nemusí - stačí, když je v A tolik náhodných jevů, že jsou splněny dané tři axiomy jevového pole - íl E A a A je uzavřená na rozdíly dvou libovolných jevů a sjednocení nekonečně mnoha po dvou disjunktních náhodných jevů), 1.7 - N (vzorec platí jen tehdy, když jevy A, B jsou disjunktní). Výsledky příkladů Příklady na procvičení jsou zvlášť ve skriptech pro cvičení. 13.2 Výsledky cvičení ke kapitole 2 Odpovědi na otázky 2.1-N, 2.2-A, 2.3-N (může a nemusí, ale striktně tro zakázáno není; stene pravděpodobnosti jsou speciálním případem diskrétní pravděpodobnosti), 2.4-A (pro a = b je f(x)dx = 0 pro jakékoli a; odtud také plyne, že v axiomu 3 pro hustotu psti mohou být v intervalu ostré i neostré závorky a výsledek je stále stejný), 2.5-N (například ve 2.6 má hustota f(x) bod nespojitosti v nule), 2.6-A, 2.7-A, 2.8-N (například pro f(x) = 3 na intervalu (0; |) a f(x) = 0 pro ostatní x vidíme, že funkční hodnoty jsou větší než 1, a přesto se jedná o hustotu psti - nezápornou funkci, z níž je integrál od minus nekonečna do plus nekonečna roven jedné). Výsledky příkladů Příklady na procvičení jsou zvlášť ve skriptech pro cvičení. 13.3 Výsledky cvičení ke kapitole 3 Odpovědi na otázky 3.TA, 3.2-N (ale může - nule nemůže být rovno v tomto případě jenom P(B), protože to při výpočtu dosazujeme do jmenovatele), 3.3-A (odpověď je sice ANO, jedná se o de Morganovo pravidlo pro čtyři množiny: A1 u A2 u A3 u A4 = A~1nA2~nÄ^nAlí, ale počítat tuto pst přímo není vůbec jednoduché, protože náhodný jev At se vyjadřuje pouze tím, jaká volba nesmí být na i-té pozici; zde právě vypočteme pst sjednocení A\ U A2 U A3 U A4 a odečteme od jedničky), 3.4-A, 3.5-A (například tehdy, když všechny dílčí jevy jsou stochasticky nezávislé; protipříkladem je příklad 3.4, kde při výpočtu psti průniku můžeme použít jen pravou stranu rovnosti, nikoli levou), 3.6-A, 3.7-N (v jednom 126 Katedra matematiky PedF MUNI v Brně případě tento vzorec nemá smysl, a tedy neplatí, a sice když P (A) = 0), 3.8-A. Výsledky příkladů Příklady na procvičení jsou zvlášť ve skriptech pro cvičení. 13.4 Výsledky cvičení ke kapitole 4 Odpovědi na otázky 4.1-A, 4.2-N (nabývat může navíc ještě hodnotu 0), 4.3-A (veličina Y udává, s jakou pstí naměříme v N opakováních experimentu relativní četnost úspěchu; její hodnoty nejsou tedy celočíselné, ale psti, kterých nabývá, jsou stále Bernoulliovy psti), 4.4-N (při neprázdném průniku Hl n Hj bychom museli vzorec pozměnit a nějakou pst odečíst, protože pst možných výsledků v průniku jevů bychom počítali dvakrát), 4.5-A, 4.6-N (v situaci zmetkovitosti balení bonboniér například £^P(A|iíj) = 0,11. Tyto psti jsou vázány jevem A a jejich součet roven jedné být nemusí), 4.7-A (výrazy na obou stranách počítají pst průniku jevů A n Hl a průnik je operace komutativní, tj. použitím obecné věty o průniku jevů dostaneme obě možnosti), 4.8-A, 4.9-A (odpověď je sice ANO, ale k praktickému výpočtu vzorec není, protože P (A) v čitateli zlomku na pravé straně rovnosti lze zkrátit se jmenovatelem zlomku a dostaneme rovnost P(Hi\A) = P(Hi\A)). Výsledky příkladů Příklady na procvičení jsou zvlášť ve skriptech pro cvičení. 13.5 Výsledky cvičení ke kapitole 11 Odpovědi na otázky 11.1 - A, 11.2 - N, 11.3 - N, 11.4 - A, 11.5 - A, 11.6 - N, 11.7 - N, 11.8 - A, 11.9 -N, 11.10 - N (průměr se bere nikoli aritmetický, ale vážený), 11.11 - A (pokud se oba rozptyly liší o více než čtyřnásobek, je vhodnější místo paramatrického testu použít test neparametrický). Výsledky příkladů Příklady na procvičení jsou zvlášť ve skriptech pro cvičení. 13.6 Výsledky cvičení ke kapitole 12 Odpovědi na otázky 12.1 - N (x2 je definováno jako součet veličin U2), 12.2 - A, 12.3 - N (ze vztahu X2(l) = U2 je vidět, že veličina s tímto rozdělením může nabývat pouze kladných hodnot (resp. záporných hodnot nabývá s nulovou pravděpodobností)), 12.4 - N (příslušné četnosti lze počítat i u spojitých veličin, více viz příklad ??), 12.5 - N (ne, protože hustota není symetrickou funkcí vzhledem k přímce x = Ex2(n) = n), 12.6 - N (pro rostoucí n se t2{n) blíží rozdělení x2(l) ... stupeň volnosti je pouze jeden), 12.7 - N (např. v příkladu 12.3 stačí, abychom uvažovali tři politické strany místo dvou, a počet tříd by byl J x K = 3 • 3 = 9), 12.8 - A, 12.9 - A, 12.10 - N (právě naopak, parametrické testy MA 0008 - Teorie pravděpodobnosti 127 mají větší sílu, protože neparametrické testy užívají většinou spíše jen pořadí měřených hodnot něž přímo tyto hodnoty). Výsledky příkladů Příklady na procvičení jsou zvlášť ve skriptech pro cvičení. 128 Katedra matematiky PedF MUNI v Brně Seznam literatury: (Budíková, Králová, Maroš 2009) Průvodce základními statistickými metodami, Grada Publishing 2009. (Fajmon, Hlavičková, Novák, 2014) Matematika 3. Učební text FEKT VUT, v rámci jehož druhé části je probírána pravděpodobnost a statistika. Dostupný online. (Fajmon, Hodková, 2021) MA08 Teorie pravděpodobnosti - cvičení. Elektronický text v předmětu Ma0008 na Pedagogické fakultě MU Brno. Slouží zejména pro cvičení. (Fajmon, Nezval, 2021) MA0008 Teorie pravděpodobnosti - s využitím programu Excel. Elektronický text v předmětu Ma0008 na Pedagogické fakultě MU Brno. Slouží zejména pro vypracování zápočtových příkladů. (Loftus, J., Loftusová, E., 1988) Essence of Statistics, Second Edition, Alfred Knopf, New York 1988. Na základě této knihy jsem kdysi vybudoval svou první výuku pravděpodobnosti a statistiky, dále jsou odtud vzaty tabulky distribuční funkce U, X2 a kritické hodnoty rozdělení t a Mannová-Whitneyho testu. (Robova, Hála, Calda, 2013) Komplexní čísla, kombinatorika, pravděpodobnost, statistika. Edice Matematika pro SS, Prométheus 2013. Výborná učebnice představující čtyři obory uvedené v názvu, až na kombinace s opakováním, které by mohly být vysvětleny i srozumitelněji (viz výuka či konzultace). (Rumsey 2006) Deborah Rumsey: Probability for Dummies. Wiley Publishing 2006. (Rumsey 2016) Deborah Rumsey: Statistics for Dummies. 2nd Edition, John Wiley and Sons 2016. (Schmuller 2016) Joseph Schmuller: Statistical Analysis with Excel for dummies. 4th Edition, John Wiley and Sons 2016.