-13- KAPITOLA 1. Opakování základů teorie testování hypotéz 1*1, Formulace problému Kechí X = (X^,...,XK> je náhodný vektor (vektor pozorování) a nechí H a K jsou 2 disjunktní množiny rozdělení pravděpodobností na (RH,fl"). Sekneme, 2e vektor X splňuje hypotézu, jestliže rozdělení pravděpodobností X patří do H, a že splňuje alternativu, jestliže jeho rozdělení patří do K. Pro hypotézu použijeme rovněž symbolu H a pro alternativu symbolu K ; tedy H i K označují jak výrok, tak množi-nu rozdělení náhodných vektorů výrok splňujících - to jistě nepovede k omylu a zjednoduší se zápis« Hypotézu obvykle formulujeme tak, že je to množina rozdělení majících určitou vlastnost homogenity, symetrie, nezávislosti apod. - proto často užíváme přívlastku "nulové hypotéza". Rozdělení patřící do alternativy naopak vykazuji nehomogenitu, nesymetrii» závislost» apod. Problém spočívá v tom, že na základě pozorovaných dat x^,..-,xK máme rozhodnout, zda platí hypotéza H nebo alternativa K. Každé pravidlo, které každému bodu x^,...,^ přiřadí právě jedno ze 2 možných rozhodnutí: "přijetí H " -"zamítnutí H " , nazveme (nerandomizováným) testem hypotézy H proti alternativě K . Takový test rozděluje výběrový prostor na 2 komplementární části : kritický.obor (obor zamítnutí) A«, a obor přijetí Afí, Jestliže pak (x^,. •.,xN)€ Aj^ , test -14- hypotézu zamítá a v případě (x,,... ,Xj.)€ A-, ji nezamítá. Jestliže na základě pozorování x^,...,x,, provádíme nějaký test, může být naěe rozhodnutí správné, nebo se můžeme dopustit jedné ze 2 druhů chyb : (1) zamítneme H} i když H platí (chyba I.druhu), (2> přijmeme H, i když H neplatí (chyba II.druhu). Je žádoucí použít takový test, který má co nejnižší pravděpodobnosti obou druhů chyb. Pravděpodobnost chyby I.druhu, je-li P€H skutečné rozdělení vektoru X , je rovna (1.1) P( X6ÄJ, ). číslo sup P( XGky) nazýváme velikosti testu s kritickým oborem A„. Pravděpodobnost chyby II.druhu v případě, Že QfiK je skutečné rozdělení X , je rovna (1.2) q( xe^) = i - q( xe^). Hodnotu pravděpodobnosti (1.3) /3(Q) = Q( XC^), Q€K nazýváme silou testu proti alternativě Q, Q6K • Funkci /3(Q) : K —> fOjTJ pak nazýváme silofunkci příslušného testu. Žádoucí je pak test, jehož silofunkce je maximální stejno měrně přes celou alternativu a jehož pravděpodobnost chyby I. druhu je malá pro všecka rozdělení splňující hypotézu. Teorie testování a hledání optima se značně zjednoduší, rozšíříme-li množinu testů o tzv. randomizované testy. Rando-mizovaný test zamítá H při daném x s pravděpodobností©(x) -15- a přijímá s pravděpodobností l-oS(x), 0^ ©W-1 pro vš. x. Každý test je tak charakterizován funkcí (J » zvanou testové (nebo kritické) funkce takovou, že 0^©£l. Kritický obor testu je pak \Xj : Q)(x) = 1 J , takže u nerandomizovaných testů je u) indikátorem kritického oboru. Zavedením randomizovaných testů se množina všech testů ztotožňuje s množinou všech funkcí i fl)(x) :O^Ú)^lj , a je tedy konvexní a slabě kompaktní. Jestliže P je skutečné rozdělení pravděpodobností X , pak test s kritickou funkcí W zamítá H s pravděpodobností (1*4) /^P} = SP(^( P} =/^'(í)dP(S)- Je zřejmé, že mezi všemi testy H proti K by byl nejlepší ten, který by splňoval (1.5) /mQ) =Eq(0(X)) : = max pro vs. QéK a zároveň (1.6) A(P) = Ep($(X)) : min pro vš. PťíH • Protože nelze oběma podmínkám současně vyhovět, formulujeme úlohu optimálního testu takto: zvolíme malé číalo OC , (Xo£k.p(x) l0 jestliže qlx) kp_(x) x \ - - jestli 0)o(x) =\ 10 ~ \0 ... jest: q(x)0 nejsilnějším o(- teste* K proti K. -17- Rozdělení P pak nazveme nejméně příznivé rozdělena hypotézy^ H vzhledem k alternative K -{q} • Důkaz věty 1 jakož i Neyman-P&sonova lemmatu lze nalézt v knize Lehmann (1959)* Na závěr ještě připomeneme definici nestranného testu: DEFINICE 1 : Sekneme, že test ô hypotézy H proti alternativě K je nestranný, jestliže platí /i(P)^á prově. PéH /3gCQ)>ö6 pro vš. Q6K . Pokud existuje S& oí-test H proti K, je nutně nestranný, protože jeho silofunkce nemůže být menSí než silofunkce testu <Ž)(x) =oC . Příklad 1, Nechí X je charakteristika výrobku v hromadné výrobě. Výrobek je dobrý, jestliže X> u, kde u je daná konstanta. Chceme testovat hypotézu H : p ^ p proti alternativě K : p4 p0, kde p = P(X^u) je pravděpodobnost, ře výrobek je vadný. Nechí X^,...,*^ jsou měření provedená na náhodném výběru N výrobků. X- jsou tedy nezávislé náhodné veličiny se stejným rozdělením P , které neznáme. Každé takové rozdělení lze jednoznačně charakterizovat trojicí (p,P~,P ), kde P~ je rozdělení X podmíněné jevem X^u a P je rozdělení X podmíněné jevem X>u. Jestliže p" a p jsou hustoty P~ a P vzhledem k nějaké míře M* (např. M* = P~ + P; a jestliže x = (x-, ,... ,x«) je bod výběrového prostoru takový, že x- , ...,x. é a "»P+) mé tvar m -, 1 ... jestliže (jrHir|^>K~m> Cl ,x}=**#a>zg Pro která pleti Z^ ^ 0. Později uvidíme, že se jedná o tzv- znaménkový te- Tím jsme také získali první příklad testu optimálního pro neparametrický model. Kdybychom předpokládali nějaký specifický tvar rozdělení X , aohli bychom dootat jistý test* U2* Princip invariance v testování hypotéz Mnohé statistické problémy jsou z určitého hlediska symetrické- Pak je přirozené, omezíme-li se při řešení těchto problémů na statistické postupy, které jsou podobně symetrické. Např. předpokládejme, že X^,...,X jsou nezávislé náhodné veličiny s rozděleními pravděpodobností PQ ,...,PÖ . Pak od yl wn vhodného testu hypotézy H : Ö, = ••• = 0 proti alternativě, že alespoň 2 hodnoty z Sr«*r®n jsou různéj očekáváme, ža bude symetrický vzhledem k uspořádání dat x,, ...,x . Matematickým vyjádřením symetrie problému je jeho inva- -riance ke vhodné grupě zobrazení. V našem příkladě je touto grupou množina všech permutací dat x^,...,x . Obecně nechí g je prosté zobrazení výběrového prostoru j£ na 3ebe. Řekneme, že problém testu H proti K je invariantní vzhledem ke g, jestliže g zachovává hypotézu i alternativu, tj. : /^ (1.13) F€H ^4 P g"1 «H, Q£K => Q g"1 ô K -20- a jestliže ke Pí H (resp. Q£K) existu- je P£ H ( ) tak, že P * p'g"1 (resp. Q = Q'g-1) Jinými cievy, \ ■■ -estu H proti K zůstává inv- tni vzhledem k zob, E , jestliže r. idei g X splní H právě tehdy, splnuje-li rozdělení X hypotézu , a podobně pro alternal K • Predstavme si, že problém testu B proti K J3 invariantní vztal i . ke grupě G zobrazení výberového prostoru JC na sebe. Pak je přirozené, omezíme-li se na teety, které xtj- v jsou také invariantní vzhledem ke . G ,\ které splňují (1.14) (P(g x) = (Pty pre vá. x€Í"a g€G. L.ezi váemi testy, invariantními vzhledem ke G , se pak snažíme nalézt stejnoměrně nejsilnější invariantní CĹ -test. K tomu musíme prozkoumat strukturu íuncžiny všech testu, invariantních vzhledem ke grupě G. Ukáže se, Že v některých případech lze nalézt vhodnou statistiku, zvanou maximální invarianta takovou, že každý invariantní test je funkcí této statistiky. I&FINICB.. Statistiku T = T(x) nazveme maximální. invarian.-tou vzhledem ke grupě zobrazení G , jestliže platí (lol5) T(g x) = T(x) pro vš. xejfa g€G, tj. T je invariantní, a (1*16) Tis$i^ = T^2^ implikuje, že existuje g6G tak, že x- = g Xi • VĚTA 2. Necht T(x) je maximální invarianta vzhledem ke grupě zobrazení G. Pak test ô U) je invariantní vzhledem -21- ke G právě tehdy, j.£e existuje funkca :ová, že (fi(x) = h(T(x)) pro vô. x € JF. Pukaz. Clí Jestliže <$(x) = h(T(x)) v , pak (gx) sh(í(gx)) =h(Tx)) *y(x) pro lib, 5£G, a tedy 0 j« invariantní. (2) Nechí Q je invariantní a nechí T(x*) = T(xp). Pak podle definice je x^ sg^ pro nějaké g£G a tedy O) (j2)= Příklad 1 Príklady maximálních invariant (1) Nechí x = (x1,..-,xn) a nechí G je grupa posunutí g x = (X]_ + c,..., xn + c), C6R1 . Pak TCx) - % - ^xi"xn,***,xn-l"xn^ ^e lllaximaln* invarianta* Skutečně, T(x) je invariantní vzhledem k posunutí; na druhé straně, nechí T(jjí) = T(x, ); položíme-li x -x *c, dostaneme XÍ = XÍ+C' Í=l»•••íD- (2) říechí x = (zj.....xfl) a nechí G je grupa všech ortogonálních transS ací Rn -•} Rn. Pak T(x) = Z x? je maximální invarianta, protože 2 body x a x se dají vzájemně zobrazit ortogonální transformací právě tehdy, mají-li stejné vzdálenosti od počátku. C3) Necht x = (x^,...,x ) a nechí G je množina ni permutací složek x, • Pak maximální invarianta TCx) =(x(1) í,'2' í ... ^x(n)) je vektor uspořádaných složek x , tzv. vektor pořádkových statistik. (4) Nechí G je množina všech zobrazení tvaru x[ = f(xi), i=l,...,n tatových, že f je spojito a ryze rostoucí funkce- uvažujme jen ty body výběrového prostoru 3: , jejichž všechny složky jsou různé. Nechí R^ je pořadí x^ mezi x^...^, tj. n R. » r u(x.-x.), i=l,...,n, 1 j=l * J kde u(x) = 1 pro x - O a u(x) = 0 pro x<0. Pak T(3c) = (R1,...,Hn) je maximální invarianta vzhledem ke G. Skutečně, spojitá rostoucí funkce nemění pořadí složek x což znamená, že T(x) je invariantní« *■•• /v Abychom dokázali vlastnost (1.16) statistiky T(x) , předpokládejme, že 2 různé vektory x a x mají stejný vektor poradí R,,...,R_. To znamená, že je-li x. 4. x. K. ••-< x n ix i2 ...< x- vektor x, uspořádaný podle velikosti složek., platí n i x^ ^ ••• .•••t**x- ,x-^r xl x2 xn-l xn f je spcjitá a rostoucí. Alespoň jedna takové funkce existuje, a tedy T(x) je maximální invarianta» Příklad- 2. Uvažujme náhodný vektor. X = (£,»...,X^ Chceme testovat hypotézu H proti alternativě H, ; Hj^ ; " X má hustotu fi(xi-6,... »x^-ô), oť-R1 " i=C,l -23- kde f0>^ jsou äané hustoty, © j« neznámý (rušivý) paramet Problém teatu H0 proti H-^ je invariantní vzhledem ke grupě posunutí g x * (x1+c,...lxn+c)J c£R . Maximální invarianta je T(x) = ^ = (^-xaí •• • »xn-l""xn^* ^ má sa H. rozdělení s hustotou ti^x'*9*fya?ji) = Ui^i+zi'^^n^x*zfz^ůz » i=o,i. Omezíme-li se tedy na testy invariantní vzhledem k posunutí. redukuje se problém na test jednoduché hypotézy H s I má o ^ hustotu **&!** •*>XQd Proti alternativě Hx ; £ mé huatotu ^(y^ '••»yQ-1)-Podle Neyman-Pearsonova lemmatu stejnoměrně nejsilnější inva riantní test mé tedy tvar i ... jh1*i+*> — >*xl-i****)ů* ^ Jfo^i+2,--)yn.1+z,z)dz $ (y) /v o ... jf1(y1^,->-,yn,1^,z)dz jfo (yl+z' •' * >yn-l+z'z)d2 kde k je zvoleno tak, aby test měl danou velikost OL . Vyjádřeno pomocí původních pozorování a^»««»»x , (íftx) = 1 ... —f-----■-------------------------■------ / k . I ~ Jf0(x1+t,...>xn+t)dt invarisntris Test nezávisí na Ö, a je tedy stejnoměrně nejsilnSjšímVtes- tem H proti H, . Příklad 3. Nechí X = (X^...^) je náhodní výběr z rozdělení N^o-Z). Testujeme -24- H : o ± aQ proti K ; a< aQ . Problém je invariantní vzhledem ke grupě G posunutí g x Ti .. 1 n *v » (x.+c,... ,x +č), c€ R • Protože Y = X = - £ X- a 1 S2 = Z (Xi - X)2 jsou postačující statistiky pro M/ a a2) stffčí omezit se na testy, které jsou funkcemi těchto postačujících statistik. Posunutí g x = (x,+c,..•,x +c) indukuje v prostoru postačujících statistik zobrazení y = y + c , (S*) = Sd . Maximální invarianta vzhledem ke grupě takovýchto zobrazení ,2 , .... je zřejmě S , a tedy stejnoměrně nejsilnější invariantní test bude záviset jen na S : přesněji, bude mít tvar £(x) =^(y, S2) = 1__ n _ o / 1 ..o ~T^ Z (x.-x)* é c °o i=l x 0 ... -i- £ (x.-x)2 > C, OÍ Í=l X kde kritickou hodnotu C stanovíme z tabulek rozdělení t. -25- KAPITOLA 2. Základní výběrové statistiky : pořadí a pořádkové statistiky Nechí X = (Xp...,Xn) je vektor pozorování, tj. měřitelné zobrazení základního prostoru do výběrového prostoru (Xjfi)) fcde X je borelovská množina z ŕ a (B je systém borelovských podmnožin x • Nechí X^ ' ^ XC ' ^ ... ...4* X^n' značí tentýž vektor uspořádaný podle velikosti. Pak statistiku X nazveme i-tou pořádkovou statistikou a vektor X( * ^ ■ (X^1*, ... ,X(n)) vektorem pořádkových statistik. Nechí x = (x-,,...,x ) je realizace vektoru pozorování, jejíž žádné 2 složky nejsou shodné. Označme r.Cx) počet složek vektoru x , které jsou ^ xi» *J* Po£aq,í složky x- v posloupnosti jr*"% •*.<%• Pořadí Xi můžeme též definovat zá- pisem : (2-1) E.. * 2 u(X- - X.), 1 j=l 1 d i=l kde u(t) =1 pro t ^ O a u(t) = 0 pro t^ 0. Vidíme, že realizace náhodného pokusu vede k úplnému uspořádání dat pouze tehdy, jsou-li všecka pozorování x^,. x. n různá. Jen tehdy je vektor pořadí definován jednoznačně. Má-li rozdělení pravděpodobností náhodného vektoru X spojitou distribuční funkci, nastane shoda dvou pozorování s pravděpodobností O . Protože v dalším testu budeme uvažovat jen spojitá rozdělení pravděpodobností, zdálo by se, že probléme«,zda je vektor po- -26- řadí dobře definován, se nemusíme zabývat. Bohužel v praxi se shody dvou nebo více pozorování často vyskytnou, i když jsou měřené veličiny spojitého typu, protože měření vždy zaznamenáváme jen na konečný počet desetinných míst. Pro takové případy můžeme definici pořadí u testů na nich zaležených vhodně modifikovat; k této otázce se později vrátíme- ( ') Vektor pořadí B a vektor pořádkových statistik X budou východiskem našich dalších úvah, prcto věnujeme tuto kapitolu jejich vlastnostem- V kapitole 1 jsme viděli, Že obě tyto statistiky jsou maximálními invariantami vzhledem k urči-grupám zobrazení výběrového prostoru X na sebe. Nyní bu~ déme uvažovat jejich postačitelnost a chování jejich rozdělení pravděpodobností. Nechí @h značí množinu všech permutací r = (r,,t.t,r ) posloupnosti (l,...,n). OL obsahuje n! bodu a je-li vektor pořadí R dobře definován, nabývá hodnot právě z množiny řiech{ X značí podprostor výběrového prostoru X obsahující body x(,) = (xÍX),...,xCn)) splňující x(1£...< . ..=x^\ K=r} (r,) CrJ ' O nebo X podle toho, zda (x ,...,x n ) je nebo není prvkem A. ; tato pravděpodobnost zřejmě nezávisí na základním rozdělení P. DEFINICE 1, Nechí Postažitelnost X(,). Jestliže je dáno Xí#) = x(,) může náhodný vektor X nabývat jen hodnot (x ,...,x kde r = (rx, ... ,rn) £ (R, a vzhledem ke (2.3) platí (2.4) P(X = (,(*1>,....«(*")) j X(-' = («««.....««»Í. i_ : -28- pro vš. r 6 Podmíněné rozdělení (2.4) je tedy stejné pro všecka rozdělení X patřící k Hrt. /v ľ O (2) Úplnost X . Důkaz úplnosti zde neuvádíme, protože je značně složitější a rozsáhlejší. Podrobný důkaz lze nalézt v Lehmannově knize (1959^ .Myšlena důkazu je taková, Že se nejprve dokáže, že statistika X je ekvivalentní statistice n n o n r. TU) = ( IX-, Z X?,..., Z X? ) ** i=l x i=l ^ i=l ^ v tom smyslu, že X ' i T(X) indukují stejnou pod-cr-al- u (B, f,ebru ÍD , a pak se dokáže úplnost statistiky T(X) vzhledem X splňujících H0. /v ke vhodnému podsystému rozdělení X splňujících HA. Odtud pak plyne úplnost T(X), a tedy i úplnost X , vzhledem k celé hypotéze H . VĚTA 3 . Necht náhodný vektor X má rozdělení pravděpodobností s hustotou p(Xj,*.»,x )• Pak (1) X* má rozdělení pravděpodobností s hustotou O ... jinde: (2.5) (2) rozdělení R podmíněné jevem X( * * = x( ** mé tvar Crl} (rn} . í \ t \ PCx ,.-*,x ) (2.6) P(R=rJ X<«> = *<•>) - —-^-------_- pvx ,...,x / pro lib. r«Äa x^ejP'*. "Důkaz. Cl)' líá-li p být hustotou X , musí splňovat vztah 12.7) P(X(-k B) = f... [p(xa),...,X(n))dx(1) ... dx(a> B -29-pro lib. Bé &(-). Platí }CB) = rtf, P(X(#)6B) = Z P(X£'Ub, R=r) = ■'.; £ 1...1 p(x,,...,x J dx, . .* dx„ = xUľ«B rif*. if :,x^\...>XV*A') äx^> ... dx<* = j\..f p(x(1),...,x(n)) dx(1} ... dx(n), což dokazuje r <2) Pro Bé(&im) a r é& platí P(X(b)£ E, R=r) =J"..-fp(R=r|xi-) = x(,))?(xíl},..., •••«X /OX t•• GX . Podobně jako u (1) můžeme psát P(X(-)£ B,F=r)= r...jp(x X ,...,X n )dx(1) ... dxín} = (2.8) (r1) (rn) »r rp(x ,'*",3g,* □r3,-(x) x(x))dr(ií dx(x>. Q P^-Ä , . • • , X J úprava integrandu je prípustná vzhledem k tomu, že z p(x ,-. ...,x^ ') = 0 plyne pCx ,.#.,! n ).= 0 pro vš. r£*&. 2 (2.8) plyne (2.6). VŽTA 4- NeGhí % je systém bustot p takových, že p(x-^,... ,xr) = P(xi »•••jX. ) pro libovolnou permutaci i-,,-*-» ..-,i posloupnosti l,...,h. Jestliže X mé hustotu p€ iL, -30- jsou vektor pořadí R a vektor pořádkových statistik X vzájemně nezávislé: K mé rozdělení pravděpodobností a £"* má rozdělení pravděpodobností s hustotou yní pix ,...,x /..#x ě <^ ... jinde» (2.i p(.3r>xV..,xin;) t-0 Důkaz. (2.10) plyne přímo z (2,5) • Dále pro lib. r e (R> platí P(ß*r) = \ ... J pCx^,...,x )dx,,...dx = *i) (O - f—fpíx^p.:..* n)teí» ... dx^ ^^...xHap . r... r * P|H = (l,...,n)J , odtud vyplývá (2.9). .■ ovchom dokázali nezávislost B a Xr* , stačí, když ovSříme (2-11) P(R=r/ XC,)=x(*}) = P(R=r) = |y pro lib. x^'kjČ* a r€& . Z (2.5) však plyne 5(-(D xu>> _ ft, D( Qí^r)-^ Ep -------r-j----------r?ľJ p(X X ,...,x n') Pukas, Podle věty 4 J3ou X^' a R nezávislé, proto platí X\T(X1>*..,Sn)jíl=rJ * ££r(X 1 ,...,X a ) / R=rJ * f {rl} (rn} 7 [tíx 1 ,...,X n )J . Na druhé straně z (2,10) plyne Q(R :-r) = J • ••} q(ac1,...»xn)d3íi ... dxfl R=r ď-,) (*„) 9?w' p(x X ,...,x a ) .x^W« dxCn} - i- E \qiX, ■■'".''* -J* ..cdx 'STBp| trT5tr~r Í-PÍX x ,,..,x ) Na závěr kapitoly ještě uvedeme některé vlastnosti marginálních rozdělení vektoru R a x**' za platnosti hypotézy H . -32-VŽTA__čk Nechí X splňuje hypotézu H . Pak plstí (i) PCB^=j) =- pro vš. j=l,.*.,n; i=l(«..,n« (ii) PCR^k, Rjsm) = j~££ri) pro 1Ä»J»k»» - n» i#j, křffi (iii) E RA = S+l , i=l,...,n 2 Civ) Var R^ = ^jji , i=l,*..,n (v) CovCR^Rj) = ~ f^p , l*i,.j ^ n, ifcj. Půkaz. (i) PCR-^j) = Z PÍR-^j, H^sj2.....Rasja) = (O2»* *•»Jn' ^"2'*"*' "n kde sčítáme přes množinu permutací (J2>*»'»Jn) čísel (1,». ...,j-l, j+l,#*.,n># Úvaha pro i =2,*,.,n je analogická. Podobném způsobem dokážeme i (ii). Ciii) E R. = Ž J = Sjl • 1 j=l n ^ W n2-l n u (iv) Var Bi - i I j2 - t^)2 = n(a^<2a+1) - C*£>2 " _ n2-l - "ET ' (v) CovCH-.H.) = I í k.m J-;; (S|i)2 = kŕm 1 T, £ .s2 2 .2I ,a+l,2 „ n+1 _ = Bin-U ■■ L( & k) * Ä k J " C"2"J * " T2 * CI VČIÁ ?. Necht X má rozdělení pravdepodobností a hu3totou i=l -33-Pak Xu' má rozdělení s hustotou (2.15) *nÍ)(x) " nCiIi)CF(x))i":L(l-FU))n~i f(x>, x^R1 x kde F(x) = í ŕ(y)dy, i=l,...,n. Důkaz. Pro distribuční funkci X**' platí P(X(Í)< x), - ^ P(X(á)< x * Xiá+1) + P(XCn)< x) » = Z (rJ)(F(x))JU-F(x))n"j . j=l ° odkud dostaneme hustotu f i jako derivaci. Speciálně, jestliže X je náhodný výběr z rovnoměrného rozdělení r[o,iJ , řídí se X(l) beta rozdělením B(i,n-i+l) a má střední hodnotu a rozptyl E xCi) = -Ír» , Var XU) - i(n"it1)------- . n+1 (n+l)2(n+2) Problémy a cvičení (1). Necht X-p...^ je náhodný výběr z R(0,1). Pak platí cev(x(i),x(J)) «üa=iäJ----- (n+ir(n+2) C2) Nechí Xn ,...,X je náhodný výběr z rozdělení s distribuční funkcí F a hustotou f. Pak sdružené rozdělení Cil} Cik> X ,...,X ; i.< i«< ••• \iuj k=n, má hustotu (l^Utlá-i^lJi ...U-lk)l • (F(yl)} ^(y2)-F(yi))^ K.. n-i, ... Cl-F(yk)) pro y^< y2 < ...