Princip úlohy
Statistické vyhodnocení výsledků
Chyby výsledků chemické analýzy
Úkolem analytického chemika by mělo být poskytování kvalitních výsledků. Kvalitním výsledkem je myšlen takový výsledek, který je správný a přesný. Kvantitativní výsledky chemických analýz mohou být jako všechna čísla získaná měřením zatížena chybou. V praxi se setkáváme s trojím typem chyb:
- Chyby systematické – vznikají například při použití nesprávné metodiky pro daný vzorek (například použitím nesprávného indikátoru při titraci systematicky dochází k přetitrování). Výskyt takové chyby musí být vyloučen vhodnou volbou analytické techniky, případně adekvátním způsobem eliminován či korigován.
- Chyby hrubé – mohou vznikat například nesprávným způsobem odečítání výchylky měřicího přístroje či objemu z byrety, nebo nedodržením kritického kroku v návodu – jsou to tzv. chyby osobní. Dodržováním základních analytických návyků a návodů a maximální pečlivostí bychom těmto chybám měli předcházet.
- Chyby náhodné – nabývají se stejnou pravděpodobností kladné i záporné hodnoty a jsou dány statistickým charakterem měření. Mohou být statisticky vyhodnoceny a může být odhadnuta jejich velikost.
Po vyloučení systematických chyb (adekvátně volená metodika analýzy) a hrubých chyb (adekvátně volený analytik) lze získat výsledky analýzy, které jsou zatíženy pouze náhodnými chybami. Tyto náhodné chyby vnáší do výsledku analýzy jistou míru nejistoty – výsledky analýzy nelze považovat za absolutní číslo, výsledkem je vždy interval, ve kterém se opravdová (správná) hodnota nachází s jistou pravděpodobností.
Abychom mohli statisticky vyhodnotit výsledek analýzy a odhadnout míru jeho variability, je třeba získat dostatečný počet dílčích dat pro zpracování. Z tohoto důvodu se všechna analytická stanovení provádí opakovaně a data se následně zpracují pro získání odhadu střední hodnoty a míry variability této střední hodnoty. Správně uvedený výsledek analýzy by tedy měl sestávat z této střední hodnoty a hodnoty její variability. V praxi se u sériových (rutinních) analýz zpravidla provádí pouze jedno opakování s tím, že variabilita získaného výsledku je získána zpracováním dostatečně velkého souboru dat v procesu tzv. validace. Během validace se mimo této hodnoty získávají také další parametry, které charakterizují použitou metodiku a její aplikaci na daný vzorek (mez detekce, mez stanovitelnosti, linearita kalibrační závislosti, pracovní rozsah, selektivita, rušivé vlivy, opakovatelnost, reprodukovatelnost, robustnost a další).
Vyloučení odlehlých výsledků
Získáme-li při analýze dostatečný počet dat, měla by být data s krajními hodnotami (nejnižší a nejvyšší) otestována na odlehlost (přítomnost hrubé chyby). Pro testování odlehlosti nejmenší a největší hodnoty seřazených (x1 až xn) dat můžeme použít různé testy (Dean-Dixonův, Studentův…), zde je uveden Dean-Dixonův Q test, který se používá pro malý soubor dat (typicky <7):
kde R je tzv. rozpětí (xmax - xmin)
Vypočteme tedy hodnoty testu pro první a poslední hodnotu v řadě dat a srovnáme je s kritickými hodnotami v tabulce (Tab. 1) podle počtu získaných dat a zvolené hladiny pravděpodobnosti (zpravidla a = 0,95). V případě, že je hodnota testu vyšší než kritická hodnota, je výsledek odlehlý a je třeba jej ze souboru vyloučit. Po vyloučení opět testujeme (nově získanou) krajní hodnotu na odlehlost (nutno přepočítat rozpětí). Vylučovat nelze ze dvou hodnot a také ze tří hodnot, kde dvě z nich jsou shodné.
n | Qk | n | Qk | ||
a = 0,95 | a = 0,90 | a = 0,95 | a = 0,90 | ||
3 | 0,941 | 0,988 | 7 | 0,507 | 0,637 |
4 | 0,765 | 0,889 | 8 | 0,468 | 0,590 |
5 | 0,642 | 0,760 | 9 | 0,437 | 0,555 |
6 | 0,560 | 0,698 | 10 | 0,412 | 0,527 |
Tab. 1: Tabulka kritických hodnot Q testu pro vyloučení odlehlých hodnot
Výpočet odhadu střední hodnoty a její variability
Po vyloučení odlehlých hodnot vypočteme odhad střední hodnoty souboru dat. Pro většinu výsledků analytických metod lze za nejlepší odhad střední hodnoty považovat aritmetický průměr X:
X = (x1 + x2 + ....... xn) / n
Parametrem variability odhadu střední hodnoty (aritmetického průměru) je potom směrodatná odchylka s (získaná z velmi velkého – teoreticky nekonečného počtu měření), respektive odhad směrodatné odchylky s. Pro menší počet výsledků (n <= 10) je vhodné zjednodušeně vypočítat odhad směrodatné odchylky z rozpětí Rn (Rn = xmax - xmin):
s = Rn . kn
n | kn | n | kn |
2 | 0,8862 | 7 | 0,3698 |
3 | 0,5908 | 8 | 0,3512 |
4 | 0,4857 | 9 | 0,3367 |
5 | 0,4299 | 10 | 0,3249 |
6 | 0,3946 |
Tab. 2: Hodnoty koeficientu kn pro odhad směrodatné odchylky z rozpětí
Jako relativní měřítko náhodné chyby se často používá relativní směrodatná odchylka sr, zpravidla vyjádřená v procentech:
sr = s . 100 / X %
Směrodatná odchylka je statistickým parametrem měřícího postupu a v jednotlivém případě pouze udává, že při náhodném rozdělení (Gaussovo rozdělení) leží 68,3 % všech naměřených hodnot v rozpětí ±s okolo aritmetického středu. Chceme-li výsledky vyjádřit s větší statistickou pravděpodobností P, musíme rozpětí zvětšit na ±k(sigma), jak vyplývá z níže uvedené tabulka (Tab. 3) (P by přitom mělo být vždy uvedeno!).
chyba v rozmezí ± k(sigma) | statistická pravděpodobnost P | chyba v rozmezí ± k(sigma) | statistická pravděpodobnost P |
0,675 . (sigma) | 50,0 % | 2,58 . | 99,0 % |
1,00 . | 68,3 % | 3,00 . | 99,7 % |
1,64 . | 90,0 % | 3,29 . | 99,9 % |
1,96 . | 95,0 % | 4,00 . | 99,99 % |
Tab. 3: Chyba v rozmezí ± k(sigma) v závislosti na statistické pravděpodobnosti
Hromadění chyb a nejistota
Je-li výsledek analýzy kombinací několika experimentálně zjištěných hodnot (naprostá většina výsledků), z nichž každá má svoji chybu (přesnost pipet, vah, odečítání objemu na byretě, přesnost – opakovatelnost rozkladu vzorku, odečtu výchylky na přístroji apod.), dochází k hromadění chyb. V praxi to znamená, že čím více operací při analýze provádíme, tím větší je pravděpodobnost, že celková chyba stanovení bude větší (pokud dané operace nemají zanedbatelnou chybu samy o sobě). Jednotlivé chyby se "sčítají" dle zákona šíření chyb – chyba součtu či rozdílu je dána odmocninou ze součtu kvadrátů chyb dílčích hodnot, v případě součinu či podílu je relativní chyba dána odmocninou ze součtu kvadrátů relativních chyb dílčích hodnot.
V současném moderním pojetí analytické metrologie se operuje s pojmy standardní nejistota – kombinovaná nejistota – rozšířená kombinovaná nejistota. Zjednodušeně lze směrodatnou odchylku (jednoho kroku analytického postupu) považovat za standardní nejistotu. Kombinovaná nejistota je potom směrodatná odchylka výsledku celého analytického procesu, a to získaná buď ze zákona šíření chyb jednotlivých kroků analytického postupu, anebo z výsledků opakovaně provedených analýz téhož vzorku. Rozšířením kombinované nejistoty faktorem pokrytí k získáme rozšířenou kombinovanou nejistotu – interval, v němž se správná hodnota výsledku analýzy vyskytuje s předem zvolenou pravděpodobností (zpravidla pro pravděpodobnost P = 95 %, k = 2).
Výpočet kombinované nejistoty uc, kde SD(A), SD(B), ... jsou odhady směrodatných odchylek jednotlivých experimentálně zjištěných hodnot:
Výpočet rozšířené kombinované nejistoty U, kde k je koeficient rozšíření (pro 95% hladinu spolehlivosti k=2):
Srovnání experimentálních výsledků
Výsledky, které mají malou (relativní) směrodatnou odchylku, jsou precizní (výsledky opakovaného stanovení jsou blízko sebe). Výsledky, jejichž střední hodnota je blízko očekávané (pravdivé hodnoty) jsou potom pravdivé. V praxi se setkáváme se všemi kombinacemi možností – výsledky pravdivé a precizní (spolehlivé, ideální stav), výsledky pravdivé ale neprecizní, výsledky nepravdivé ale precizní a konečně výsledky nepravdivé a neprecizní.
Obr. 1: Grafické znázornění pravdivosti a preciznosti výsledků
Test shodnosti výsledků
Často potřebujeme srovnat dva výsledky analýzy, například při analýze téhož vzorku dvěma různými metodami při ověřování jejich vhodnosti pro analýzu v rámci procesu validace. Vzhledem ke statistické povaze výsledků chemické analýzy nelze srovnávat dva výsledky jako absolutní čísla, ale je třeba brát v úvahu také míru jejich variability. Pro srovnání dvou experimentálních výsledků (průměrů XA a XB) využíváme statistické testy na shodnost (Lordův, Studentův…). Pro malý soubor dat se používá Lordův test, který zahrnuje jak střední hodnotu výsledků, tak jejich rozpětí RA a RB.
Získanou hodnotu porovnáváme s kritickou tabelovanou hodnotou pro daný počet měření n. Výsledky jsou shodné, pokud platí u < ukrit. Je-li výsledná hodnota větší než kritická hodnota, je rozdíl dvou testovaných středních hodnot statisticky významný (na hladině pravděpodobnosti P) a výsledky nejsou shodné.
Test pravdivosti výsledků
Srovnáváme-li experimentálně získanou hodnotu X s definitivní hodnotou m, u které nepředpokládáme žádnou variabilitu (například připravíme-li si standard se známým obsahem analytu a zanedbatelnou nejistotou této hodnoty), použijeme opět statistický test, tentokrát test na pravdivost:
a získanou hodnotu opět porovnáme s tabelovanou kritickou hodnotou v tabulce. Je-li u < ukrit, pak je výsledek pravdivý.
n | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
ukrit | 1,714 | 0,636 | 0,406 | 0,306 | 0,250 | 0,213 | 0,186 | 0,167 | 0,152 |
Tab. 4: Tabulka kritických hodnot tkrit pro test shodnosti a správnosti (hladina pravděpodobnosti P = 0,95) a počet stupňů volnosti n = n-1
Zpracování kalibrační závislosti
V řadě instrumentálních metod se setkáváme s pojmem kalibrace, což je proces přiřazení změřené hodnoty analytického signálu (proud, napětí, absorbance, atd.) známé hodnotě nezávisle proměnné (koncentrace, absolutní množství). Pro většinu analyticky využívaných metod přitom platí, že závislost je v určitém rozmezí lineární a také většinou prochází počátkem (při nulovém obsahu či koncentraci analytu je nulový také analytický signál). Pro kalibraci se zpravidla konstruuje tzv. kalibrační graf, tedy grafické znázornění výše zmíněné závislosti. Vzhledem k tomu, že jednotlivé body v tomto grafu jsou změřeny experimentálně, mají každý svoji nejistotu. Pokud bychom každý z bodů měřili opakovaně, mohli bychom nejistotu vyjádřit například jako směrodatnou odchylku. Abychom omezili vliv chyby měření jednotlivých bodů, provádíme tzv. vyrovnání, kdy experimentální hodnoty (body) prokládáme křivkou, která odpovídá nějaké algebraické funkci y = f(x) a která prochází co nejpřesněji naměřenými body. Cílem přitom není nalézt funkci, která by jednotlivé body spojila, ale takovou funkci, s jejíž pomocí se nám podaří vyrovnat chyby měření jednotlivých bodů.
Obr. 2: Příklad lineární kalibrační závislosti s grafickým odečtem koncentrace v neznámém vzorku
Lineární funkci lze popsat rovnicí y = ax + b. Odhady parametrů a (směrnice) a b (úsek na ose závisle proměnné –analytického signálu) lze z n dvojic měření ([x1, y1],[x2, y2] až [xn, yn]) vypočítat metodou nejmenších čtverců. Hodnoty obou parametrů, směrnice i úsek na ose, jsou přitom zatíženy chybou, která závisí na počtu bodů n a na rozptylu bodů kolem regresní přímky (body, které neleží na přímce, zvyšují chybu odhadu parametru). Tyto chyby lze vyjádřit jako směrodatné odchylky. Je-li hodnota parametru b malá (srovnatelná s vlastní směrodatnou odchylkou), nebo je-li pro to fyzikální důvod, je vhodné úsek na ose otestovat, zda je statisticky významně odlišný od nuly, a to pomocí tzv. t-testu. Vyjde-li nevýznamná odlišnost od nuly, položíme tento úsek roven nule (přímka potom prochází počátkem) a přepočítáme směrnici (rovnice přímky má potom tvar y = ax).
.







