© Institut biostatistiky a analýz Analýza a klasifikace dat – přednáška 8 RNDr. Eva Koriťáková, Ph.D. Podzim 2017 Schéma analýzy a klasifikace dat 2 Data Předzpracování Redukce Klasifikace nebo ? ? Ukázka - kognitivní data apod. Ukázka - obrazová data Koriťáková: Analýza a klasifikace dat Proč používat redukci dat? 3 x1 x2 … I1 I2 … voxely subjekty 270 x 1 000 000 Klasifikace 𝑿 I1 pac. I2 kon. … subjekty Obrazová data Koriťáková: Analýza a klasifikace dat Proč používat redukci dat? 4 Redukce dat x1 x2 … I1 I2 … voxely subjekty 270 x 1 000 000 x1 x5 … I1 I2 … voxely subjekty 270 x 1 000 Klasifikace 𝑿 I1 pac. I2 kon. … subjekty Obrazová data Koriťáková: Analýza a klasifikace dat Proč používat redukci dat? • zjednodušení další práce s daty • možnost použití metod analýzy dat, které by na původní data nebylo možno použít • umožnění vizualizace vícerozměrných dat – může být nápomocné k nalezení vztahů v datech či k jejich interpretaci • redukce dat může být i cílem analýzy (např. identifikace oblastí mozku, kde se nejvíce liší od sebe liší skupiny subjektů) 5Koriťáková: Analýza a klasifikace dat Volba a výběr proměnných – úvod • kolik a jaké proměnné? – málo proměnných – moc proměnných 6  KOMPROMIS (určit ty proměnné, jejichž hodnoty nesou nejvíce informace z hlediska řešené úlohy, tj. např. ty proměnné, kterou jsou nejefektivnější pro vytvoření co nejoddělenějších klasifikačních tříd) • počáteční volba proměnných je z velké části empirická, vychází ze zkušeností získaných při empirické klasifikaci člověkem a závisí kromě rozboru podstaty problému i na technických (ekonomických) možnostech a schopnostech hodnoty proměnných určit • kolik a jaké proměnné? – málo proměnných – možná nízká úspěšnost klasifikace či jiných analýz – moc proměnných – možná nepřiměřená pracnost, vysoké náklady Koriťáková: Analýza a klasifikace dat Zásady pro volbu proměnných I • výběr proměnných s minimálním rozptylem uvnitř tříd • výběr proměnných s maximální vzdáleností mezi třídami 7Koriťáková: Analýza a klasifikace dat Zásady pro volbu proměnných II • výběr vzájemně nekorelovaných proměnných – pokud jsou hodnoty jedné proměnné závislé na hodnotách druhé proměnné, pak použití obou těchto proměnných nepřináší žádnou další informaci pro správnou klasifikaci • výběr proměnných invariantních vůči deformacím – volba elementů formálního popisu závisí na vlastnostech původních i předzpracovaných dat a může ovlivňovat způsob předzpracování 8Koriťáková: Analýza a klasifikace dat Selekce a extrakce proměnných • formální popis objektu původně reprezentovaný p-rozměrným vektorem se snažíme vyjádřit vektorem m-rozměrným tak, aby množství diskriminační informace bylo co největší • dva principiálně různé způsoby: 9 1. selekce – výběr těch proměnných, které přispívají k separabilitě klasifikačních tříd nejvíce 2. extrakce – transformace původních proměnných na menší počet jiných proměnných (které zpravidla nelze přímo měřit a často nemají zcela jasnou interpretaci) Koriťáková: Analýza a klasifikace dat x1 x2 x3 x4 x5 x6 x7 x8 … I1 pac. I2 pac. I3 kont. … proměnné subjekty x1 x2 x3 x4 x5 x6 x7 x8 … I1 pac. I2 pac. I3 kont. … proměnné subjekty y1 y2 y3 y4 I1 I2 I3 … Extrakce proměnných 10Koriťáková: Analýza a klasifikace dat • transformace původních proměnných na menší počet jiných proměnných  tzn. hledání (optimálního) zobrazení Z, které transformuje původní p-rozměrný prostor (obraz) na prostor (obraz) m-rozměrný (m ≤ p) • pro snadnější řešitelnost hledáme zobrazení Z v oboru lineárních zobrazení • 3 kritéria pro nalezení optimálního zobrazení Z: – obrazy v novém prostoru budou aproximovat původní obrazy ve smyslu minimální střední kvadratické odchylky → PCA – rozložení pravděpodobnosti veličin v novém prostoru budou splňovat podmínky kladené na jejich pravděpodobnostní charakteristiky → ICA – obrazy v novém prostoru budou minimalizovat odhad pravděpodobnosti chyby • metody extrakce proměnných (≈ metody ordinační analýzy): – analýza hlavních komponent (PCA) – faktorová analýza (FA) – analýza nezávislých komponent (ICA) – korespondenční analýza (CA) – vícerozměrné škálování (MDS) – manifold learning metody (LLE, Isomap atd.) – metoda parciálních nejmenších čtverců (PLS) Metody ordinační analýzy – opakování • analýza hlavních komponent, faktorová analýza, korespondenční analýza a vícerozměrné škálování se snaží zjednodušit vícerozměrnou strukturu dat výpočtem souhrnných os 11 • metody se liší v logice tvorby těchto os – maximální variabilita (analýza hlavních komponent, korespondenční analýza) – maximální interpretovatelnost os (faktorová analýza) – převod asociační matice do Euklidovského prostoru (vícerozměrné škálování) • redundanční analýza a kanonická korelační analýza se snaží nalézt vztah mezi dvěma sadami vícerozměrných dat Koriťáková: Analýza a klasifikace dat Analýza hlavních komponent 12Koriťáková: Analýza a klasifikace dat Analýza hlavních komponent – opakování • anglicky Principal component analysis (PCA) • snaha redukovat počet proměnných nalezením nových latentních proměnných (hlavních komponent) vysvětlujících co nejvíce variability původních proměnných • nové proměnné (y1, y2) lineární kombinací původních proměnných (x1, x2) 13Koriťáková: Analýza a klasifikace dat • předpoklad: kvantitativní proměnné s normálním rozdělením PCA x2 x1 x2 x1 y1 y2 Postup PCA – opakování 1. Volba asociační matice (autokorelační, kovarianční nebo kor. koeficientů) 14 2. Výpočet vlastních čísel a vlastních vektorů asociační matice: – vlastní vektory definují směr nových faktorových os (hlavních komponent) v prostoru – vlastní čísla odrážejí variabilitu vysvětlenou příslušnou komponentou 3. Seřazení vlastních vektorů podle hodnot jim odpovídajících vlastních čísel (sestupně) 4. Výběr prvních m komponent vyčerpávajících nejvíce variability původních dat Koriťáková: Analýza a klasifikace dat Identifikace optimálního počtu hlavních komponent pro další analýzu • pokud je cílem ordinační analýzy vizualizace dat, snažíme se vybrat 2-3 komponenty • pokud je cílem ordinační analýzy výběr menšího počtu dimenzí pro další analýzu, můžeme ponechat více komponent (např. u analýzy obrazů MRI je úspěchem redukce z milionu voxelů na desítky) 15 1. Kaiser Guttmanovo kritérium: – pro další analýzu jsou vybrány osy s vlastním číslem >1 (při analýze matice korelačních koeficientů) nebo větším než průměrná hodnota vlastních čísel (při analýze kovarianční matice) – logika je vybírat osy, které přispívají k vysvětlení variability dat více, než připadá rovnoměrným rozdělením variability • kritéria pro výběr počtu komponent: 2. Sutinový graf (scree plot) – grafický nástroj hledající zlom ve vztahu počtu os a vyčerpané variability 3. Sheppardův diagram – grafická analýza vztahu mezi vzdálenostmi objektů v původním prostoru a redukovaném prostoru o daném počtu dimenzí Koriťáková: Analýza a klasifikace dat Eigenvalues of correlation matrix Active variables only 72.96% 22.85% 3.67% .52% 0 1 2 3 4 5 Eigenvalue number -0.5 0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 Eigenvalue 72.96% 22.85% 3.67% .52% Kosatce Kosatce standardizovane F1 F12 F123 F1234 PCA – volba asociační matice • autokorelační matice – data nejsou nijak upravena (zohledňována průměrná hodnota i rozptyl původních dat) • kovarianční (disperzní) matice – data centrována (od každé proměnné odečtena její střední hodnota) – zohledňován rozptyl původních dat • matice korelačních koeficientů – data standardizována (odečtení středních hodnot a podělení směrodatnými odchylkami) – použití, pokud mají proměnné různá měřítka a nám to v analýze vadí 16 • každou úpravou původních dat ale přicházíme o určitou informaci !!! Koriťáková: Analýza a klasifikace dat 17 Analýza hlavních komponent – volba asociační matice x y autokorelační matice (data neupravována) • s jakými daty PCA pracuje v případě použití různých asociačních matic: původní data x y matice korelačních koeficientů (odečten průměr a podělení SD) kovarianční matice (odečten průměr) x y y x ? ? ? ? ? ? ? ? ? ? ? ? Koriťáková: Analýza a klasifikace dat PCA – obecněji • dáno K objektů (subjektů), k=1,...,K, charakterizovaných p proměnnými (objekty nejsou rozděleny do klasifikačních tříd) 18 v1 v2 … vp x1 x2 … xK proměnné objekty   m i ikik ec 1 y i T kki ec x Koriťáková: Analýza a klasifikace dat • aproximujme nyní kterýkoliv obraz xk lineární kombinací m ortonormálních vektorů ei (m ≤ p) • koeficienty cki lze považovat za velikost i-té souřadnice vektoru xk vyjádřeného v novém systému souřadnic s bází ei, i=1,2,…,m PCA – kritérium minimální střední kvadratické odchylky • nalezení optimálního zobrazení pomocí kritéria minimální střední kvadratické odchylky: 19 22 kkk yx    m i kikk c 1 222 x i K k T kk m i T i K k k K k k KKK exxex          111 2 1 22 111  Koriťáková: Analýza a klasifikace dat • vztah lze pomocí dříve uvedených vztahů upravit na: • střední kvadratická odchylka pro všechny objekty xk, k=1,…,K je: x2 x1 y1 y2 xk yk εk • musíme zvolit bázový systém ei tak, aby střední kvadratická odchylka ε2 byla minimální • diskrétní konečný rozvoj podle vztahu s bázovým systémem ei, optimálním podle kritéria minimální střední kvadratické chyby, nazýváme diskrétní Karhunenův – Loevův rozvoj 20 PCA – kritérium minimální střední kvadratické odchylky   m i ikik ec1 y    K k T kki m i T i K 11 . 1 )(kde,)( xxxexκe  Koriťáková: Analýza a klasifikace dat i K k T kk m i T i K k k K k k KKK exxex          111 2 1 22 111  • střední kvadratická odchylka je minimální, když je maximální výraz je autokorelační matice řádu m. Protože je symetrická a semidefinitní, jsou její vlastní čísla λi, i=1,…,m, reálná a nezáporná a vlastní vektory vi, jsou buď ortonormální, nebo je můžeme ortonormalizovat (v případě násobných vlastních čísel). • uspořádáme-li vlastní čísla sestupně podle velikosti, tj. λ1  λ2  …  λm  0 a podle toho očíslujeme i odpovídající vlastní vektory, lze dokázat, že výše uvedený výraz dosahuje maxima, jestliže platí ei = vi, i=1,…,m a pro velikost maxima je • pak pro minimální střední kvadratickou platí 21 PCA – kritérium minimální střední kvadratické odchylky    m i i m i i T i 11 ).(.max  exe    p mi i m i i m i i K k k Tr K 1111 22 min ))(( 1  xx Koriťáková: Analýza a klasifikace dat • minimální střední kvadratickou je tedy rovna součtu těch vlastních čísel, jimž odpovídající vlastní vektory nebyly použity při aproximaci objektu PCA – vlastnosti Karhunenova-Loevova rozvoje • při daném počtu m členů rozvoje poskytuje ze všech možných aproximací nejmenší střední kvadratickou odchylku • při použití kovarianční matice jsou transformované souřadnice nekorelované; pokud se výskyt obrazů řídí normálním rozložením zajišťuje nekorelovanost i jejich nezávislost • vliv každého členu uspořádaného rozvoje se zmenšuje s jeho pořadím • změna požadavků na velikost střední kvadratické odchylky nevyžaduje přepočítávat celý rozvoj, nýbrž jen změnit počet jeho členů 22Koriťáková: Analýza a klasifikace dat PCA – geometrická interpretace 23 Y1 Y1 Y2 v1 v2 A použití obou hlavních komponent použití 1. hlavní komponenty použití 2. hlavní komponenty y2 y1 Y1 Y2 v2 A y2 Y1 v1 Ay1 Y2 Koriťáková: Analýza a klasifikace dat Y2 A x1 x2y1 y2 X1 X2 PCA – rozdělení do tříd odečtení průměru každé skupiny zvlášť odečtení celkového průměru → není vhodné (odlišení tříd jen podle rozptylu) → je vhodné (neodstraňuje vliv středních hodnot obrazů v jednotlivých třídách ) Koriťáková: Analýza a klasifikace dat 24 PCA a klasifikace PCA často nebývá vhodnou metodou redukce dat před klasifikací 25 x1 x2 1. hlavní komponenta 2. hlavní komponenta Pro klasifikaci vhodnější 2. HK, přestože vyčerpává méně variability! Koriťáková: Analýza a klasifikace dat PCA a klasifikace Když hlavní komponenta vyčerpává hodně variability, neznamená to, že musí rovněž dobře klasifikovat 26Koriťáková: Analýza a klasifikace dat proměnná 1 proměnná2 vysoká korelace mezi proměnnými 1 a 2 - způsobená tím, že se skupiny od sebe hodně liší vysoká korelace mezi proměnnými 1 a 2 - skupiny se ale od sebe neliší → v tomto případě obě proměnné budou korelovat s první hlavní komponentou a dokáží dobře diskriminovat pacienty a kontroly → v tomto případě obě proměnné budou také korelovat s první hlavní komponentou, ale nedokáží diskriminovat pacienty a kontroly proměnná 1proměnná2 pacient kontrola PCA – rozšiřující poznatky • souvislost se singulárním rozkladem (SVD – Singular Value Decomposition): 27 T ),(),(),(),( pkkkknpn VUX  - matice U a V jsou ortogonální a normované (ortonormální) - matice U složena z vlastních (charakteristických) vektorů matice XXT (n,n) - matice V z vlastních vektorů matice XTX(p,p) - Matice Г je typu k x k a její diagonála je tvořena singulárními hodnotami, které jsou na hlavní diagonále uspořádány podle klesající velikosti a které jsou rovny odmocninám vlastních čísel matice XXT i XTX Koriťáková: Analýza a klasifikace dat • výpočet PCA, když je p >> n: - 1. způsob: iterativní postupný výpočet vlastních vektorů a vlastních čísel  1  ni i T i  wX v - 2. způsob: výpočet vlastních vektorů vi „velké“ kovarianční matice XTX(p,p) z vlastních vektorů wi „malé“ kovarianční matice XXT (n,n) takto: PCA – příklad – řešení v Matlabu • Zadání: Proveďte PCA na objemech 6 mozkových struktur u 833 subjektů. 28 • Řešení: [num, txt, raw] = xlsread('Data_neuro.xlsx',1); data = num(:,24:29); % vyber 6 promennych s objemy mozkovych struktur [coeff,score,latent] = pca(data); Matice vlastních vektorů vlastní vektory jsou ve sloupcích (jsou seřazené podle vlastních čísel) Souřadnice subjektů v novém prostoru hlavní komponenty jsou ve sloupcích (jsou seřazené podle vlastních čísel); v řádcích jsou subjekty Vlastní čísla Koriťáková: Analýza a klasifikace dat 29 PCA – příklad – řešení v softwaru Statistica I • Zadání: Proveďte PCA na objemech 6 mozkových struktur u 833 subjektů. • Řešení: Statistics – Multivariate Exploratory Techniques – Principal Components & Classification Analysis zvolit, zda se má počítat kovarianční či korelační matice vybrat proměnné Koriťáková: Analýza a klasifikace dat 30 PCA – příklad – řešení v softwaru Statistica II Souřadnice subjektů v novém prostoru Matice vlastních vektorů Vlastní čísla Koriťáková: Analýza a klasifikace dat 31 PCA – příklad – řešení v softwaru Statistica III Normalizace vlastních vektorů: - zkopírovat do Excelu („Copy with headers“) - použití vzorce: =B3/ODMOCNINA(SUMA.ČTVERCŮ(B$3:B$8)) Koriťáková: Analýza a klasifikace dat 32 PCA – příklad – řešení v softwaru Statistica IV Záložka Variables: Factor & variable correlations Plot var. factor coordinates, 2D Z výsledků vyplývá, že: - 1. hlavní komponenta je nevíce korelovaná s objemem Nucleus caudatus - 2. hlavní komponenta je korelovaná s objemem hipokampu a také s objemem amygdaly a putamenu Koriťáková: Analýza a klasifikace dat Metody varietního učení (manifold learning) 33Koriťáková: Analýza a klasifikace dat Úvod – redukce dimenzionality • klasické metody redukce dimenzionality: – PCA (principal component analysis) – snaha o nalezení „podstruktury“ (embedding) v datech tak, aby byl zachován rozptyl – MDS (multidimensional scaling) – snaha o nalezení „podstruktury“ v datech tak, aby byly zachovány vzdálenosti mezi body; ekvivalentní s PCA při použití Euklidovské vzdálenosti Tenenbaum et al. 2000, Science Swiss roll • tyto klasické metody redukce dimenzionality nedokáží zachytit složité nelineární struktury Koriťáková: Analýza a klasifikace dat → metody varietního učení Metody varietního učení • metody pro nelineární redukci a reprezentaci dat • manifold = „nadplocha“ – čáry a kruhy jsou 1D nadplochy, koule je příklad 2D nadplocha Koriťáková: Analýza a klasifikace dat • základní metody varietního učení: 1. ISOMAP (Tenenbaum et al. 2000) 2. Metoda lokálně lineárního vnoření = LLE (Roweis & Saul 2000) • další metody varietního učení: Laplacian Eigenmaps, Sammon's Mapping, Kohonen Maps, Autoencoders, Gaussian process latent variable models, Curvilinear component analysis, Curvilinear Distance Analysis, Kernel Principal Component Analysis, Diffusion Maps, Hessian LLE, Modified LLE, Local Tangent Space Alignment, Local Multidimensional Scaling, Maximum Variance Unfolding, DataDriven High Dimensional Scaling, Manifold Sculpting, RankVisu • některé z manifold learning metod implementovány v mani.m demu Tenenbaum et al. 2000 Science, A Global Geometric Framework for Nonlinear Dimensionality Reduction • založena na MDS • ISOMAP = isometric feature mapping • snaha o zachování vnitřní geometrie dat, která je zachycena pomocí geodézních vzdáleností (geodesis distance) založených na hledání nejkratších cest v grafu s hranami spojujícími sousední datové body ISOMAP metoda Koriťáková: Analýza a klasifikace dat ISOMAP metoda – algoritmus se 3 kroky Tenenbaum et al. 2000 Science, A Global Geometric Framework for Nonlinear Dimensionality Reduction Koriťáková: Analýza a klasifikace dat 1. Vytvoření grafu spojujícího sousední objekty: • nejprve nutno vypočítat vzdálenosti 𝐷 x𝑖, x𝑗 mezi všemi objekty • poté dojde ke spojení objektů tak, že se j-tý objekt spojí s těmi objekty, jejichž vzdálenost je menší než ε (v případě ε-ISOMAP), nebo s jeho k nejbližšími sousedy (v případě k-ISOMAP) 2. Výpočet geodézních vzdáleností 𝐷 𝐺 x𝑖, x𝑗 mezi všemi objekty nalezením nejkratší cesty v grafu mezi danými objekty – iniciální nastavení 𝐷 𝐺 x𝑖, x𝑗 závisí na tom, jestli jsou objekty spojené hranou či nikoliv: • pokud objekty spojeny hranou: 𝐷 𝐺 x𝑖, x𝑗 = 𝐷 x𝑖, x𝑗 • pokud ne: 𝐷 𝐺 x𝑖, x𝑗 = ∞ poté je pro každé 𝑘 = 1,2, … , 𝑁 nahrazena vzdálenost 𝐷 𝐺 x𝑖, x𝑗 hodnotou min 𝐷 𝐺 𝐱 𝑖, 𝐱𝑗 , 𝐷 𝐺 𝐱 𝑖, 𝐱 𝑘 + 𝐷 𝐺 𝐱 𝑘, 𝐱𝑗 . 3. Aplikace nemetrického vícerozměrného škálování (MDS) na matici geodézních vzdáleností – tzn. transformace dat do Euklidovského prostoru tak, aby byly co nejlépe zachovány geodézní vzdálenosti. Interpolace podél os x a y v podprostoru obrazů tváří Výsledek k-ISOMAP algoritmu u 698 obrazů tváří ISOMAP metoda – ukázka 1 Tenenbaum et al. 2000 Science, A Global Geometric Framework for Nonlinear Dimensionality Reduction Koriťáková: Analýza a klasifikace dat Výsledkem je redukce původních 4096 proměnných (obrazy měly rozměry 64 x 64 pixelů) na pouze tři komponenty a) b) směr osvětlení pravolevé natočení tváře vertikálnípozicetváře Interpolace podél os x a y v podprostoru obrazů číslic Výsledek ISOMAP algoritmu u obrazů ručně psaných číslic ISOMAP metoda – ukázka 2 Tenenbaum et al. 2000 Science, A Global Geometric Framework for Nonlinear Dimensionality Reduction Koriťáková: Analýza a klasifikace dat Metoda lokálně lineárního vnoření (LLE) • Locally Linear Embedding (LLE) • založena na zachování mapování sousedů (neighborhood-preserving mapping) • LLE rekonstruuje globální nelineární struktury z lokálních lineárních fitů Černě vyznačeno okolí (sousedi) jednoho bodu. Roweis & Saul 2000 Science, Nonlinear Dimensionality Reduction by Locally Linear Embedding Koriťáková: Analýza a klasifikace dat 2. Rekonstrukce objektů z jejich sousedů – cílem je nalezení vah Wij tak, aby rekonstrukční chyby byly co nejmenší, tzn. snažíme se minimalizovat výraz 𝜀 𝑊 = σ𝑖 x𝑖 − σ 𝑗 𝑊𝑖𝑗 x𝑗 2 , přičemž součet vah Wij musí být roven 1; váhy jsou invariantní vůči rotaci, přeškálování a translaci objektů a jejich sousedů. 1. Výběr k nejbližších sousedů. 3. Mapování do „nadplochy“ s nižší dimenzionalitou (lineární mapování – skládající se z translací, rotací a přeškálování) pomocí výpočtu vlastních vektorů LLE - algoritmus Roweis & Saul 2000 Science, Nonlinear Dimensionality Reduction by Locally Linear Embedding Koriťáková: Analýza a klasifikace dat Výsledek LLE algoritmu u obrazů tváří LLE – ukázka 1 Roweis & Saul 2000 Science, Nonlinear Dimensionality Reduction by Locally Linear Embedding Koriťáková: Analýza a klasifikace dat pozicetváře výraz tváře Výsledek LLE algoritmu u hodnocení počtu a výskytu slov v encyklopedii LLE – ukázka 2 Roweis & Saul 2000 Science, Nonlinear Dimensionality Reduction by Locally Linear Embedding Koriťáková: Analýza a klasifikace dat • výhody a nevýhody ISOMAP: + zachovává globální strukturu dat + málo parametrů - citlivost k šumu - výpočetně náročné Výhody a nevýhody ISOMAP a LLE Koriťáková: Analýza a klasifikace dat • výhody a nevýhody Locally Linear Embedding (LLE): + rychlý + jeden parametr + jednoduché operace lineární algebry - může zkreslit globální strukturu dat Další práce • Laplacian Eigenmaps for Dimensionality Reduction and Data Representation (Belkin & Niyogi 2003): – snaha o zachování mapování sousedů jako u Locally Linear Embedding – podobný algoritmus jako LLE, ale používá se zde výpočet vlastních vektorů a vlastních čísel s využitím Laplaciánu grafu – souvislost s klastrováním – lokální přístup k redukci dimenzionality způsobuje přirozené klastrování dat (klastrování tedy nastává u Laplacian Eigenmaps a LLE, nenastává u ISOMAP, protože to je globální metoda) • Manifold Learning for Biomarker Discovery in MR Imaging (Wolz et al. 2010) – použití Laplacian eigenmaps u obrazů pacientů s Alzheimerovou chorobou (data ADNI) Koriťáková: Analýza a klasifikace dat 46Koriťáková: Analýza a klasifikace dat Příprava nových učebních materiálů pro obor Matematická biologie je podporována projektem OPVK č. CZ.1.07/2.2.00/28.0043 „Interdisciplinární rozvoj studijního oboru Matematická biologie“