BALÁŽIA, Michal a Petr SOJKA. Gait Recognition from Motion Capture Data. ACM Transactions on Multimedia Computing, Communications and Applications (TOMM), special issue on Representation, Analysis and Recognition of 3D Humans, New York, USA: ACM, 2018, roč. 14, 1s, s. 1-18. ISSN 1551-6857. doi:10.1145/3152124.
Další formáty:   BibTeX LaTeX RIS
Základní údaje
Originální název Gait Recognition from Motion Capture Data
Autoři BALÁŽIA, Michal (703 Slovensko, garant, domácí) a Petr SOJKA (203 Česká republika, domácí).
Vydání ACM Transactions on Multimedia Computing, Communications and Applications (TOMM), special issue on Representation, Analysis and Recognition of 3D Humans, New York, USA, ACM, 2018, 1551-6857.
Další údaje
Originální jazyk angličtina
Typ výsledku Článek v odborném periodiku
Obor Computer sciences, information science, bioinformatics
Stát vydavatele Spojené státy americké
Utajení není předmětem státního či obchodního tajemství
WWW DOI
Impakt faktor Impact factor: 2.870
Kód RIV RIV/00216224:14330/18:00102051
Organizační jednotka Fakulta informatiky
Doi http://dx.doi.org/10.1145/3152124
UT WoS 000433517100008
Klíčová slova česky rozpoznávání podle chůze
Klíčová slova anglicky gait recognition
Štítky best2, gait recognition
Příznaky Mezinárodní význam, Recenzováno
Změnil Změnil: RNDr. Michal Balážia, Ph.D., učo 256078. Změněno: 10. 7. 2018 18:32.
Anotace
Gait recognition from motion capture data, as a pattern classification discipline, can be improved by the use of machine learning. This paper contributes to the state-of-the-art with a statistical approach for extracting robust gait features directly from raw data by a modification of Linear Discriminant Analysis with Maximum Margin Criterion. Experiments on the CMU MoCap database show that the suggested method outperforms thirteen relevant methods based on geometric features and a method to learn the features by a combination of Principal Component Analysis and Linear Discriminant Analysis. The methods are evaluated in terms of the distribution of biometric templates in respective feature spaces expressed in a number of class separability coefficients and classification metrics. Results also indicate a high portability of learned features, that means, we can learn what aspects of walk people generally differ in and extract those as general gait features. Recognizing people without needing group-specific features is convenient as particular people might not always provide annotated learning data. As a contribution to reproducible research, our evaluation framework and database have been made publicly available. This research makes motion capture technology directly applicable for human recognition.
Návaznosti
MUNI/A/0992/2016, interní kód MUNázev: Zapojení studentů Fakulty informatiky do mezinárodní vědecké komunity (Akronym: SKOMU)
Investor: Masarykova univerzita, Grantová agentura MU, Kategorie A - Specifický výzkum - Studentské výzkumné projekty
MUNI/A/0997/2016, interní kód MUNázev: Aplikovaný výzkum na FI: vyhledávacích systémy, bezpečnost, vizualizace dat a virtuální realita.
Investor: Masarykova univerzita, Grantová agentura MU, Kategorie A - Specifický výzkum - Studentské výzkumné projekty
Typ Název Vložil/a Vloženo Práva
1390685 /1 Balážia, M. 25. 9. 2017

Vlastnosti

Název
1390685
Aplikace
Obnovit.
Adresa v ISu
https://is.muni.cz/auth/repo/1390685/
Adresa ze světa
https://is.muni.cz/repo/1390685/
Adresa do Správce
https://is.muni.cz/auth/repo/1390685/?info
Ze světa do Správce
https://is.muni.cz/repo/1390685/?info
Vloženo
Po 25. 9. 2017 11:39, RNDr. Michal Balážia, Ph.D.

Práva

Právo číst
  • kdokoliv v Internetu
Právo vkládat
 
Právo spravovat
  • osoba doc. RNDr. Petr Sojka, Ph.D., učo 2378
  • osoba RNDr. Michal Balážia, Ph.D., učo 256078
Atributy
 
tomm22final.pdf   Verze souboru Balážia, M. 1. 3. 2018

Práva

Právo číst
  • kdokoliv přihlášený v ISu
Právo vkládat
 
Právo spravovat
  • osoba doc. RNDr. Petr Sojka, Ph.D., učo 2378
  • osoba RNDr. Michal Balážia, Ph.D., učo 256078
Atributy
 
Vytisknout
Požádat autora o autorský výtisk Zobrazeno: 18. 9. 2019 09:36