SEDMIDUBSKÝ, Jan, Petr ELIÁŠ a Pavel ZEZULA. Enhancing Effectiveness of Descriptors for Searching and Recognition in Motion Capture Data. In 19th IEEE International Symposium on Multimedia. Neuveden: IEEE Computer Society, 2017, s. 240-243. ISBN 978-1-5386-2937-6. Dostupné z: https://dx.doi.org/10.1109/ISM.2017.39.
Další formáty:   BibTeX LaTeX RIS
Základní údaje
Originální název Enhancing Effectiveness of Descriptors for Searching and Recognition in Motion Capture Data
Autoři SEDMIDUBSKÝ, Jan (203 Česká republika, garant, domácí), Petr ELIÁŠ (203 Česká republika, domácí) a Pavel ZEZULA (203 Česká republika, domácí).
Vydání Neuveden, 19th IEEE International Symposium on Multimedia, od s. 240-243, 4 s. 2017.
Nakladatel IEEE Computer Society
Další údaje
Originální jazyk angličtina
Typ výsledku Stať ve sborníku
Obor 10201 Computer sciences, information science, bioinformatics
Utajení není předmětem státního či obchodního tajemství
Forma vydání paměťový nosič (CD, DVD, flash disk)
Kód RIV RIV/00216224:14330/17:00094977
Organizační jednotka Fakulta informatiky
ISBN 978-1-5386-2937-6
Doi http://dx.doi.org/10.1109/ISM.2017.39
UT WoS 000454605200033
Klíčová slova anglicky motion capture data; similarity-based comparison; motion images; joint weights; deep convolutional neural network; distance function; action recognition
Štítky DISA, firank_B
Příznaky Mezinárodní význam, Recenzováno
Změnil Změnil: RNDr. Pavel Šmerk, Ph.D., učo 3880. Změněno: 13. 5. 2020 19:25.
Anotace
Computer-aided analyses of motion capture data require an effective and efficient concept of motion similarity. Traditional methods generally compare motion sequences by applying time-warping techniques to high-dimensional trajectories of joints. An increasing effectiveness of machine-learning techniques, such as deep convolutional neural networks, brings new possibilities for similarity comparison. Inspired by recent advances in neural networks and image processing, we propose new variants of transformation of motion sequences into 2D images. The generated images are used to fine-tune a neural network from which 4,096D features are extracted and compared by a modified Euclidean distance. The proposed concept is not only efficient but also very effective and outperforms existing methods on a challenging dataset with 130 categories.
Návaznosti
GBP103/12/G084, projekt VaVNázev: Centrum pro multi-modální interpretaci dat velkého rozsahu
Investor: Grantová agentura ČR, Centrum pro multi-modální interpretaci dat velkého rozsahu
VytisknoutZobrazeno: 25. 4. 2024 10:12