R 2013

MUSE framework 1.1.1

RUSŇÁK, Vít, Lukáš RUČKA, Martin ĽUPTÁK a Petr HOLUB

Základní údaje

Originální název

MUSE framework 1.1.1

Autoři

RUSŇÁK, Vít (203 Česká republika, garant, domácí), Lukáš RUČKA (203 Česká republika, domácí), Martin ĽUPTÁK (703 Slovensko, domácí) a Petr HOLUB (203 Česká republika, domácí)

Vydání

2013

Další údaje

Jazyk

angličtina

Typ výsledku

Software

Obor

10201 Computer sciences, information science, bioinformatics

Stát vydavatele

Česká republika

Utajení

není předmětem státního či obchodního tajemství

Kód RIV

RIV/00216224:14330/13:00072055

Organizační jednotka

Fakulta informatiky

Klíčová slova anglicky

multi-touch; human-computer interaction; HCI; interaction framework; gesture recognition; group collaborative environment

Technické parametry

Kontaktní osoba: Vít Rusňák, Fakulta Informatiky, Masarykova univerzita, Botanická 68a, Brno, e-mail:xrusnak@fi.muni.cz; Software je šířen pod BSD licencí. Uživatel software souhlasí s podmínkami této licence.
Změněno: 14. 1. 2015 11:16, RNDr. Vít Rusňák, Ph.D.

Anotace

V originále

MUSE is a framework for developing cost-affordable interactive environments. It allows for rapid development of interactive systems based on tabletops and interactive tiled-display walls. It serves as a testing environment for a development of new interaction approaches for large-scale interactive systems. The framework provides different interaction possibilities of multimodal user interfaces which are made of multiple low-cost commodity devices (e.g., single- and multi-touch overlay panels and foils, web cameras, depth sensors). Main features of the framework: a) coupling of multiple low-cost commodity multi-touch sensors which are represented as a single seamless interface; b) functions for distinguishing and continuous association of users and touch operations they performed; c) hand-tracking for identification and distinguishing users' body parts (e.g., hands) used in association with touch input events; d) integration of gesture recognition algorithms Protractor, $1 and $N to provide experimental gesture recognition of touch events (libreco library) e) extended semantic description of input events enabling their personalisation (e.g., personalized gesture recognition); (libdtuio library) f) highly configurable toolkit and application base. Supported HW: majority of existing resistive and capacitive single- and multi-touch sensor overlay panels and devices, MS Kinect depth tracker.