Full metadata record
DC pole | Hodnota | Jazyk |
---|---|---|
dc.contributor.author | Kagirov, Ildar | |
dc.contributor.author | Ryumin, Dmitry | |
dc.contributor.author | Železný, Miloš | |
dc.date.accessioned | 2021-02-22T11:00:22Z | - |
dc.date.available | 2021-02-22T11:00:22Z | - |
dc.date.issued | 2020 | |
dc.identifier.citation | KAGIROV, I., RYUMIN, D., ŽELEZNÝ, M. Gesture-Based Intelligent User Interface for Control of an Assistive Mobile Information Robot. In: 5th International Conference, ICR 2020, St Petersburg, Russia, October 7-9, 2020, Proceedings. Cham: Springer Nature Switzerland AG 2020, 2020. s. 126-134. ISBN 978-3-030-60336-6, ISSN 0302-9743. | cs |
dc.identifier.isbn | 978-3-030-60336-6 | |
dc.identifier.issn | 0302-9743 | |
dc.identifier.uri | 2-s2.0-85092939882 | |
dc.identifier.uri | http://hdl.handle.net/11025/42729 | |
dc.description.abstract | Tento článek představuje uživatelské rozhraní založené na gestech pro robotický nákupní vozík. Vozík je navržen jako mobilní robotická platforma, která pomáhá zákazníkům v obchodech a supermarketech. Mezi hlavní funkce patří: navigace v obchodě, poskytování informací o dostupnosti a umístění a přeprava zakoupeného zboží. Jednou z důležitých vlastností vyvinutého rozhraní je gestická modalita, přesněji řečeno ruský systém rozpoznávání prvků znakového jazyka. Pojem design rozhraní, stejně jako strategie interakce, jsou prezentovány ve vývojových diagramech, byl učiněn pokus demonstrovat gestickou modalitu jako přirozenou součást pomocného informačního robota. Kromě toho je v článku uveden krátký přehled mobilních robotů a je poskytnuta technika rozpoznávání gest založená na CNN. Možnost rozpoznávání ruského znakového jazyka má velký význam kvůli relativně velkému počtu rodilých mluvčích. | cs |
dc.format | 9 s. | cs |
dc.format.mimetype | application/pdf | |
dc.language.iso | en | en |
dc.publisher | Springer Nature Switzerland AG 2020 | en |
dc.relation.ispartofseries | 5th International Conference, ICR 2020, St Petersburg, Russia, October 7-9, 2020, Proceedings | en |
dc.rights | Plný text není přístupný. | cs |
dc.rights | © Springer | en |
dc.subject | Pomocné technologie | cs |
dc.subject | Počítačové vidění | cs |
dc.subject | Rozpoznávání gest | cs |
dc.subject | Inteligentní rozhraní | cs |
dc.subject | Strojové učení | cs |
dc.subject | Mobilní informační robot | cs |
dc.subject | Znaková řeč | cs |
dc.title | Gesture-Based Intelligent User Interface for Control of an Assistive Mobile Information Robot | en |
dc.title.alternative | Inteligentní uživatelské rozhraní založené na gestech pro ovládání asistenčního mobilního informačního robota | cs |
dc.type | konferenční příspěvek | cs |
dc.type | conferenceObject | en |
dc.rights.access | closedAccess | en |
dc.type.version | publishedVersion | en |
dc.description.abstract-translated | This article presents a gesture-based user interface for a robotic shopping trolley. The trolley is designed as a mobile robotic platform helping customers in shops and supermarkets. Among the main functions are: navigating through the store, providing information on availability and location, and transporting the items bought. One of important features of the developed interface is the gestural modality, or, more precisely, Russian sign language elements recognition system. The notion of the interface design, as well as interaction strategy, are presented in flowcharts, it was made an attempt to demonstrate the gestural modality as a natural part of an assistive information robot. Besides, a short overview of mobile robots is given in the paper, and CNN-based technique of gesture recognition is provided. The Russian sign language recognition option is of high importance due to a relatively large number of native speakers (signers). © 2020, Springer Nature Switzerland AG. | en |
dc.subject.translated | Assistive technology | en |
dc.subject.translated | Computer vision | en |
dc.subject.translated | Gesture recognition | en |
dc.subject.translated | Intelligent interface | en |
dc.subject.translated | Machine learning | en |
dc.subject.translated | Mobile information robot | en |
dc.subject.translated | Sign language | en |
dc.identifier.doi | 10.1007/978-3-030-60337-3_13 | |
dc.type.status | Peer-reviewed | en |
dc.identifier.obd | 43930831 | |
dc.project.ID | LTARF18017/AMIR - Multimodální rozhraní založené na gestech a mluvené i znakové řeči pro ovládání asistivního mobilního informačního robota | cs |
Vyskytuje se v kolekcích: | Konferenční příspěvky / Conference papers (NTIS) OBD |
Soubory připojené k záznamu:
Soubor | Velikost | Formát | |
---|---|---|---|
Kagirov2020_Chapter_Gesture-BasedIntelligentUserIn.pdf | 1,26 MB | Adobe PDF | Zobrazit/otevřít Vyžádat kopii |
Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam:
http://hdl.handle.net/11025/42729
Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.