Refine
Year of publication
- 2018 (4) (remove)
Keywords
- Human-Robot Interaction (2)
- Tetraplegie (2)
- Alltagsunterstützende Assistenzlösung (1)
- Augmented Reality (1)
- Erweiterte Realität <Informatik> (1)
- Interaktion (1)
- Kalman filter (1)
- Mensch-Roboter (1)
- Mixed Reality (1)
- Zustandsmaschine (1)
Institute
- Informatik und Kommunikation (4) (remove)
In der wissenschaftlichen Literatur gibt es kaum Studien, die sich mit der konkreten Alltagstauglichkeit von Smartwatches beschäftigen, um zu verstehen, warum die Klasse von wearables eher ein Nischendasein führt. In diesem Beitrag wird daher die Verwendung einer Smartwatch am Beispiel Kochen untersucht. Hierzu wurde eine Koch-App mit Rezeptinformationen für eine Smartwatch entwickelt, welche über Hand- und Armbewegungen in Form von Gesten bedient werden kann. In einer Feldstudie mit acht Probanden wurde ermittelt, inwieweit diese Interaktionsform den Kochprozess verändert. Die Ergebnisse zeigen, dass die unmittelbare Verfügbarkeit der Uhr sowohl Effizienz- als auch Effektivitätsvorteile gegenüber klassischen Kochhilfen bietet. Die Steuerung via Freihandgesten erlaubte zudem die Nutzung in einem Szenario, in welchem die Hände oft belegt oder verschmutzt sind und somit eine Bedienung per Finger problematisch sein kann. Die Uhr wurde von den Probanden dabei als nützliches Werkzeug erachtet, obwohl diese bislang keinerlei Erfahrung mit einem solchen Gerät hatten.
Selbstständig und selbstbestimmt essen und trinken zu können gehört zu den Grundbedürfnissen des Menschen und wird den Aktivitäten des täglichen Lebens (ATLs) zugeordnet. Körperliche Beeinträchtigungen, die mit Funktionsverlusten in Armen, Händen und ggf. der Beweglichkeit des Oberkörpers einhergehen, schränken die selbstständige Nahrungszufuhr erheblich ein. Die Betroffenen sind darauf angewiesen, dass ihnen Getränke und Mahlzeiten zubereitet, bereitgestellt und angereicht werden. Zu dieser Personengruppe gehören Menschen mit querschnittbedingter Tetraplegie, Multiple Sklerose, Muskeldystrophie und Erkrankungen mit ähnlichen Auswirkungen. Derzeit gibt es verschiedene assistive Technologien, die das selbstständige Essen und Trinken wieder ermöglichen sollen.Wie aber muss ein Interaktionsdesign für einen Roboterarm gestaltet sein, damit er von den Betroffenen zur Nahrungsaufnahme genutzt werden kann? Welche Anforderungen gibt es und welche Aspekte sind in Bezug auf die Akzeptanz eines Roboterarms zu berücksichtigen?
Opportunities and Challenges in Mixed-Reality for an Inclusive Human-Robot Collaboration Environment
(2018)
This paper presents an approach to enhance robot control using Mixed-Reality. It highlights the opportunities and challenges in the interaction design to achieve a Human-Robot Collaborative environment. In fact, Human-Robot Collaboration is the perfect space for social inclusion. It enables people, who suffer severe physical impairments, to interact with the environment by providing them movement control of an external robotic arm. Now, when discussing about robot control it is important to reduce the visual-split that different input and output modalities carry. Therefore, Mixed-Reality is of particular interest when trying to ease communication between humans and robotic systems.
A Robust Interface for Head Motion based Control of a Robot Arm using MARG and Visual Sensors
(2018)
Head-controlled human machine interfaces have gained popularity over the past years, especially in the restoration of the autonomy of severely disabled people, like tetraplegics. These interfaces need to be reliable and robust regarding the environmental conditions to guarantee safety of the user and enable a direct interaction between a human and a machine. This paper presents a hybrid MARG and visual sensor system for head orientation estimation which is in this case used to teleoperate a robotic arm. The system contains a Magnetic Angular Rate Gravity (MARG)-sensor and a Tobii eye tracker 4C. A MARG sensor consists of tri-axis accelerometer, gyroscope as well as a magnetometer which enable a complete measurement of orientation relative to the direction of gravity and magnetic field of the earth. The tri-axis magnetometer is sensitive to external magnetic fields which result in incorrect orientation estimation from the sensor fusion process. In this work the Tobii eye tracker 4C is used to increase head orientation estimation because it also features head tracking even though it is commonly used for eye tracking. This type of visual sensor does not suffer magnetic drift. However, it computes orientation data only, if a user is detectable. Within this work a state machine is presented which enables data fusion of the MARG and visual sensor to improve orientation estimation. The fusion of the orientation data of MARG and visual sensors enables a robust interface, which is immune against external magnetic fields. Therefore, it increases the safety of the human machine interaction.