Filtern
Dokumenttyp
- Masterarbeit (4) (entfernen)
Schlagworte
- Augmented Reality (2)
- Erweiterte Realität <Informatik> (2)
- Hands-free Interaction (2)
- Human-Robot Interaction (2)
- Big Data (1)
- Brennstoffzellen (1)
- Elektrokatalysator (1)
- Evaluation (1)
- Graphitisierung (1)
- Internet of Things (1)
- Kohlevlies (1)
- Mikroklima (1)
- Object Recognition (1)
- Smart Cities (1)
- Stadt Gelsenkirchen (1)
Institut
Durch den digitalen Wandel haben Kommunen neue Entwicklungsmöglichkeiten im Bereich der Smart City. Diese Arbeit stellt eine Übersicht darüber dar, wie mithilfe von IoT, Big Data, Datenbanken, Digitalen Zwillingen und weiteren Technologien, eine Mikroklima-Analyse und Steuerung ermöglicht werden kann.
Körperliche Behinderungen können einen Menschen soweit einschränken, dass für sie ein autonomes und selbstbestimmtes Leben, trotz intakter mentaler und kognitiven Fähigkeiten, nicht mehr möglich ist. Daher ist für Menschen, die beispielsweise vom Hals abwärts gelähmt sind, sogenannten Tetraplegikern, jede Zurückgewinnung von Autonomie eine Steigerung der Lebensqualität. In dieser Masterarbeit wird ein Augmented Reality Prototyp entwickelt, der es Tetraplegikern oder Menschen mit einer ähnlichen körperlichen Einschränkung erlaubt, an einem Mensch-Roboter Arbeitsplatz Montageaufgaben durchzuführen und ihnen somit eine Integration ins Arbeitsleben ermöglichen kann. Der Prototyp erlaubt es den Benutzer ohne die Nutzung der Hände, einen Kuka iiwa Roboterarm mit der Microsoft HoloLens zu steuern. Dabei wird ein Fokus darauf gelegt, das Blickfeld des Benutzers mit speziellen virtuellen Visualisierungen, sogenannten visuellen Helfern, anzureichern, um die Nachteile, die durch die Bewegungseinschränkungen der Zielgruppe ausgelöst werden, auszugleichen. Diese visuellen Helfer sollen bei der Steuerung des Roboterarms unterstützen und die Bedienung des Prototyps verbessern. Eine Evaluation des Prototyps zeigte Tendenzen, dass das Konzept der visuellen Helfer den Benutzer den Roboterarm präziser steuern lässt und seine Bedienung unterstützt.
Um grünen Wasserstoff effizient als Energieträger nutzen zu können, ist die Entwicklung von haltbaren und aktiven Katalysatorschichten für Brennstoffzellen und Elektrolyseuren von äußerster Wichtigkeit. Eine große Herausforderung ist, dass konventionelle C/Pt-Katalysatoren eine starke Korrosionsreaktion durchlaufen und mit hohen Kosten verknüpft sind. Weswegen alternative Kohlenstoffträger wie Kohlenstoffnanofaser-Materialien entwickelt wurden, welche eine längere Haltbarkeit aufweisen können. In dieser Arbeit wurde die Aufbringung von Pt- und Ir-Nanopartikeln auf gesponnene Kohlenstoffnanofaser-Vliese untersucht. Es wurden erstmals in einer Flüssigkeit laserablatierte Pt-Nanoartikel mit einem PAN-Vlies versponnen oder in einem zweiten Syntheseverfahren auf ein Vlies aufgesprüht. Diese Methoden wurden mit der gepulsten galvanischen Abscheidung von Pt auf einem PAN-Vlies verglichen. Die Vliese wurden bezüglich ihres Graphitisierungsgrades, ihrer Partikelverteilung und ihrer Beständigkeit untersucht, einschließlich des Einflusses der Karbonisierungstemperatur. Die Raman- und XRF-Messungen ergaben eine Erhöhung des Graphitisierungsgrades und eine Abnahme der PAN-Reste mit dem Anstieg der Karbonisierungstemperatur. Elektrochemische Messungen und REM-Aufnahmen bestätigten die erfolgreiche Synthese von langzeitstabilen CNF-Vliesen mit einer hohen massenspezifischen aktiven Platinoberfläche und einer guten Nanopartikelverteilung. Diese Ergebnisse tragen zur Entwicklung von ökologischen und ökonomischen Katalysatorschichten bei.
Autonomy and self-determination are fundamental aspects of living in our society. Supporting people for whom this freedom is limited due to physical impairments is the fundamental goal of this thesis. Especially for people who are paralyzed, even working at a desk job is often not feasible. Therefore, in this thesis a prototype of a robot assembly workstation was constructed that utilizes a modern Augmented Reality (AR)-Head-Mounted Display (HMD) to control a robotic arm. Through the use of object pose recognition, the objects in the working environment are detected and this information is used to display different visual cues at the robotic arm or in its vicinity. Providing the users with additional depth information and helping them determine object relations, which are often not easily discernible from a fixed perspective.
To achieve this a hands-free AR-based robot-control scheme was developed, which uses speech and head-movement for interaction. Additionally, multiple advanced visual cues were designed that utilize object pose detection for spatial-visual support. The pose recognition system is adapted from state-of-the-art research in computer vision to allow the detection of arbitrary objects with no regard for texture or shape.
Two evaluations were performed, a small user study that excluded the object recognition, which confirms the general usability of the system and gives an impression on its performance. The participants were able to perform difficult pick and place tasks with a high success rate. Secondly, a technical evaluation of the object recognition system was conducted, which revealed an adequate prediction precision, but is too unreliable for real-world scenarios as the prediction quality is highly variable and depends on object orientations and occlusion.