Informatik und Kommunikation
Filtern
Erscheinungsjahr
Dokumenttyp
- Konferenzveröffentlichung (45) (entfernen)
Schlagworte
- Akkreditierung (3)
- E-Learning (2)
- Human-Robot Interaction (2)
- Tetraplegie (2)
- Virtuelle Hochschule (2)
- 360° Panorama (1)
- Akademischer Grad (1)
- Alltagsunterstützende Assistenzlösung (1)
- Alternative Geschäftsmodelle (1)
- Arbeitsbelastung (1)
Institut
- Informatik und Kommunikation (45) (entfernen)
In the realm of digital situational awareness during disaster situations, accurate digital representations,
like 3D models, play an indispensable role. To ensure the
safety of rescue teams, robotic platforms are often deployed
to generate these models. In this paper, we introduce an
innovative approach that synergizes the capabilities of compact Unmaned Arial Vehicles (UAVs), smaller than 30 cm, equipped with 360° cameras and the advances of Neural Radiance Fields (NeRFs). A NeRF, a specialized neural network, can deduce a 3D representation of any scene using 2D images and then synthesize it from various angles upon request. This method is especially tailored for urban environments which have experienced significant destruction, where the structural integrity of buildings is compromised to the point of barring entry—commonly observed post-earthquakes and after severe fires. We have tested our approach through recent post-fire scenario, underlining the efficacy of NeRFs even in challenging outdoor environments characterized by water, snow, varying light conditions, and reflective surfaces.
In this paper, we present a method for detecting objects of interest, including cars, humans, and fire, in aerial images captured by unmanned aerial vehicles (UAVs) usually during vegetation fires. To achieve this, we use artificial neural networks and create a dataset for supervised learning. We accomplish the assisted labeling of the dataset through the implementation of an object detection pipeline that combines classic image processing techniques with pretrained neural networks. In addition, we develop a data augmentation pipeline to augment the dataset with utomatically labeled images. Finally, we evaluate the performance of different neural networks.
This technical report is about the architecture and integration of very small commercial UAVs (< 40 cm diagonal) in indoor Search and Rescue missions. One UAV is manually controlled by only one single human operator delivering live video streams and image series for later 3D scene modelling and inspection. In order to assist the operator who has to simultaneously observe the environment and navigate through it we use multiple deep neural networks to provide guided autonomy, automatic object detection and classification and local 3D scene modelling. Our methods help to reduce the cognitive load of the operator. We describe a framework for quick integration of new methods from the field of Deep Learning, enabling for rapid evaluation in real scenarios, including the interaction of methods.
This technical report is about the mission and the experience gained during the reconnaissance of an industrial hall with hazardous substances after a major fire in Berlin. During this operation, only UAVs and cameras were used to obtain information about the site and the building. First, a geo-referenced 3D model of the building was created in order to plan the entry into the hall. Subsequently, the UAVs were used to fly in the heavily damaged interior and take pictures from inside of the hall. A 360° camera mounted under the UAV was used to collect images of the surrounding area especially from sections that were difficult to fly into. Since the collected data set contained similar images as well as blurred images, it was cleaned from non-optimal images using visual SLAM, bundle adjustment and blur detection so that a 3D model and overviews could be calculated. It was shown that the emergency services were not able to extract the necessary information from the 3D model. Therefore, an interactive panorama viewer with links to other 360° images was implemented where the links to the other images depends on the semi dense point cloud and located camera positions of the visual SLAM algorithm so that the emergency forces could view the surroundings.
This Article introduces two research projects towards assistive robotic arms for people with severe body impairments. Both projects aim to develop new control and interaction designs to promote accessibility and a better performance for people with functional losses in all four extremities, e.g. due to quadriplegic or multiple sclerosis. The project MobILe concentrates on using a robotic arm as drinking aid and controlling it with smart glasses, eye-tracking and augmented reality. A user oriented development process with participatory methods were pursued which brought new knowledge about the life and care situation of the future target group and the requirements a robotic drinking aid needs to meet. As a consequence the new project DoF-Adaptiv follows an even more participatory approach, including the future target group, their family and professional caregivers from the beginning into decision making and development processes within the project. DoF-Adaptiv aims to simplify the control modalities of assistive robotic arms to enhance the usability of the robotic arm for activities of daily living. lo decide on exemplary activities, like eating or open a door, the future target group, their family and professional caregivers are included in the decision making process. Furthermore all relevant stakeholders will be included in the investigation of ethical, legal and social implications as well as the identification of potential risks. This article will show the importance of the participatory design for the development and research process in MobILe and DoF-Adaptiv.
Recommendations for the Development of a Robotic Drinking and Eating Aid - An Ethnographic Study
(2021)
Being able to live independently and self-determined in one’s own home is a crucial factor or human dignity and preservation of self-worth. For people with severe physical impairments who cannot use their limbs for every day tasks, living in their own home is only possible with assistance from others. The inability to move arms and hands makes it hard to take care of oneself, e.g. drinking and eating independently. In this paper, we investigate how 15 participants with disabilities consume food and drinks. We report on interviews, participatory observations, and analyzed the aids they currently use. Based on our findings, we derive a set of recommendations that supports researchers and practitioners in designing future robotic drinking and eating aids for people with disabilities.
We investigate the possibility to use update propagation methods for optimizing the evaluation of continuous queries. Update propagation allows for the efficient determination of induced changes to derived relations resulting from an explicitly performed base table update. In order to simplify the computation process, we propose the propagation of updates with different degrees of granularity which corresponds to an incremental query evaluation with different levels of accuracy. We show how propagation rules for diferent update granularities can be systematically derived, combined and further optimized by using Magic Sets. This way, the costly evaluation of certain subqueries within a continuous query can be systematically circumvented allowing for cutting down on the number of pipelined tuples considerably.
This technical report is about the architecture and integration of commercial UAVs in Search and Rescue missions. We describe a framework that consists of heterogeneous UAVs, a UAV task planner, a bridge to the UAVs, an intelligent image hub, and a 3D point cloud generator. A first version of the framework was developed and tested in several training missions in the EU project TRADR.
Internetstatistik
(2005)
This paper presents a novel approach to build consistent 3D maps for multi robot cooperation in USAR environments. The sensor streams from unmanned aerial vehicles (UAVs) and ground robots (UGV) are fused in one consistent map. The UAV camera data are used to generate 3D point clouds that are fused with the 3D point clouds generated by a rolling 2D laser scanner at the UGV. The registration method is based on the matching of corresponding planar segments that are extracted from the point clouds. Based on the registration, an approach for a globally optimized localization is presented. Apart from the structural information of the point clouds, it is important to mention that no further information is required for the localization. Two examples show the performance of the overall registration.
Global registration of heterogeneous ground and aerial mapping data is a challenging task. This is especially difficult in disaster response scenarios when we have no prior information on the environment and cannot assume the regular order of man-made environments or meaningful semantic cues. In this work we extensively evaluate different approaches to globally register UGV generated 3D point-cloud data from LiDAR sensors with UAV generated point-cloud maps from vision sensors. The approaches are realizations of different selections for: a) local features: key-points or segments; b) descriptors: FPFH, SHOT, or ESF; and c) transformation estimations: RANSAC or FGR. Additionally, we compare the results against standard approaches like applying ICP after a good prior transformation has been given. The evaluation criteria include the distance which a UGV needs to travel to successfully localize, the registration error, and the computational cost. In this context, we report our findings on effectively performing the task on two new Search and Rescue datasets. Our results have the potential to help the community take informed decisions when registering point-cloud maps from ground robots to those from aerial robots.
A Robust Interface for Head Motion based Control of a Robot Arm using MARG and Visual Sensors
(2018)
Head-controlled human machine interfaces have gained popularity over the past years, especially in the restoration of the autonomy of severely disabled people, like tetraplegics. These interfaces need to be reliable and robust regarding the environmental conditions to guarantee safety of the user and enable a direct interaction between a human and a machine. This paper presents a hybrid MARG and visual sensor system for head orientation estimation which is in this case used to teleoperate a robotic arm. The system contains a Magnetic Angular Rate Gravity (MARG)-sensor and a Tobii eye tracker 4C. A MARG sensor consists of tri-axis accelerometer, gyroscope as well as a magnetometer which enable a complete measurement of orientation relative to the direction of gravity and magnetic field of the earth. The tri-axis magnetometer is sensitive to external magnetic fields which result in incorrect orientation estimation from the sensor fusion process. In this work the Tobii eye tracker 4C is used to increase head orientation estimation because it also features head tracking even though it is commonly used for eye tracking. This type of visual sensor does not suffer magnetic drift. However, it computes orientation data only, if a user is detectable. Within this work a state machine is presented which enables data fusion of the MARG and visual sensor to improve orientation estimation. The fusion of the orientation data of MARG and visual sensors enables a robust interface, which is immune against external magnetic fields. Therefore, it increases the safety of the human machine interaction.
Opportunities and Challenges in Mixed-Reality for an Inclusive Human-Robot Collaboration Environment
(2018)
This paper presents an approach to enhance robot control using Mixed-Reality. It highlights the opportunities and challenges in the interaction design to achieve a Human-Robot Collaborative environment. In fact, Human-Robot Collaboration is the perfect space for social inclusion. It enables people, who suffer severe physical impairments, to interact with the environment by providing them movement control of an external robotic arm. Now, when discussing about robot control it is important to reduce the visual-split that different input and output modalities carry. Therefore, Mixed-Reality is of particular interest when trying to ease communication between humans and robotic systems.
Selbstständig und selbstbestimmt essen und trinken zu können gehört zu den Grundbedürfnissen des Menschen und wird den Aktivitäten des täglichen Lebens (ATLs) zugeordnet. Körperliche Beeinträchtigungen, die mit Funktionsverlusten in Armen, Händen und ggf. der Beweglichkeit des Oberkörpers einhergehen, schränken die selbstständige Nahrungszufuhr erheblich ein. Die Betroffenen sind darauf angewiesen, dass ihnen Getränke und Mahlzeiten zubereitet, bereitgestellt und angereicht werden. Zu dieser Personengruppe gehören Menschen mit querschnittbedingter Tetraplegie, Multiple Sklerose, Muskeldystrophie und Erkrankungen mit ähnlichen Auswirkungen. Derzeit gibt es verschiedene assistive Technologien, die das selbstständige Essen und Trinken wieder ermöglichen sollen.Wie aber muss ein Interaktionsdesign für einen Roboterarm gestaltet sein, damit er von den Betroffenen zur Nahrungsaufnahme genutzt werden kann? Welche Anforderungen gibt es und welche Aspekte sind in Bezug auf die Akzeptanz eines Roboterarms zu berücksichtigen?
Renewable and sustainable energy production by many small and distributed producers is revolutionizing the energy landscape as we know it. Consumers produce energy, making them to prosumers in the smart grid. The interaction between prosumers and other entities in the grid and the optimal utilization of new smart grid components (electric cars, freezers, solar panels, etc.) are crucial for the success of the smart grid. The Power Trading Agent Competition is an open simulation platform that allows researchers to conduct low risk studies in this new energy market. In this work we present Maxon16, an autonomous energy broker and champion of the 2016's Power Trading Agent Competition. We present the strategies the broker used in the final round and evaluate the effectiveness of the strategies by analyzing the tournament's results.
In der wissenschaftlichen Literatur gibt es kaum Studien, die sich mit der konkreten Alltagstauglichkeit von Smartwatches beschäftigen, um zu verstehen, warum die Klasse von wearables eher ein Nischendasein führt. In diesem Beitrag wird daher die Verwendung einer Smartwatch am Beispiel Kochen untersucht. Hierzu wurde eine Koch-App mit Rezeptinformationen für eine Smartwatch entwickelt, welche über Hand- und Armbewegungen in Form von Gesten bedient werden kann. In einer Feldstudie mit acht Probanden wurde ermittelt, inwieweit diese Interaktionsform den Kochprozess verändert. Die Ergebnisse zeigen, dass die unmittelbare Verfügbarkeit der Uhr sowohl Effizienz- als auch Effektivitätsvorteile gegenüber klassischen Kochhilfen bietet. Die Steuerung via Freihandgesten erlaubte zudem die Nutzung in einem Szenario, in welchem die Hände oft belegt oder verschmutzt sind und somit eine Bedienung per Finger problematisch sein kann. Die Uhr wurde von den Probanden dabei als nützliches Werkzeug erachtet, obwohl diese bislang keinerlei Erfahrung mit einem solchen Gerät hatten.
Studiengänge der Medieninformatik variieren in ihren Schwerpunkten ebenso wie in den Berufsbildern, auf die sie vorbereiten. Ein vereinendes Curriculum als Basis für alle Studiengänge ist in Anbetracht der Datenlage ein großes Unterfangen. Als einen ersten Schritt in diese Richtung geht die Fachgruppe Medieninformatik in ihrem diesjährigen Workshop der Frage nach, welche Kernkompetenzen Medieninformatiker*innen im Rahmen ihres Studiums erlangen sollten. Der Beitrag stellt den aktuellen Zwischenstand der Diskussion in der Fachgruppe Medieninformatik und im Arbeitskreises Curriculum dar und soll den Weg zu einer spezifischen Empfehlung für Medieninformatik-Studiengänge vorbereiten und dokumentieren, für die MI-Community, aber auch für alle anderen, die an der Medieninformatik interessiert sind.
Nach einer erfolgreichen Wiederbelebung der Medieninformatik-Workshopreihe mit dem Workshop Medieninformatik 2016 auf der Mensch-und-Computer 2016 in Aachen, lädt die Fachgruppe Medieninformatik (FG MI) im Fachbereich Mensch-Computer-Interaktion (FB MCI) der Gesellschaft für Informatik (GI) ein zum Workshop Medieninformatik 2017. In diesem Jahr soll es, aufbauend auf den Ergebnissen des 2016er-Workshops, zunächst um das Herausarbeiten von Berufsbildern und Färbungen der Medieninformatik- und Medieninformatik-orientieren Studiengänge gehen. Grundlage der Diskussion ist eine, im Vorfeld des Workshops durchzuführende Kurzumfrage, in der die Zielrichtung der jeweiligen Studiengänge und die Absolventenstatistiken hinsichtlich der Arbeitsfelder erfasst werden. Die Ergebnisse der Befragung werden vor dem Workshop an die Workshop-Teilnehmer zurückgespielt und sollen diesen als Kontext für die Vorbereitung der Workshop-Vorträge dienen. Die Vorträge sollen nach relativ engen Vorgaben die Themen Berufsbilder und Färbungen der Medieninformatik thematisieren, um die Workshopdiskussion anzustoßen. Daran anknüpfend sind die Themen Studiengangsgestaltung (Curriculum) und Erfahrungsaustausch zu (praxisgerechten) Lehr-Lernformen vorgesehen. Des Weiteren soll das im 2016-Workshop sehr kontrovers diskutierte Thema „Gibt es eine Medieninformatik-Forschung?“ anhand konkreter Medieninformatik-Forschungsvorhaben erneut thematisiert werden. Der vorgestellte Themenkanon ist nicht abschließend zu verstehen, sondern soll durch die Teilnehmenden im Vorfeld und vor Ort ergänzt werden.
Nachdem die Fachgruppe Medieninformatik (FG MI) der Gesellschaft für Informatik e.V. (GI) bereits in den Jahren 2009 und 2010 Workshops zu den Themen „Medieninformatik in Forschung, Lehre und Praxis“ (Herczeg 2009) bzw. „Basismodule und Basiscurricula für die Medieninformatik“ (Herczeg 2010) durchgeführt hat und den Input aus den Workshops in der Folge überwiegend im Kreis der FG-Leitung verarbeitet hat, ist es Zeit mit den dort entstandenen Ideen wieder in die größere Runde zu gehen. Dieser Beitrag ist als Diskussionspapier für den kommenden (aber auch für weitere) Workshop(s) im Bereich der Medieninformatik gedacht. Die Ideen stammen im Wesentlichen aus der Arbeit der FG-Leitung bzw. einzelner engagierter Mitglieder der FG MI. Gemäß der Tradition der FG erheben die Darstellungen keinen Richtlinienanspruch, sondern sollen Diskussionen anregen.
Bachelor/Master-Studiengänge
(1999)
Auf der Basis eines Wettbewerbs des BMBF von 1997 hat das Konsortium Virtuelle Fachhochschule (VFH) 43 Mio. DM erhalten und 1999 damit begonnen Online-Studiengänge zu entwickeln. Weitere Themenfelder dieses Bundesleitprojektes sind: Struktur und Organisation einer virtuellen Hochschule, Lehr- und Lernformen in Online-Studiengängen, etc. Beteiligt sind 10 Fachhochschulen, 2 Universitäten, sowie diverse Organisationen und Wirtschaftsunternehmen. Im Jahre 2001 startete der Bachelor-Online-Studiengang Medieninformatik (www.oncampus.de). Das Projekt läuft noch bis ins Jahr 2004. Der Autor ist Vizegesamtprojektleiter, Mitglied im Teilvorhaben Struktur und Organisation sowie Entwickler von 3 Lernmodulen zur Physik für das Medieninformatikstudium.
Am Beispiel dieses Großprojektes werden einige Besonderheiten und Erfahrungen zu den Themen: Organisationsformen, Betreuung, Lehrdeputat, Workload, Ergonomie, Evaluation, Akkreditierung und die Entwicklung der Physik-Online-Lernmodule dargestellt.
Intelligenzexplosion
(2016)
Die als Bologna-Prozess bezeichnete Umstrukturierung des europäischen Hochschulsystems begann in Deutschland etwa 1999 mit den Strukturvorgaben der KMK
2. Darin wird auch von einem berufsqualifizierenden Profil der Bachelor- und Master-Studiengänge und von weiterbildenden Masterstudiengängen gesprochen. Im Folgenden wird über einige Erfahrungen zu diesen beiden Themenbereichen und das lebensbegleitende Lernen berichtet. Gewonnen wurden diese Erfahrungen vor allem durch die Tätigkeit im Fachbereichstag Informatik, im Bundesleitprojekt Virtuelle Fachhochschule und in der Akkreditierung von neuen Studiengängen an Universitäten und Fachhochschulen.
Ein weiterer Prozess, der die Neugestaltung der Studiengänge begleitet, ist durch den Europäischen Qualifikationsrahmen gegeben.
In seiner letzten Ausprägung werden auch die berufliche Qualifikation und das lebensbegleitende Lernen thematisiert.
Technik des Online-Studiums
(2002)
Dieser Bericht beschreibt in Kurzform das Projekt, dessen Ziel es ist, Online-Studiengänge zu entwickeln. Weiterhin werden die Besonderheiten bei der Durchführung von Online-Studiengängen und die damit verbundenen Schwierigkeiten aufgezeigt. An einem Beispiel kann man erkennen, wie die didaktische und multimediale Umsetzung der einzelnen Lernmodule realisiert wurde. Eine ausführliche Abhandlung kann man im Internet nachlesen: http://194.94.127.15/Lehre/infophysik/IP-WBT-Demo/infophysik.html