Informatik und Kommunikation
Filtern
Erscheinungsjahr
Dokumenttyp
- Video (55)
- Konferenzveröffentlichung (14)
- Wissenschaftlicher Artikel (12)
- Teil eines Buches (Kapitel) (8)
- Vorlesung (7)
- Masterarbeit (2)
- Bericht (2)
- Sonstiges (1)
- Arbeitspapier (1)
Volltext vorhanden
- ja (102) (entfernen)
Schlagworte
- Robotik (27)
- Flugkörper (18)
- UAV (18)
- 3D Modell (7)
- Akkreditierung (6)
- E-Learning (6)
- Radio-Feature (6)
- Rettungsrobotik (5)
- Virtuelle Hochschule (5)
- Rasenmäher (4)
Ziele und Konzepte der GI-Empfehlungen, Adressaten der Empfehlung, Studiengänge und Abschlussbezeichnungen, Ausbildungsziele und curriculare Anforderungen, Grundstruktur und Kategorien, Inhalte, Organisatorische Anforderungen, Qualität der Lehre, Ausstattung des Lehr- und Studienbetriebs, Akkreditierung.
Nicht nur in der Gestaltung digitaler Medien spielt die Kategorie Geschlecht eine tragende Rolle, sondern auch in der Konzeption, Herstellung sowie Nutzung von Webangeboten. Problematisch daran ist, dass die weibliche Perspektive in Bezug auf Interessen, Bedürfnisse und Anwendbarkeit häufig wenig oder stereotyp berücksichtigt wird, die Nutzung digitaler Medien jedoch Verhaltensweisen, Werte und Normen von Nutzer_innen erheblich – und sehr einseitig – prägt. Design stellt hierbei einen zentralen Faktor dar: Es steuert, ermöglicht oder verhindert das Nutzer_innenverhalten und deutet und wertet Inhalte durch die Art der jeweiligen Darstellung. Die Auswirkung von Design im Entwicklungsprozess von digitalen Artefakten ist sehr vielschichtig und in ihrer gesamten Tragweite weit unterschätzt. Der Beitrag sensibilisiert hinsichtlich Gendercodes in Designstrategien, Methoden aus dem Entwicklungsprozess (Persona-Entwicklung) und einzelner Gestaltungselemente (Farbe, Typografie).
Autonomy and self-determination are fundamental aspects of living in our society. Supporting people for whom this freedom is limited due to physical impairments is the fundamental goal of this thesis. Especially for people who are paralyzed, even working at a desk job is often not feasible. Therefore, in this thesis a prototype of a robot assembly workstation was constructed that utilizes a modern Augmented Reality (AR)-Head-Mounted Display (HMD) to control a robotic arm. Through the use of object pose recognition, the objects in the working environment are detected and this information is used to display different visual cues at the robotic arm or in its vicinity. Providing the users with additional depth information and helping them determine object relations, which are often not easily discernible from a fixed perspective.
To achieve this a hands-free AR-based robot-control scheme was developed, which uses speech and head-movement for interaction. Additionally, multiple advanced visual cues were designed that utilize object pose detection for spatial-visual support. The pose recognition system is adapted from state-of-the-art research in computer vision to allow the detection of arbitrary objects with no regard for texture or shape.
Two evaluations were performed, a small user study that excluded the object recognition, which confirms the general usability of the system and gives an impression on its performance. The participants were able to perform difficult pick and place tasks with a high success rate. Secondly, a technical evaluation of the object recognition system was conducted, which revealed an adequate prediction precision, but is too unreliable for real-world scenarios as the prediction quality is highly variable and depends on object orientations and occlusion.
An EJB container can host three types of beans: Session beans to model business processes, entity beans to represent business objects and message-driven beans to provide for asynchronous method calls. This paper addresses entity beans and their mapping to persistent storage, especially relational and object-relational databases. A tool named BeanMaker is presented which can do object mapping either automatically by metadata analysis of a database schema or manually based on intrinsic real world semantics supplied by the user. BeanMaker is a running prototype system with an intuitive GUI interface. This paper looks what's behind the scenes and focuses on design issues and concepts of code generation.
Brand Purpose in aller Munde. Was gilt es in der werthaltigen Kommunikation von Marken zu beachten?
(2020)
Unternehmen positionieren sich gern mit Bezug auf die gesellschaftliche Relevanz ihres Unternehmenszwecks. Diese Orientierung findet sich zunehmend auch in der Kommunikation auf Markenebene. Statt den Produktnutzen zu betonen, liefert die Markenkommunikation Input zu gesellschaftlichen Debatten wie Gleichstellung oder Nachhaltigkeit. Unter dem Stichwort „Brand Purpose“ zeigen Beratungen und Agenturen gern auf, wie positiv diese Art der Kommunikation von Konsumenten und Stakeholdern eingestuft wird. Erste Stimmen gehen davon aus, dass sich diese Tendenzen nach der Coronakrise noch verstärken werden. Doch was bringt die Konzentration auf Sinnstiftung tatsächlich der Marke? Studien weisen darauf hin, dass eine reine Konzentration in der Kommunikation auf Zweck und Sinn einer Marke die Geschäftsentwicklung nicht unbedingt positiver beeinflussen muss als klassische Produktkommunikation und im schlimmsten Fall sogar kontraproduktiv wirken kann. Der Beitrag untersucht deshalb die Frage, welche Voraussetzungen erfüllt sein müssen, damit wertorientierte Kommunikation tatsächlich einen Mehrwert für die Marke bieten kann.
Der Kultursektor ist weiterhin ein attraktiver Arbeitsmarkt. Doch immer häufiger merken Unternehmen: Es klafft eine Lücke zwischen ihren Erwartungen und den Ansprüchen der jungen Generation von Berufstätigen. Um diese Lü-cke zu schließen, werden im Folgenden die Ergebnisse ei-ner Studie über die „Candidate Experience“ dargestellt, die von der Westfälischen Hochschule Gelsenkirchen durchgeführt wurde. Abgeleitet werden Handlungsempfehlungen sowohl für Bewerberinnen und Bewerber als auch für Institutionen.
Technik des Online-Studiums
(2002)
Dieser Bericht beschreibt in Kurzform das Projekt, dessen Ziel es ist, Online-Studiengänge zu entwickeln. Weiterhin werden die Besonderheiten bei der Durchführung von Online-Studiengängen und die damit verbundenen Schwierigkeiten aufgezeigt. An einem Beispiel kann man erkennen, wie die didaktische und multimediale Umsetzung der einzelnen Lernmodule realisiert wurde. Eine ausführliche Abhandlung kann man im Internet nachlesen: http://194.94.127.15/Lehre/infophysik/IP-WBT-Demo/infophysik.html
Evaluation der Lehre im Hochschulbereich wird seit vielen Jahren praktiziert als ein Prozess der Selbsterkenntnis mit dem Ziel der Qualitätsverbesserung und Effizienzsteigerung
1. Im sog. „Nordverbund“ der deutschen Küstenuniversitäten wird bereits seit 1994 evaluiert. Die Akkreditierung ist dagegen noch nicht ganz so alt. Nachdem sich im Juli 1999 der Akkreditierungsrat konstituiert hat, wurden ab 2000 die ersten Akkreditierungsverfahren durchgeführt.
Die Informatik hat auf diese neue Herausforderung als erste reagiert und schon im Juni 2000 „Standards zur Akkreditierung von Studiengängen der Informatik und interdisziplinären Informatik-Studiengängen an deutschen Hochschulen“ herausgegeben. Diese Standards wurden unter dem Dach der Gesellschaft für Informatik von einer Arbeitsgruppe, die aus Mitgliedern des Fachbereichstages und des Fakultätentages Informatik bestand, ab 1999 erarbeitet
2. Danach entstanden die Akkreditierungsagenturen, die sich vom Akkreditierungsrat akkreditieren lassen müssen, um schließlich selbst bei den von ihnen durchgeführten Akkreditierungsverfahren das Siegel des Akkreditierungsrates vergeben zu können.
Die als Bologna-Prozess bezeichnete Umstrukturierung des europäischen Hochschulsystems begann in Deutschland etwa 1999 mit den Strukturvorgaben der KMK
2. Darin wird auch von einem berufsqualifizierenden Profil der Bachelor- und Master-Studiengänge und von weiterbildenden Masterstudiengängen gesprochen. Im Folgenden wird über einige Erfahrungen zu diesen beiden Themenbereichen und das lebensbegleitende Lernen berichtet. Gewonnen wurden diese Erfahrungen vor allem durch die Tätigkeit im Fachbereichstag Informatik, im Bundesleitprojekt Virtuelle Fachhochschule und in der Akkreditierung von neuen Studiengängen an Universitäten und Fachhochschulen.
Ein weiterer Prozess, der die Neugestaltung der Studiengänge begleitet, ist durch den Europäischen Qualifikationsrahmen gegeben.
In seiner letzten Ausprägung werden auch die berufliche Qualifikation und das lebensbegleitende Lernen thematisiert.
Vor der Umstrukturierung der Studiengänge in Bachelor und Master gab es in Deutschland keine Studiengangsakkreditierung. Deshalb stellen diese Verfahren eine besondere Herausforderung für die Hochschulen dar. Dieser Artikel beschreibt einige Aspekte der Akkreditierung und dem damit im Zusammenhang stehenden neuen Paradigma der Outcome-Orientierung von Studiengängen. Weiterhin wird für den Hochschulbereich und die berufliche Bildung auf die Bemühungen um die Schaffung eines europäischen Qualifikationsrahmens eingegangen.
Die Medieninformatik wurde zuerst von der FH Furtwangen als Studiengang angeboten und dann 1996 – in einer neuen Konzeption – vom Fachbereich Informatik an der FH Gelsenkirchen (als 8-semestriger Diplomstudiengang). Seit dieser Zeit werden an vielen anderen Hochschulen Studiengänge dieses Namens angeboten.
Die Curricula sind jedoch sehr unterschiedlich – was häufig dadurch bedingt ist, dass diese Studiengänge mit dem vorhandenen Personal aufgebaut werden müssen. In Gelsenkirchen konnten wir jedoch mehrere Professuren entsprechend besetzen, da die Hochschule und der Fachbereich neu gegründet worden waren (Der Autor ist Gründungsdekan). In den Jahren 1997 bis 1998 reiften dann die Pläne heran, auch im VFH-Projekt den Studiengang Medieninformatik als einen der zu entwickelnden Online-Studiengänge vorzusehen. Diesen Studiengang – zu diesem Zeitpunkt – als Bachelor-Master-Studiengang zu etablieren, hat viel Überzeugungsarbeit gekostet. Der parallel zu entwickelnde Studiengang Wirtschaftsingenieur wurde z.B. zunächst als Diplomstudiengang konzipiert. Die Nachfrage, bezogen auf den Studiengang Medieninformatik, war und ist recht groß. Für den Präsenzstudiengang in Gelsenkirchen haben sich jeweils mehrere Hundert Bewerber gemeldet und auch der Online-Studiengang erfreut sich großer Nachfrage.
An der Fachhochschule Gelsenkirchen wurde zum Wintersemester 1993/94 der Lehrbetrieb im neuen Studiengang Ingenieurinformatik, insbesondere Mikroinformatik aufgenommen. So wie es bei vielen anderen Wissenschaften einen Zweig gibt, der sich mit den kleinsten Forschungsobjekten befasst, so hat auch die Informatik spezielle Aufgabenstellungen, die sich mit den heute weit verbreiteten mikrominiaturisierten Systemen befassen. Die Mikroinformatik erstreckt sich von der Technischen Informatik über die Praktische Informatik bis hin zur Angewandten Informatik, jedoch gefiltert auf mikrominiaturisierte Systeme und Komponenten. Sie macht es sich somit zur Aufgabe, Problemlösungen durch die Entwicklung von Mikrocomputern und anderen Mikrosystemen sowie spezieller Algorithmen (Programme) zu finden. Diese Beschreibung lässt sich mit einigen Einschränkungen auf die folgende Kurzform bringen: Problemlösungen mittels Mikrocomputern in Technik und Organisation.
Intelligenzexplosion
(2016)
Virtuelle Hochschulen
(2002)
Virtuelle Fachhochschule
(2004)
Auf der Basis eines Wettbewerbs des BMBF von 1997 hat das Konsortium Virtuelle Fachhochschule (VFH) 43 Mio. DM erhalten und 1999 damit begonnen Online-Studiengänge zu entwickeln. Weitere Themenfelder dieses Bundesleitprojektes sind: Struktur und Organisation einer virtuellen Hochschule, Lehr- und Lernformen in Online-Studiengängen, etc. Beteiligt sind 10 Fachhochschulen, 2 Universitäten, sowie diverse Organisationen und Wirtschaftsunternehmen. Im Jahre 2001 startete der Bachelor-Online-Studiengang Medieninformatik (www.oncampus.de). Das Projekt läuft noch bis ins Jahr 2004. Der Autor ist Vizegesamtprojektleiter, Mitglied im Teilvorhaben Struktur und Organisation sowie Entwickler von 3 Lernmodulen zur Physik für das Medieninformatikstudium.
Am Beispiel dieses Großprojektes werden einige Besonderheiten und Erfahrungen zu den Themen: Organisationsformen, Betreuung, Lehrdeputat, Workload, Ergonomie, Evaluation, Akkreditierung und die Entwicklung der Physik-Online-Lernmodule dargestellt.
Professor Dr. Dieter Hannemann ist Physiker und Ingenieur und hat sich nach seinen Studien der Technischen Informatik zugewandt. An der Fachhochschule Bochum, Abt. Gelsenkirchen, gründete er 1979 den Bereich Mikrocomputertechnik, dessen Aktivitäten vor allem im Bereich des Technologietransfers liegen. Zum 1.8.1992 wurde die Fachhochschulabteilung Keimzelle der neuen FH Gelsenkirchen, an deren Aufbau Prof. Hannemann als Prorektor und Gründungsdekan des Fachbereichs Informatik maßgeblich beteiligt war und ist.
Der Studiengangsführer des neu gegründeten Fachbereichs Ingenieurinformatik an der FH Gelsenkirchen beschreibt den deutschlandweit einmaligen Diplom-Studiengang Mikroinformatik mit seinen zwei Ausprägungen ‚Technische- und Angewandte Mikroinformatik‘: Die Aufgabenbereiche, das Praxissemester, die Einschreibungsvoraussetzungen, die Berufsfelder, den Studienverlauf und die Fächerinhalte.
Es werden die Hintergründe der Projekte angesprochen, die das Ziel haben, Lehrinhalte multimedial zu ergänzen, diese elektronisch anzubieten oder über das Internet zur Verfügung zu stellen. Zugangsmöglichkeiten zu diesen Lernformen und die technischen Stufen der Darbietung werden erläutert: Navigator, Lernraum, Portal. Auf virtuelle Lernräume, die Kommunikation im Internet, die Lernraumauswahl, auf Ausblicke für die Zukunft und auf e-Learningbeispiele wird eingegangen.
Virtuelle Hochschulen
(2001)
Dieser Artikel beleuchtet die Virtuelle Kooperative Hochschule (Organisation, Betreuung, Manpower), den Lernraum (Kommunikation im Internet, Lernräume im WWW und die Rollenverteilung im Lernraum), das Bundesleitprojekt Virtuelle Fachhochschule (Studentenleben, Projektdaten), Studieren im Netz (Medieninformatik, Virtuelles Lernmodul: Navigation), sowie die Didaktik.
Dieser Aufsatz will zeigen, wie mit den modernen Hilfsmitteln, die im Zusammenhang mit dem Internet entstehen, dreidimensionale virtuelle Welten geschaffen werden können, in denen physikalische Prozesse ablaufen. Neben einer allgemeinen, mehr philosophisch gehaltenen Einführung werden kurz die wichtigsten Elemente einer Sprache beschrieben, mit der man diese Welten modellieren kann. Die kurze Einführung in diese Sprache reicht aus, um an einem Beispiel den Fall eines Balls nachbilden zu können. Die Behandlung dieses Themas kann anregen, sich mit den Möglichkeiten dieser neuen Techniken zur Darstellung physikalischer Abläufe zu beschäftigen.
Dieser Artikel bietet einen Bericht über Entwicklungstendenzen und erste Erfahrungen virtueller Lernräume im Internet. Der Autor geht auf die Kommunikation im Internet, Lernräume im WWW, die Rollenverteilung im Lernraum ein, mit den Anforderungen aus Sicht der Lernenden, Lehrenden und der Verwaltung.
The article highlights gender codes in design, particularly in web design, by means of current examples. Different aspects of gender-specific design are looked at in detail and their inherent problems discussed: on the one hand the development of a special solution (gender-specific for women), on the other hand, web design with reduced functionality and simplification of information (i.e. image representation) which sometimes even leads to a negation of technology. The article illustrates that gender codes and stereotypical role models can be embodied on different design levels of web design (use and artefact): in structure/navigation, in creative elements by the use of shape, colour and imagery and on a textual level. These design decisions have an impact on the power of users to act, their individual gender identity and the structural gender identity/social perception of gender. The article demonstrates that gender codes in current web design are very present and aims to sensitize the topic.
Problem: A group of robots, called a swarm, is placed in an unknown environment and is supposed to explore it independently. The goal of the exploration is the creation of a common map.
Implementation
- Equipping six Kobuki robots with appropriate sensor technology, a large battery, a router and the Jetson board
- Setup of the Jetson-Boards with self-made ROS2 nodes and the set up mesh network
- Writing of launch files for the common start of all functions
- Reinforcement learning is used to train an AI that controls the swarm by selecting points for the robots to approach and navigating to them and navigating them there.
- Setting up a responsive website using Angular and the Bootstrap
Framework.
Problem
- How to effectively use aerial robots to support rescue forces?
- How to achieve good flight characteristics and long flight times?
- How to enable simple and intuitive control?
- How to efficiently record image data of the environment?
- How to generate flight and image data for rescue forces?
Implementation:
The flying robot was designed in Autodesk Fusion360. In order to achieve high stability as well as low weight, the frame was milled from carbon. Mounts such as for GPS and 360° camera were 3D printed. A special feature is that the flying robot is not visible in the panoramic view of the 360° camera. The flight controller of the robot was set up using Ardupilot. The communication with the robot is done via MAVLink (UDP).To support different platforms, a software was realized as a web application. The front end was created using HTML, CSS and Javascript.
The back end is based on Flask-Socket-IO (Python). For the intelligent recognition of motor vehicles a micro controller with an integrated camera is used. For the post-processing of flight and video data a pipeline was implemented for automation.
The video shows a very high resolution 3D point cloud !!! of the outdoor area of the German Rescue Robotics Center. For the recording, a 25-second POI flight was performed with a Mavic 3. From the 4K video footage captured during this flight, 77 images were cropped and localized within 4 minutes using colmap and processed using Neural Radiance Fields (NeRF). The nerfacto model of Nerfstudio was trained on an Nvidia RTX 4090 for 8 minutes. In summary, a top 3D model is available to task forces after about 13 minutes. The calculation is performed locally on site by the RobLW of the DRZ. The video shown here shows a free camera path rendered at 60 hz (Full HD).
Nerf(acto) for the 3D modeling of the Computer Science building of Westfälische Hochschule GE
(2023)
The video shows a very high resolution 3D point cloud !!! of the computer science building of the University of Applied Science Gelsenkirchen. For the recording a 3 minute flight with a M30T was performed. The 105 images taken by the wide-angle camera during this flight were localized within 3 minutes using colmap and processed using Neural Radiance Fields (NeRF). The nerfacto model of Nerfstudio was trained on an Nvidia RTX 4090 for 8 minutes. Thus, a top 3D model is available after about 15 minutes.
The video shown here shows a free camera path rendered at 60 hz (Full HD).
From the 360° images of the former video (
• German rescue robotic center captured... ) we now generate the 3D point cloud. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The 3D point cloud generation is 5x slower than the video. It uses a VSLAM algorithm to localize the k-frames (green) and with 3 k-frames it use a 360° PatchMatch algorithm implemented at a NVIDIA graphic card (CUDA) to calculated the dense point clouds.The hall ist about 70 x 20 meters.
The video shows the first test of a small spherical UAV (35 cm) with 4 rotors for missions in complex environments such as buildings, caves or tunnels. The spherical design protects the vehicle's internal components and allows the UAV to roll over the ground when the environment allows. The drone can land and take off in any position and come into contact with objects without endangering the propellers and can restart even after crashes.
Sperical UAV: Crash Test with 1/2 liter bottle from 2 meters
Gaussian Splatting: 3D Reconstruction of a Chemical Company After a Tank Explosion in Kempen 8/2023
(2023)
The video showcases a 3D model of a chemical company following a tank explosion that occurred on August 17, 2023, in Kempen computed with the gaussian splatting algorithm. Captured by a compact mini drone measuring 18cm x 18cm and equipped with a 360° camera, these images offer an intricate perspective of the aftermath. The computation need 29 minutes and uses 2770 images (~350 equirectangular images). After a comprehensive aerial survey and inspection of the 360° images taken within the facility, authorities confirmed that it was safe for the evacuated residents to return to their homes. See also:
https://www1.wdr.de/fernsehen/aktuelle-stunde/alle-videos/video-grosser-chemieunfall-in-kempen-100.html
The video showcases a 3D model of a chemical company following a tank explosion that occurred on August 17, 2023, in Kempen computed with the AI algorithm Neural Radiance Field (NeRF). Captured by a compact mini drone measuring 18cm x 18cm and equipped with a 360° camera, these images offer an intricate perspective of the aftermath. After a comprehensive aerial survey and inspection of the 360° images taken within the facility, authorities confirmed that it was safe for the evacuated residents to return to their homes. See also:
https://www1.wdr.de/fernsehen/aktuelle-stunde/alle-videos/video-grosser-chemieunfall-in-kempen-100.html
ARGUS is a tool for the systematic acquisition, documentation and evaluation of drone flights in rescue operations. In addition to the very fast generation of RGB and IR orthophotos, a trained AI can automatically detect fire, people and cars in the images captured by the drones. The video gives a short introduction to the Aerial Rescue and Geospatial Utility System -- ARGUS
Check out our Github repository under
https://github.com/RoblabWh/argus/
You can find the dataset on kaggle under
https://www.kaggle.com/datasets/julienmeine/rescue-object-detection
This video features a flight test conducted in our robotics lab, showcasing a custom-built thermal camera drone. We've enhanced a DJI Avata with a specialized thermal camera system. With its compact dimensions measuring 18 x 18 x 17 cm, this drone is designed to navigate and provide critical thermal information within post-fire or post-explosion environments. For more insights, be sure to check out our previous videos on this channel.
360° and IR- Camera Drone Flight Test: Superimposition of two data sources for Post-Fire Inspection
(2023)
This video highlights a recent flight test carried out in our cutting-edge robotics lab, unveiling the capabilities of our meticulously crafted thermal and 360° camera drone! We've ingeniously upgraded a DJI Avata with a bespoke thermal and 360° camera system. Compact yet powerful, measuring just 18 x 18 x 17 cm, this drone is strategically engineered to effortlessly navigate and deliver crucial thermal and 360° insights concurrently in post-fire or post-explosion environments.
The integration of a specialized thermal and 360° camera system enables the simultaneous capture of both data sources during a single flight. This groundbreaking approach not only reduces inspection time by half but also facilitates the seamless superimposition of thermal and 360° videos for comprehensive analysis and interpretation.
At the integration sprint of the E-DRZ consortium in march 2023 we improve the information captured by the human spotter (of the fire brigade) by extending him through a 360° drone i.e. the DJI Avata with an Insta360 on top of it. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The hall ist about 70 x 20 meters. When the drone is landed we have all information in 360° degree at 5.7k as you can see it in the video. Furthermore it is a perfect documentation of the deployment scenario. In the next video we will show how to spatial localize the 360° video and how to generate a 3D point cloud from it.
At the integration sprint of the E-DRZ consortium in march 2023 we improve the information captured by the human spotter (of the fire brigade) by extending him through a 360° drone. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The hall ist about 70 x 20 meters. When the drone is landed we have all information in 360° degree at 5.7k as you can see it in the video. Furthermore it is a perfect documentation of the deployment scenario. In the next video we will show how to spatial localize the 360° video and how to generate a 3D point cloud from it.