Informatik und Kommunikation
Filtern
Erscheinungsjahr
Dokumenttyp
- Video (60)
- Konferenzveröffentlichung (45)
- Teil eines Buches (Kapitel) (39)
- Wissenschaftlicher Artikel (32)
- Lehrmaterial (13)
- Buch (Monographie) (11)
- Vorlesung (7)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (4)
- Sonstiges (3)
- Masterarbeit (2)
Schlagworte
- Robotik (30)
- Flugkörper (21)
- UAV (21)
- Journalismus (15)
- Rettungsrobotik (8)
- 3D Modell (7)
- Akkreditierung (7)
- E-Learning (7)
- Marketing (6)
- Radio-Feature (6)
Institut
Soft Skills
(2014)
Crowdfunding im Journalismus
(2014)
Papierloses Krankenhaus
(2005)
Autonomy and self-determination are fundamental aspects of living in our society. Supporting people for whom this freedom is limited due to physical impairments is the fundamental goal of this thesis. Especially for people who are paralyzed, even working at a desk job is often not feasible. Therefore, in this thesis a prototype of a robot assembly workstation was constructed that utilizes a modern Augmented Reality (AR)-Head-Mounted Display (HMD) to control a robotic arm. Through the use of object pose recognition, the objects in the working environment are detected and this information is used to display different visual cues at the robotic arm or in its vicinity. Providing the users with additional depth information and helping them determine object relations, which are often not easily discernible from a fixed perspective.
To achieve this a hands-free AR-based robot-control scheme was developed, which uses speech and head-movement for interaction. Additionally, multiple advanced visual cues were designed that utilize object pose detection for spatial-visual support. The pose recognition system is adapted from state-of-the-art research in computer vision to allow the detection of arbitrary objects with no regard for texture or shape.
Two evaluations were performed, a small user study that excluded the object recognition, which confirms the general usability of the system and gives an impression on its performance. The participants were able to perform difficult pick and place tasks with a high success rate. Secondly, a technical evaluation of the object recognition system was conducted, which revealed an adequate prediction precision, but is too unreliable for real-world scenarios as the prediction quality is highly variable and depends on object orientations and occlusion.
An EJB container can host three types of beans: Session beans to model business processes, entity beans to represent business objects and message-driven beans to provide for asynchronous method calls. This paper addresses entity beans and their mapping to persistent storage, especially relational and object-relational databases. A tool named BeanMaker is presented which can do object mapping either automatically by metadata analysis of a database schema or manually based on intrinsic real world semantics supplied by the user. BeanMaker is a running prototype system with an intuitive GUI interface. This paper looks what's behind the scenes and focuses on design issues and concepts of code generation.
Kultureinrichtungen als Arbeitgeber sehen sich zunehmend veränderten Rahmenbedingungen der Mitarbeitergewinnung und -bindung gegenüber, die sich aus mehreren gesellschaftlichen Megatrends ergeben. Zentral sind dabei zum einen der demografische Wandel und die damit einhergehende Überalterung der Arbeitnehmer, zum anderen geänderte Wertvorstellungen und Arbeitsmotive der jüngeren Arbeitnehmergeneration, der sogenannten „Generation Y“. Beides hat weitreichende Implikationen für das Recruiting und die dauerhafte Bindung von Mitarbeitern in zahlreichen Branchen an das jeweilige Unternehmen. Vorgestellt werden im folgenden Beitrag die Ergebnisse einer Studie, die zum einen Arbeitsmotivation und -zufriedenheit von Beschäftigten im Kultursektor untersucht hat und dabei den Fokus auf Wert- und Arbeitshaltungen der Generation Y gelegt hat. Zum anderen wurden die Bedeutung der Rahmenarbeitsbedingungen erhoben, insbesondere die Rolle der Führung sowie von Flexibilität am Arbeitsplatz.
Brand Purpose in aller Munde. Was gilt es in der werthaltigen Kommunikation von Marken zu beachten?
(2020)
Unternehmen positionieren sich gern mit Bezug auf die gesellschaftliche Relevanz ihres Unternehmenszwecks. Diese Orientierung findet sich zunehmend auch in der Kommunikation auf Markenebene. Statt den Produktnutzen zu betonen, liefert die Markenkommunikation Input zu gesellschaftlichen Debatten wie Gleichstellung oder Nachhaltigkeit. Unter dem Stichwort „Brand Purpose“ zeigen Beratungen und Agenturen gern auf, wie positiv diese Art der Kommunikation von Konsumenten und Stakeholdern eingestuft wird. Erste Stimmen gehen davon aus, dass sich diese Tendenzen nach der Coronakrise noch verstärken werden. Doch was bringt die Konzentration auf Sinnstiftung tatsächlich der Marke? Studien weisen darauf hin, dass eine reine Konzentration in der Kommunikation auf Zweck und Sinn einer Marke die Geschäftsentwicklung nicht unbedingt positiver beeinflussen muss als klassische Produktkommunikation und im schlimmsten Fall sogar kontraproduktiv wirken kann. Der Beitrag untersucht deshalb die Frage, welche Voraussetzungen erfüllt sein müssen, damit wertorientierte Kommunikation tatsächlich einen Mehrwert für die Marke bieten kann.
Der Kultursektor ist weiterhin ein attraktiver Arbeitsmarkt. Doch immer häufiger merken Unternehmen: Es klafft eine Lücke zwischen ihren Erwartungen und den Ansprüchen der jungen Generation von Berufstätigen. Um diese Lü-cke zu schließen, werden im Folgenden die Ergebnisse ei-ner Studie über die „Candidate Experience“ dargestellt, die von der Westfälischen Hochschule Gelsenkirchen durchgeführt wurde. Abgeleitet werden Handlungsempfehlungen sowohl für Bewerberinnen und Bewerber als auch für Institutionen.
Global registration of heterogeneous ground and aerial mapping data is a challenging task. This is especially difficult in disaster response scenarios when we have no prior information on the environment and cannot assume the regular order of man-made environments or meaningful semantic cues. In this work we extensively evaluate different approaches to globally register UGV generated 3D point-cloud data from LiDAR sensors with UAV generated point-cloud maps from vision sensors. The approaches are realizations of different selections for: a) local features: key-points or segments; b) descriptors: FPFH, SHOT, or ESF; and c) transformation estimations: RANSAC or FGR. Additionally, we compare the results against standard approaches like applying ICP after a good prior transformation has been given. The evaluation criteria include the distance which a UGV needs to travel to successfully localize, the registration error, and the computational cost. In this context, we report our findings on effectively performing the task on two new Search and Rescue datasets. Our results have the potential to help the community take informed decisions when registering point-cloud maps from ground robots to those from aerial robots.
Die Sportpresse hat gegenüber anderen Medien einen fundamentalen Aktualitätsnachteil und muss verstärkt als Komplementärmedium agieren, um für ansprechende Inhalte zu sorgen. Fraglich ist neben dem Inhalt jedoch ebenso die Art der Berichterstattung, auf sprachlich-stilistischer und formal-gestalterischer Ebene. Untersucht wird die Berichterstattung (N = 455) der Süddeutschen Zeitung über die Fußball-Europameisterschaften 2000, 2008 und 2016 hinsichtlich eines möglichen Boulevardisierungstrends. Zur Ermittlung eines möglichen Trends wurde ein Boulevardisierungsindex entwickelt. Dem Index kann ein leichter Boulevardisierungstrend für den 16-jährigen Zeitraum entnommen werden. Dabei ist die Berichterstattung besonders zwischen den Jahren 2000 und 2008 boulevardesker geworden. Die Befunde zeigen zudem, dass insgesamt vermehrt auf Boulevardvariablen (z. B. Emotionalisierung) gesetzt wurde, die vor dem Hintergrund journalistischer Qualität als weniger kritisch anzusehen sind.
Technik des Online-Studiums
(2002)
Dieser Bericht beschreibt in Kurzform das Projekt, dessen Ziel es ist, Online-Studiengänge zu entwickeln. Weiterhin werden die Besonderheiten bei der Durchführung von Online-Studiengängen und die damit verbundenen Schwierigkeiten aufgezeigt. An einem Beispiel kann man erkennen, wie die didaktische und multimediale Umsetzung der einzelnen Lernmodule realisiert wurde. Eine ausführliche Abhandlung kann man im Internet nachlesen: http://194.94.127.15/Lehre/infophysik/IP-WBT-Demo/infophysik.html
Physik. eLearning-SmartBook
(2014)
Dieses Smart-Book enthält das komplette eLearning-Modul Physik für Studierende der Technik und Informatik. Zusätzlich enthält es noch ein kleinerer Modul zum Thema Virtuelle Welten. Der Umfang entspricht in etwa einem Volumen von 10 Kreditpunkten im deutschen Hochschulsystem. Demo: http://www.haverlag.de/ebooks/physik-smart/demo/start/first.html
Mikroinformatik
(2012)
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst.
Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs.
Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen.
Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Evaluation der Lehre im Hochschulbereich wird seit vielen Jahren praktiziert als ein Prozess der Selbsterkenntnis mit dem Ziel der Qualitätsverbesserung und Effizienzsteigerung
1. Im sog. „Nordverbund“ der deutschen Küstenuniversitäten wird bereits seit 1994 evaluiert. Die Akkreditierung ist dagegen noch nicht ganz so alt. Nachdem sich im Juli 1999 der Akkreditierungsrat konstituiert hat, wurden ab 2000 die ersten Akkreditierungsverfahren durchgeführt.
Die Informatik hat auf diese neue Herausforderung als erste reagiert und schon im Juni 2000 „Standards zur Akkreditierung von Studiengängen der Informatik und interdisziplinären Informatik-Studiengängen an deutschen Hochschulen“ herausgegeben. Diese Standards wurden unter dem Dach der Gesellschaft für Informatik von einer Arbeitsgruppe, die aus Mitgliedern des Fachbereichstages und des Fakultätentages Informatik bestand, ab 1999 erarbeitet
2. Danach entstanden die Akkreditierungsagenturen, die sich vom Akkreditierungsrat akkreditieren lassen müssen, um schließlich selbst bei den von ihnen durchgeführten Akkreditierungsverfahren das Siegel des Akkreditierungsrates vergeben zu können.
Die als Bologna-Prozess bezeichnete Umstrukturierung des europäischen Hochschulsystems begann in Deutschland etwa 1999 mit den Strukturvorgaben der KMK
2. Darin wird auch von einem berufsqualifizierenden Profil der Bachelor- und Master-Studiengänge und von weiterbildenden Masterstudiengängen gesprochen. Im Folgenden wird über einige Erfahrungen zu diesen beiden Themenbereichen und das lebensbegleitende Lernen berichtet. Gewonnen wurden diese Erfahrungen vor allem durch die Tätigkeit im Fachbereichstag Informatik, im Bundesleitprojekt Virtuelle Fachhochschule und in der Akkreditierung von neuen Studiengängen an Universitäten und Fachhochschulen.
Ein weiterer Prozess, der die Neugestaltung der Studiengänge begleitet, ist durch den Europäischen Qualifikationsrahmen gegeben.
In seiner letzten Ausprägung werden auch die berufliche Qualifikation und das lebensbegleitende Lernen thematisiert.
Vor der Umstrukturierung der Studiengänge in Bachelor und Master gab es in Deutschland keine Studiengangsakkreditierung. Deshalb stellen diese Verfahren eine besondere Herausforderung für die Hochschulen dar. Dieser Artikel beschreibt einige Aspekte der Akkreditierung und dem damit im Zusammenhang stehenden neuen Paradigma der Outcome-Orientierung von Studiengängen. Weiterhin wird für den Hochschulbereich und die berufliche Bildung auf die Bemühungen um die Schaffung eines europäischen Qualifikationsrahmens eingegangen.
Die Medieninformatik wurde zuerst von der FH Furtwangen als Studiengang angeboten und dann 1996 – in einer neuen Konzeption – vom Fachbereich Informatik an der FH Gelsenkirchen (als 8-semestriger Diplomstudiengang). Seit dieser Zeit werden an vielen anderen Hochschulen Studiengänge dieses Namens angeboten.
Die Curricula sind jedoch sehr unterschiedlich – was häufig dadurch bedingt ist, dass diese Studiengänge mit dem vorhandenen Personal aufgebaut werden müssen. In Gelsenkirchen konnten wir jedoch mehrere Professuren entsprechend besetzen, da die Hochschule und der Fachbereich neu gegründet worden waren (Der Autor ist Gründungsdekan). In den Jahren 1997 bis 1998 reiften dann die Pläne heran, auch im VFH-Projekt den Studiengang Medieninformatik als einen der zu entwickelnden Online-Studiengänge vorzusehen. Diesen Studiengang – zu diesem Zeitpunkt – als Bachelor-Master-Studiengang zu etablieren, hat viel Überzeugungsarbeit gekostet. Der parallel zu entwickelnde Studiengang Wirtschaftsingenieur wurde z.B. zunächst als Diplomstudiengang konzipiert. Die Nachfrage, bezogen auf den Studiengang Medieninformatik, war und ist recht groß. Für den Präsenzstudiengang in Gelsenkirchen haben sich jeweils mehrere Hundert Bewerber gemeldet und auch der Online-Studiengang erfreut sich großer Nachfrage.
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst. Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs. Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen. Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Ein Physikbuch, entstanden aus Vorlesungen für Studierende der Elektrotechnik. Eine komprimierte, knappe Darstellung erleichtert den Überblick und lässt Raum für handschriftliche Ergänzungen der Studierenden während der Vorlesungen. Dabei konzentriert sich der Stoff auf die Gebiete und Vertiefungen die für das Studium einer technischen Disziplin als unverzichtbare Voraussetzung anzusehen sind.
An der Fachhochschule Gelsenkirchen wurde zum Wintersemester 1993/94 der Lehrbetrieb im neuen Studiengang Ingenieurinformatik, insbesondere Mikroinformatik aufgenommen. So wie es bei vielen anderen Wissenschaften einen Zweig gibt, der sich mit den kleinsten Forschungsobjekten befasst, so hat auch die Informatik spezielle Aufgabenstellungen, die sich mit den heute weit verbreiteten mikrominiaturisierten Systemen befassen. Die Mikroinformatik erstreckt sich von der Technischen Informatik über die Praktische Informatik bis hin zur Angewandten Informatik, jedoch gefiltert auf mikrominiaturisierte Systeme und Komponenten. Sie macht es sich somit zur Aufgabe, Problemlösungen durch die Entwicklung von Mikrocomputern und anderen Mikrosystemen sowie spezieller Algorithmen (Programme) zu finden. Diese Beschreibung lässt sich mit einigen Einschränkungen auf die folgende Kurzform bringen: Problemlösungen mittels Mikrocomputern in Technik und Organisation.
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst. Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs. Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen. Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Bachelor/Master-Studiengänge
(1999)
Intelligenzexplosion
(2016)
Virtuelle Hochschulen
(2002)
Virtuelle Fachhochschule
(2004)
Auf der Basis eines Wettbewerbs des BMBF von 1997 hat das Konsortium Virtuelle Fachhochschule (VFH) 43 Mio. DM erhalten und 1999 damit begonnen Online-Studiengänge zu entwickeln. Weitere Themenfelder dieses Bundesleitprojektes sind: Struktur und Organisation einer virtuellen Hochschule, Lehr- und Lernformen in Online-Studiengängen, etc. Beteiligt sind 10 Fachhochschulen, 2 Universitäten, sowie diverse Organisationen und Wirtschaftsunternehmen. Im Jahre 2001 startete der Bachelor-Online-Studiengang Medieninformatik (www.oncampus.de). Das Projekt läuft noch bis ins Jahr 2004. Der Autor ist Vizegesamtprojektleiter, Mitglied im Teilvorhaben Struktur und Organisation sowie Entwickler von 3 Lernmodulen zur Physik für das Medieninformatikstudium.
Am Beispiel dieses Großprojektes werden einige Besonderheiten und Erfahrungen zu den Themen: Organisationsformen, Betreuung, Lehrdeputat, Workload, Ergonomie, Evaluation, Akkreditierung und die Entwicklung der Physik-Online-Lernmodule dargestellt.
Professor Dr. Dieter Hannemann ist Physiker und Ingenieur und hat sich nach seinen Studien der Technischen Informatik zugewandt. An der Fachhochschule Bochum, Abt. Gelsenkirchen, gründete er 1979 den Bereich Mikrocomputertechnik, dessen Aktivitäten vor allem im Bereich des Technologietransfers liegen. Zum 1.8.1992 wurde die Fachhochschulabteilung Keimzelle der neuen FH Gelsenkirchen, an deren Aufbau Prof. Hannemann als Prorektor und Gründungsdekan des Fachbereichs Informatik maßgeblich beteiligt war und ist.
Der Studiengangsführer des neu gegründeten Fachbereichs Ingenieurinformatik an der FH Gelsenkirchen beschreibt den deutschlandweit einmaligen Diplom-Studiengang Mikroinformatik mit seinen zwei Ausprägungen ‚Technische- und Angewandte Mikroinformatik‘: Die Aufgabenbereiche, das Praxissemester, die Einschreibungsvoraussetzungen, die Berufsfelder, den Studienverlauf und die Fächerinhalte.
Es werden die Hintergründe der Projekte angesprochen, die das Ziel haben, Lehrinhalte multimedial zu ergänzen, diese elektronisch anzubieten oder über das Internet zur Verfügung zu stellen. Zugangsmöglichkeiten zu diesen Lernformen und die technischen Stufen der Darbietung werden erläutert: Navigator, Lernraum, Portal. Auf virtuelle Lernräume, die Kommunikation im Internet, die Lernraumauswahl, auf Ausblicke für die Zukunft und auf e-Learningbeispiele wird eingegangen.
Virtuelle Hochschulen
(2001)
Dieser Artikel beleuchtet die Virtuelle Kooperative Hochschule (Organisation, Betreuung, Manpower), den Lernraum (Kommunikation im Internet, Lernräume im WWW und die Rollenverteilung im Lernraum), das Bundesleitprojekt Virtuelle Fachhochschule (Studentenleben, Projektdaten), Studieren im Netz (Medieninformatik, Virtuelles Lernmodul: Navigation), sowie die Didaktik.
Dieser Aufsatz will zeigen, wie mit den modernen Hilfsmitteln, die im Zusammenhang mit dem Internet entstehen, dreidimensionale virtuelle Welten geschaffen werden können, in denen physikalische Prozesse ablaufen. Neben einer allgemeinen, mehr philosophisch gehaltenen Einführung werden kurz die wichtigsten Elemente einer Sprache beschrieben, mit der man diese Welten modellieren kann. Die kurze Einführung in diese Sprache reicht aus, um an einem Beispiel den Fall eines Balls nachbilden zu können. Die Behandlung dieses Themas kann anregen, sich mit den Möglichkeiten dieser neuen Techniken zur Darstellung physikalischer Abläufe zu beschäftigen.
Dieser Artikel bietet einen Bericht über Entwicklungstendenzen und erste Erfahrungen virtueller Lernräume im Internet. Der Autor geht auf die Kommunikation im Internet, Lernräume im WWW, die Rollenverteilung im Lernraum ein, mit den Anforderungen aus Sicht der Lernenden, Lehrenden und der Verwaltung.