Filtern
Erscheinungsjahr
Dokumenttyp
- Video (46)
- Teil eines Buches (Kapitel) (34)
- Wissenschaftlicher Artikel (26)
- Konferenzveröffentlichung (24)
- Lehrmaterial (13)
- Buch (Monographie) (10)
- Vorlesung (7)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (3)
- Sonstiges (3)
- Bericht (2)
Sprache
- Deutsch (169) (entfernen)
Schlagworte
- Robotik (22)
- Flugkörper (14)
- Journalismus (14)
- UAV (14)
- 3D Modell (7)
- Akkreditierung (7)
- E-Learning (7)
- Marketing (6)
- Radio-Feature (6)
- Mikroinformatik (5)
- Virtuelle Hochschule (5)
- Mikrocomputer (4)
- Mikroprozessor (4)
- Rasenmäher (4)
- World Wide Web 2.0 (4)
- DRZ (3)
- Deutsches Rettungsrobotik-Zentrum (3)
- Informatik (3)
- Kommunikation im Internet (3)
- Kommunikationswissenschaft (3)
- Kulturmanagement (3)
- Medieninformatik (3)
- Online-Medien (3)
- Rettungsrobotik (3)
- SLAM (3)
- Studiengang (3)
- Studium (3)
- Werbung (3)
- Alternative Geschäftsmodelle (2)
- Bologna-Prozess (2)
- Branding (2)
- CD-ROM (2)
- Club-TV (2)
- Content-Marketing (2)
- Datenjournalismus (2)
- Empirische Methoden (2)
- Fachjournalismus (2)
- Gatekeeping (2)
- Gestaltung (2)
- Graswurzel-Journalismus (2)
- Human-Robot Interaction (2)
- Innovation (2)
- Intel-Prozessor (2)
- Internet (2)
- Kartierung (2)
- Lernraum (2)
- Mapping (2)
- Medienforschung (2)
- Medienrecht (2)
- Mikrocomputertechnik (2)
- Netzwerk-Medien (2)
- Partizipativer Journalismus (2)
- Personal Computer (2)
- Physik (2)
- Point Clouds (2)
- Qualifikationsrahmen (2)
- Trennungsgrundsatz (2)
- Ubuntu (2)
- Vegetationsbrand (2)
- Wissenschaftliches Arbeiten (2)
- Öffentlichkeitsarbeit (2)
- Ökonomie (2)
- 3D-Printer (1)
- ANSI-C (1)
- Adobe Audition (1)
- Akademischer Grad (1)
- Akkreditierung (1)
- Akkreditierungsagentur (1)
- Akkreditierungsagentur für Studiengänge der Ingenieurwissenschaften, der Informatik, der Naturwissenschaften und der Mathematik (1)
- Akustik (1)
- Alltagsunterstützende Assistenzlösung (1)
- Arbeitsbelastung (1)
- Arbeitsmotivation (1)
- Arbeitspsychologie (1)
- Arzneimittel (1)
- Assembler-Prgrammierung (1)
- Atomphysik (1)
- Audioschnitt (1)
- Augmented Reality (1)
- Automatisierung (1)
- Automatisierung, Journalismus, Literaturüberblick (1)
- BSM (1)
- Bachelor-Studiengang (1)
- Bachelorstudiengang (1)
- Bachelorstudium (1)
- Befragung (1)
- Berufsbefähigung (1)
- Berufseinsteiger (1)
- Berufsfeldstudie (1)
- Bildverarbeitung (1)
- Bodily sensation maps (1)
- Boulevardisierung (1)
- COVID-19 (1)
- CRM (1)
- Commercial communication (1)
- Corporate Identity (1)
- Crowdfunding (1)
- Curriculanormwert (1)
- Datenanalyse (1)
- Depression (1)
- Designprozess (1)
- Digitale Speicher (1)
- Elektrizitätslehre (1)
- Emotion induction (1)
- Entgrenzung (1)
- Enthüllungsjournalismus (1)
- Erweiterte Realität <Informatik> (1)
- Evaluation (1)
- Eventmanagement; digitale Events; interne Kommunikation (1)
- Exposé (1)
- Fachgesellschaft (1)
- Fernsehnachrichten (1)
- Fernsehsendung (1)
- Festkörperphysik (1)
- Freundeskreis (1)
- Fuzzy-Optimierung (1)
- Galtung (1)
- Gatewatching (1)
- Gehirn & Computer (1)
- Genderstereotype (1)
- Generation Y (1)
- Geräusche (1)
- Geschichte (1)
- Geschlecht (1)
- Halbleiterspeicher (1)
- Hands-free Interaction (1)
- Hochschulbildung (1)
- Hochschulqualifizierungsprozess (1)
- Hören (1)
- IAPS (1)
- Inferenz <Künstliche Intelligenz> (1)
- Informatikstudium (1)
- Ingenieurstudium (1)
- Integrierte Schaltung (1)
- Interaktion (1)
- Intereffikation (1)
- Internationalisierung (1)
- Interrupt <Informatik> (1)
- Journalism (1)
- Journalistenausbildung (1)
- Kernphysik (1)
- Kommunikation (1)
- Komposition (1)
- Kreditpunktesystem (1)
- Kulturelle Einrichtung (1)
- Kulturforschung (1)
- Kulturmarketing (1)
- Kultursponsoring (1)
- Kundenmanagement (1)
- Künstliche Intelligenz (1)
- MS-DOS (1)
- MS-DOS; Betriebssystem (1)
- Magnetspeicher (1)
- Manuskript (1)
- Markenmanagement (1)
- Maschinenintelligenz (1)
- Master-Studiengang (1)
- Masterstudiengang (1)
- Masterstudium (1)
- Mathematikstudium (1)
- Mechanik (1)
- Media ethics (1)
- Media law (1)
- Medialisierung (1)
- Medication (1)
- Medienethik (1)
- Mensch-Roboter (1)
- Menschheitsentwicklung (1)
- Mikrofon (1)
- Mikroprozessor-Technologie (1)
- Modellierung (1)
- Modularisierung (1)
- Musik (1)
- Nachrichtensendung (1)
- Nachrichtenwert (1)
- Nachrichtenwerttheorie (1)
- Naturwissenschaftliches Studium (1)
- Netzkommunikation (1)
- Netzwerköffentlichkeit (1)
- Online-Studium (1)
- Optik (1)
- Outcome-Orientierung (1)
- PASCAL (1)
- PR (1)
- Pandemie (1)
- Politikjournalismus (1)
- Politische Kommunikation (1)
- Politische Wissenschaft (1)
- Praxissemester (1)
- Principle of separation (1)
- Professor (1)
- Präsentation (1)
- Qualitätssteigerung (1)
- Redaktion (1)
- Relativitätstheorie (1)
- Replication (1)
- Schleichwerbung (1)
- Schreiben (1)
- Schwingung (1)
- Selbstverständnis (1)
- Social Media (1)
- Sozialkompetenz (1)
- Sport-Marketing (1)
- Sportpublizistik (1)
- Sprechen (1)
- Stimme (1)
- Streaming (1)
- Studie (1)
- Studienverlauf (1)
- Studierbarkeit (1)
- Supercomputer (1)
- TV-Journalismus (1)
- Tetraplegie (1)
- Thermodynamik (1)
- Travelling-salesman-Problem (1)
- Trendstudie (1)
- Vegetationsbrandübung (1)
- Vegetatonsbrandübung (1)
- Virtualisierung (1)
- Virtuelle 3D-Welt (1)
- Virtuelle Realität (1)
- Virtueller Lernraum (1)
- Wahlforschung (1)
- Weiterbildung (1)
- Welle (1)
- Werbewirkung (1)
- Workload (1)
- Zeitschrift (1)
- Zitat (1)
- composition (1)
- design process (1)
- design tools (1)
- gender stereotypes (1)
- gender-sensitive design (1)
- gender-specific design (1)
- gendersensibles Design (1)
Institut
- Informatik und Kommunikation (169) (entfernen)
Ziele und Konzepte der GI-Empfehlungen, Adressaten der Empfehlung, Studiengänge und Abschlussbezeichnungen, Ausbildungsziele und curriculare Anforderungen, Grundstruktur und Kategorien, Inhalte, Organisatorische Anforderungen, Qualität der Lehre, Ausstattung des Lehr- und Studienbetriebs, Akkreditierung.
Datenanalyse beim CRM
(2016)
Selbstständig und selbstbestimmt essen und trinken zu können gehört zu den Grundbedürfnissen des Menschen und wird den Aktivitäten des täglichen Lebens (ATLs) zugeordnet. Körperliche Beeinträchtigungen, die mit Funktionsverlusten in Armen, Händen und ggf. der Beweglichkeit des Oberkörpers einhergehen, schränken die selbstständige Nahrungszufuhr erheblich ein. Die Betroffenen sind darauf angewiesen, dass ihnen Getränke und Mahlzeiten zubereitet, bereitgestellt und angereicht werden. Zu dieser Personengruppe gehören Menschen mit querschnittbedingter Tetraplegie, Multiple Sklerose, Muskeldystrophie und Erkrankungen mit ähnlichen Auswirkungen. Derzeit gibt es verschiedene assistive Technologien, die das selbstständige Essen und Trinken wieder ermöglichen sollen.Wie aber muss ein Interaktionsdesign für einen Roboterarm gestaltet sein, damit er von den Betroffenen zur Nahrungsaufnahme genutzt werden kann? Welche Anforderungen gibt es und welche Aspekte sind in Bezug auf die Akzeptanz eines Roboterarms zu berücksichtigen?
Nicht nur in der Gestaltung digitaler Medien spielt die Kategorie Geschlecht eine tragende Rolle, sondern auch in der Konzeption, Herstellung sowie Nutzung von Webangeboten. Problematisch daran ist, dass die weibliche Perspektive in Bezug auf Interessen, Bedürfnisse und Anwendbarkeit häufig wenig oder stereotyp berücksichtigt wird, die Nutzung digitaler Medien jedoch Verhaltensweisen, Werte und Normen von Nutzer_innen erheblich – und sehr einseitig – prägt. Design stellt hierbei einen zentralen Faktor dar: Es steuert, ermöglicht oder verhindert das Nutzer_innenverhalten und deutet und wertet Inhalte durch die Art der jeweiligen Darstellung. Die Auswirkung von Design im Entwicklungsprozess von digitalen Artefakten ist sehr vielschichtig und in ihrer gesamten Tragweite weit unterschätzt. Der Beitrag sensibilisiert hinsichtlich Gendercodes in Designstrategien, Methoden aus dem Entwicklungsprozess (Persona-Entwicklung) und einzelner Gestaltungselemente (Farbe, Typografie).
Ressortjournalismus
(2016)
Lehrredaktion
(2016)
Soziale Netzwerke dienen politischen Kandidaten dazu, Bürgerinnen und Bürger ungefiltert mit ihren Botschaften zu erreichen. Während des Wahlkampfes spielt die TV-Berichterstattung allerdings noch immer eine wichtige Rolle. Die vorliegende Analyse zeigt am Beispiel von Angela Merkel und Martin Schulz, dass die Profile der Kanzlerkandidaten während des Bundestagswahlkampfes 2017 über keine Thematisierungsmacht für das Fernsehen verfügten. Die Kandidaten vermochten es nicht, ihre Inhalte mithilfe ihrer Auftritte in den sozialen Netzwerken in die großen TV-Nachrichtenmagazine zu transferieren. tagesthemen und heute journal blieben in ihrer Darstellung unabhängig von den Eigendarstellungen der Kandidaten. Ferner zeigt die Analyse, dass sich das Fernsehen stark auf die Performance der Kandidaten konzentrierte, während politische Inhalte im Rahmen der Berichterstattung seltener thematisiert wurden. Merkel verweigerte sich weitgehend inhaltlicher Debatten über soziale Netzwerke; Schulz schaffte es nicht, mit seinen Botschaften zu punkten.
Wie wählen Nachrichtenmedien aus, worüber sie berichten? Dieser Frage versuchen Nachrichtenwertforschende seit vielen Jahren auf den Grund zu gehen. Die Nachrichtenwertforschung ist eine der traditionsreichsten Forschungsrichtungen der Journalismusforschung, die bis zum heutigen Tag aktuell ist. Begründet wurde sie bereits in den 1920er-Jahren von Walter Lippmann, internationale Bekanntheit erfuhr sie durch Johan Galtung und Mari Holmboe Ruge, die 1965 eine Liste von Nachrichtenfaktoren entwickelten und diese empirisch überprüften. Es folgten unzählige empirische Untersuchungen zu diesem Thema, die sich an einer Weiterentwicklung der Theorie versuchten. Der vorliegende Beitrag gibt einen Überblick über die Entwicklungsgeschichte der Nachrichtenwertforschung und skizziert, was Forschende heutzutage an der Thematik interessiert.
Soft Skills
(2014)
Crowdfunding im Journalismus
(2014)
Papierloses Krankenhaus
(2005)
Kultureinrichtungen als Arbeitgeber sehen sich zunehmend veränderten Rahmenbedingungen der Mitarbeitergewinnung und -bindung gegenüber, die sich aus mehreren gesellschaftlichen Megatrends ergeben. Zentral sind dabei zum einen der demografische Wandel und die damit einhergehende Überalterung der Arbeitnehmer, zum anderen geänderte Wertvorstellungen und Arbeitsmotive der jüngeren Arbeitnehmergeneration, der sogenannten „Generation Y“. Beides hat weitreichende Implikationen für das Recruiting und die dauerhafte Bindung von Mitarbeitern in zahlreichen Branchen an das jeweilige Unternehmen. Vorgestellt werden im folgenden Beitrag die Ergebnisse einer Studie, die zum einen Arbeitsmotivation und -zufriedenheit von Beschäftigten im Kultursektor untersucht hat und dabei den Fokus auf Wert- und Arbeitshaltungen der Generation Y gelegt hat. Zum anderen wurden die Bedeutung der Rahmenarbeitsbedingungen erhoben, insbesondere die Rolle der Führung sowie von Flexibilität am Arbeitsplatz.
Brand Purpose in aller Munde. Was gilt es in der werthaltigen Kommunikation von Marken zu beachten?
(2020)
Unternehmen positionieren sich gern mit Bezug auf die gesellschaftliche Relevanz ihres Unternehmenszwecks. Diese Orientierung findet sich zunehmend auch in der Kommunikation auf Markenebene. Statt den Produktnutzen zu betonen, liefert die Markenkommunikation Input zu gesellschaftlichen Debatten wie Gleichstellung oder Nachhaltigkeit. Unter dem Stichwort „Brand Purpose“ zeigen Beratungen und Agenturen gern auf, wie positiv diese Art der Kommunikation von Konsumenten und Stakeholdern eingestuft wird. Erste Stimmen gehen davon aus, dass sich diese Tendenzen nach der Coronakrise noch verstärken werden. Doch was bringt die Konzentration auf Sinnstiftung tatsächlich der Marke? Studien weisen darauf hin, dass eine reine Konzentration in der Kommunikation auf Zweck und Sinn einer Marke die Geschäftsentwicklung nicht unbedingt positiver beeinflussen muss als klassische Produktkommunikation und im schlimmsten Fall sogar kontraproduktiv wirken kann. Der Beitrag untersucht deshalb die Frage, welche Voraussetzungen erfüllt sein müssen, damit wertorientierte Kommunikation tatsächlich einen Mehrwert für die Marke bieten kann.
Der Kultursektor ist weiterhin ein attraktiver Arbeitsmarkt. Doch immer häufiger merken Unternehmen: Es klafft eine Lücke zwischen ihren Erwartungen und den Ansprüchen der jungen Generation von Berufstätigen. Um diese Lü-cke zu schließen, werden im Folgenden die Ergebnisse ei-ner Studie über die „Candidate Experience“ dargestellt, die von der Westfälischen Hochschule Gelsenkirchen durchgeführt wurde. Abgeleitet werden Handlungsempfehlungen sowohl für Bewerberinnen und Bewerber als auch für Institutionen.
Die Sportpresse hat gegenüber anderen Medien einen fundamentalen Aktualitätsnachteil und muss verstärkt als Komplementärmedium agieren, um für ansprechende Inhalte zu sorgen. Fraglich ist neben dem Inhalt jedoch ebenso die Art der Berichterstattung, auf sprachlich-stilistischer und formal-gestalterischer Ebene. Untersucht wird die Berichterstattung (N = 455) der Süddeutschen Zeitung über die Fußball-Europameisterschaften 2000, 2008 und 2016 hinsichtlich eines möglichen Boulevardisierungstrends. Zur Ermittlung eines möglichen Trends wurde ein Boulevardisierungsindex entwickelt. Dem Index kann ein leichter Boulevardisierungstrend für den 16-jährigen Zeitraum entnommen werden. Dabei ist die Berichterstattung besonders zwischen den Jahren 2000 und 2008 boulevardesker geworden. Die Befunde zeigen zudem, dass insgesamt vermehrt auf Boulevardvariablen (z. B. Emotionalisierung) gesetzt wurde, die vor dem Hintergrund journalistischer Qualität als weniger kritisch anzusehen sind.
Technik des Online-Studiums
(2002)
Dieser Bericht beschreibt in Kurzform das Projekt, dessen Ziel es ist, Online-Studiengänge zu entwickeln. Weiterhin werden die Besonderheiten bei der Durchführung von Online-Studiengängen und die damit verbundenen Schwierigkeiten aufgezeigt. An einem Beispiel kann man erkennen, wie die didaktische und multimediale Umsetzung der einzelnen Lernmodule realisiert wurde. Eine ausführliche Abhandlung kann man im Internet nachlesen: http://194.94.127.15/Lehre/infophysik/IP-WBT-Demo/infophysik.html
Physik. eLearning-SmartBook
(2014)
Dieses Smart-Book enthält das komplette eLearning-Modul Physik für Studierende der Technik und Informatik. Zusätzlich enthält es noch ein kleinerer Modul zum Thema Virtuelle Welten. Der Umfang entspricht in etwa einem Volumen von 10 Kreditpunkten im deutschen Hochschulsystem. Demo: http://www.haverlag.de/ebooks/physik-smart/demo/start/first.html
Mikroinformatik
(2012)
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst.
Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs.
Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen.
Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Evaluation der Lehre im Hochschulbereich wird seit vielen Jahren praktiziert als ein Prozess der Selbsterkenntnis mit dem Ziel der Qualitätsverbesserung und Effizienzsteigerung
1. Im sog. „Nordverbund“ der deutschen Küstenuniversitäten wird bereits seit 1994 evaluiert. Die Akkreditierung ist dagegen noch nicht ganz so alt. Nachdem sich im Juli 1999 der Akkreditierungsrat konstituiert hat, wurden ab 2000 die ersten Akkreditierungsverfahren durchgeführt.
Die Informatik hat auf diese neue Herausforderung als erste reagiert und schon im Juni 2000 „Standards zur Akkreditierung von Studiengängen der Informatik und interdisziplinären Informatik-Studiengängen an deutschen Hochschulen“ herausgegeben. Diese Standards wurden unter dem Dach der Gesellschaft für Informatik von einer Arbeitsgruppe, die aus Mitgliedern des Fachbereichstages und des Fakultätentages Informatik bestand, ab 1999 erarbeitet
2. Danach entstanden die Akkreditierungsagenturen, die sich vom Akkreditierungsrat akkreditieren lassen müssen, um schließlich selbst bei den von ihnen durchgeführten Akkreditierungsverfahren das Siegel des Akkreditierungsrates vergeben zu können.
Die als Bologna-Prozess bezeichnete Umstrukturierung des europäischen Hochschulsystems begann in Deutschland etwa 1999 mit den Strukturvorgaben der KMK
2. Darin wird auch von einem berufsqualifizierenden Profil der Bachelor- und Master-Studiengänge und von weiterbildenden Masterstudiengängen gesprochen. Im Folgenden wird über einige Erfahrungen zu diesen beiden Themenbereichen und das lebensbegleitende Lernen berichtet. Gewonnen wurden diese Erfahrungen vor allem durch die Tätigkeit im Fachbereichstag Informatik, im Bundesleitprojekt Virtuelle Fachhochschule und in der Akkreditierung von neuen Studiengängen an Universitäten und Fachhochschulen.
Ein weiterer Prozess, der die Neugestaltung der Studiengänge begleitet, ist durch den Europäischen Qualifikationsrahmen gegeben.
In seiner letzten Ausprägung werden auch die berufliche Qualifikation und das lebensbegleitende Lernen thematisiert.
Vor der Umstrukturierung der Studiengänge in Bachelor und Master gab es in Deutschland keine Studiengangsakkreditierung. Deshalb stellen diese Verfahren eine besondere Herausforderung für die Hochschulen dar. Dieser Artikel beschreibt einige Aspekte der Akkreditierung und dem damit im Zusammenhang stehenden neuen Paradigma der Outcome-Orientierung von Studiengängen. Weiterhin wird für den Hochschulbereich und die berufliche Bildung auf die Bemühungen um die Schaffung eines europäischen Qualifikationsrahmens eingegangen.
Die Medieninformatik wurde zuerst von der FH Furtwangen als Studiengang angeboten und dann 1996 – in einer neuen Konzeption – vom Fachbereich Informatik an der FH Gelsenkirchen (als 8-semestriger Diplomstudiengang). Seit dieser Zeit werden an vielen anderen Hochschulen Studiengänge dieses Namens angeboten.
Die Curricula sind jedoch sehr unterschiedlich – was häufig dadurch bedingt ist, dass diese Studiengänge mit dem vorhandenen Personal aufgebaut werden müssen. In Gelsenkirchen konnten wir jedoch mehrere Professuren entsprechend besetzen, da die Hochschule und der Fachbereich neu gegründet worden waren (Der Autor ist Gründungsdekan). In den Jahren 1997 bis 1998 reiften dann die Pläne heran, auch im VFH-Projekt den Studiengang Medieninformatik als einen der zu entwickelnden Online-Studiengänge vorzusehen. Diesen Studiengang – zu diesem Zeitpunkt – als Bachelor-Master-Studiengang zu etablieren, hat viel Überzeugungsarbeit gekostet. Der parallel zu entwickelnde Studiengang Wirtschaftsingenieur wurde z.B. zunächst als Diplomstudiengang konzipiert. Die Nachfrage, bezogen auf den Studiengang Medieninformatik, war und ist recht groß. Für den Präsenzstudiengang in Gelsenkirchen haben sich jeweils mehrere Hundert Bewerber gemeldet und auch der Online-Studiengang erfreut sich großer Nachfrage.
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst. Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs. Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen. Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Ein Physikbuch, entstanden aus Vorlesungen für Studierende der Elektrotechnik. Eine komprimierte, knappe Darstellung erleichtert den Überblick und lässt Raum für handschriftliche Ergänzungen der Studierenden während der Vorlesungen. Dabei konzentriert sich der Stoff auf die Gebiete und Vertiefungen die für das Studium einer technischen Disziplin als unverzichtbare Voraussetzung anzusehen sind.
An der Fachhochschule Gelsenkirchen wurde zum Wintersemester 1993/94 der Lehrbetrieb im neuen Studiengang Ingenieurinformatik, insbesondere Mikroinformatik aufgenommen. So wie es bei vielen anderen Wissenschaften einen Zweig gibt, der sich mit den kleinsten Forschungsobjekten befasst, so hat auch die Informatik spezielle Aufgabenstellungen, die sich mit den heute weit verbreiteten mikrominiaturisierten Systemen befassen. Die Mikroinformatik erstreckt sich von der Technischen Informatik über die Praktische Informatik bis hin zur Angewandten Informatik, jedoch gefiltert auf mikrominiaturisierte Systeme und Komponenten. Sie macht es sich somit zur Aufgabe, Problemlösungen durch die Entwicklung von Mikrocomputern und anderen Mikrosystemen sowie spezieller Algorithmen (Programme) zu finden. Diese Beschreibung lässt sich mit einigen Einschränkungen auf die folgende Kurzform bringen: Problemlösungen mittels Mikrocomputern in Technik und Organisation.
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst. Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs. Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen. Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Bachelor/Master-Studiengänge
(1999)
Intelligenzexplosion
(2016)
Virtuelle Hochschulen
(2002)
Virtuelle Fachhochschule
(2004)
Auf der Basis eines Wettbewerbs des BMBF von 1997 hat das Konsortium Virtuelle Fachhochschule (VFH) 43 Mio. DM erhalten und 1999 damit begonnen Online-Studiengänge zu entwickeln. Weitere Themenfelder dieses Bundesleitprojektes sind: Struktur und Organisation einer virtuellen Hochschule, Lehr- und Lernformen in Online-Studiengängen, etc. Beteiligt sind 10 Fachhochschulen, 2 Universitäten, sowie diverse Organisationen und Wirtschaftsunternehmen. Im Jahre 2001 startete der Bachelor-Online-Studiengang Medieninformatik (www.oncampus.de). Das Projekt läuft noch bis ins Jahr 2004. Der Autor ist Vizegesamtprojektleiter, Mitglied im Teilvorhaben Struktur und Organisation sowie Entwickler von 3 Lernmodulen zur Physik für das Medieninformatikstudium.
Am Beispiel dieses Großprojektes werden einige Besonderheiten und Erfahrungen zu den Themen: Organisationsformen, Betreuung, Lehrdeputat, Workload, Ergonomie, Evaluation, Akkreditierung und die Entwicklung der Physik-Online-Lernmodule dargestellt.
Professor Dr. Dieter Hannemann ist Physiker und Ingenieur und hat sich nach seinen Studien der Technischen Informatik zugewandt. An der Fachhochschule Bochum, Abt. Gelsenkirchen, gründete er 1979 den Bereich Mikrocomputertechnik, dessen Aktivitäten vor allem im Bereich des Technologietransfers liegen. Zum 1.8.1992 wurde die Fachhochschulabteilung Keimzelle der neuen FH Gelsenkirchen, an deren Aufbau Prof. Hannemann als Prorektor und Gründungsdekan des Fachbereichs Informatik maßgeblich beteiligt war und ist.
Der Studiengangsführer des neu gegründeten Fachbereichs Ingenieurinformatik an der FH Gelsenkirchen beschreibt den deutschlandweit einmaligen Diplom-Studiengang Mikroinformatik mit seinen zwei Ausprägungen ‚Technische- und Angewandte Mikroinformatik‘: Die Aufgabenbereiche, das Praxissemester, die Einschreibungsvoraussetzungen, die Berufsfelder, den Studienverlauf und die Fächerinhalte.
Es werden die Hintergründe der Projekte angesprochen, die das Ziel haben, Lehrinhalte multimedial zu ergänzen, diese elektronisch anzubieten oder über das Internet zur Verfügung zu stellen. Zugangsmöglichkeiten zu diesen Lernformen und die technischen Stufen der Darbietung werden erläutert: Navigator, Lernraum, Portal. Auf virtuelle Lernräume, die Kommunikation im Internet, die Lernraumauswahl, auf Ausblicke für die Zukunft und auf e-Learningbeispiele wird eingegangen.
Virtuelle Hochschulen
(2001)
Dieser Artikel beleuchtet die Virtuelle Kooperative Hochschule (Organisation, Betreuung, Manpower), den Lernraum (Kommunikation im Internet, Lernräume im WWW und die Rollenverteilung im Lernraum), das Bundesleitprojekt Virtuelle Fachhochschule (Studentenleben, Projektdaten), Studieren im Netz (Medieninformatik, Virtuelles Lernmodul: Navigation), sowie die Didaktik.
Dieser Aufsatz will zeigen, wie mit den modernen Hilfsmitteln, die im Zusammenhang mit dem Internet entstehen, dreidimensionale virtuelle Welten geschaffen werden können, in denen physikalische Prozesse ablaufen. Neben einer allgemeinen, mehr philosophisch gehaltenen Einführung werden kurz die wichtigsten Elemente einer Sprache beschrieben, mit der man diese Welten modellieren kann. Die kurze Einführung in diese Sprache reicht aus, um an einem Beispiel den Fall eines Balls nachbilden zu können. Die Behandlung dieses Themas kann anregen, sich mit den Möglichkeiten dieser neuen Techniken zur Darstellung physikalischer Abläufe zu beschäftigen.
Dieser Artikel bietet einen Bericht über Entwicklungstendenzen und erste Erfahrungen virtueller Lernräume im Internet. Der Autor geht auf die Kommunikation im Internet, Lernräume im WWW, die Rollenverteilung im Lernraum ein, mit den Anforderungen aus Sicht der Lernenden, Lehrenden und der Verwaltung.
Dieses Buch ist hervorgegangen aus der Schrift "Hannemann, Datensammlung Mikrocomputer", welche 1985 in ihrer ersten Auflage erschienen ist und im Wesentlichen als zusammenfassende Unterlage für die Arbeit an den Mikrocomputern im Fachbereich Elektrotechnik der Fachhochschule Bochum, Abteilung Gelsenkirchen diente. Da sich die genannte Schrift in der täglichen Arbeit am Computer sehr bewährt hat, wurde sie erweitert und durch die Hinzunahme eines Coautors auch auf die höheren Programmiersprachen PASCAL und C, sowie das Betriebssystem CP/M ausgedehnt. Die Programmiersprachen spielen im Bereich der Mikrocomputer bzw. der Personal Computer eine sehr wichtige Rolle. Beide Autoren sind Professoren an der neuen Fachhochschule Gelsenkirchen, Fachbereich Ingenieurinformatik und dort für die Fächer Angewandte Informatik (Prof. Dr. A. Niemietz) und Mikrocomputertechnik (Prof. Dr. D. Hannemann) verantwortlich. Prof. Hannemann ist Gründungsdekan des Fachbereichs Ingenieurinformatik und Initiator des Studiengangs Mikroinformatik.
Nach einer erfolgreichen Wiederbelebung der Medieninformatik-Workshopreihe mit dem Workshop Medieninformatik 2016 auf der Mensch-und-Computer 2016 in Aachen, lädt die Fachgruppe Medieninformatik (FG MI) im Fachbereich Mensch-Computer-Interaktion (FB MCI) der Gesellschaft für Informatik (GI) ein zum Workshop Medieninformatik 2017. In diesem Jahr soll es, aufbauend auf den Ergebnissen des 2016er-Workshops, zunächst um das Herausarbeiten von Berufsbildern und Färbungen der Medieninformatik- und Medieninformatik-orientieren Studiengänge gehen. Grundlage der Diskussion ist eine, im Vorfeld des Workshops durchzuführende Kurzumfrage, in der die Zielrichtung der jeweiligen Studiengänge und die Absolventenstatistiken hinsichtlich der Arbeitsfelder erfasst werden. Die Ergebnisse der Befragung werden vor dem Workshop an die Workshop-Teilnehmer zurückgespielt und sollen diesen als Kontext für die Vorbereitung der Workshop-Vorträge dienen. Die Vorträge sollen nach relativ engen Vorgaben die Themen Berufsbilder und Färbungen der Medieninformatik thematisieren, um die Workshopdiskussion anzustoßen. Daran anknüpfend sind die Themen Studiengangsgestaltung (Curriculum) und Erfahrungsaustausch zu (praxisgerechten) Lehr-Lernformen vorgesehen. Des Weiteren soll das im 2016-Workshop sehr kontrovers diskutierte Thema „Gibt es eine Medieninformatik-Forschung?“ anhand konkreter Medieninformatik-Forschungsvorhaben erneut thematisiert werden. Der vorgestellte Themenkanon ist nicht abschließend zu verstehen, sondern soll durch die Teilnehmenden im Vorfeld und vor Ort ergänzt werden.
Nachdem die Fachgruppe Medieninformatik (FG MI) der Gesellschaft für Informatik e.V. (GI) bereits in den Jahren 2009 und 2010 Workshops zu den Themen „Medieninformatik in Forschung, Lehre und Praxis“ (Herczeg 2009) bzw. „Basismodule und Basiscurricula für die Medieninformatik“ (Herczeg 2010) durchgeführt hat und den Input aus den Workshops in der Folge überwiegend im Kreis der FG-Leitung verarbeitet hat, ist es Zeit mit den dort entstandenen Ideen wieder in die größere Runde zu gehen. Dieser Beitrag ist als Diskussionspapier für den kommenden (aber auch für weitere) Workshop(s) im Bereich der Medieninformatik gedacht. Die Ideen stammen im Wesentlichen aus der Arbeit der FG-Leitung bzw. einzelner engagierter Mitglieder der FG MI. Gemäß der Tradition der FG erheben die Darstellungen keinen Richtlinienanspruch, sondern sollen Diskussionen anregen.
Background: Emotions play a central role in mental disorder and especially in depression. They are sensed in the body, and it has recently been shown in healthy participants that these sensations can be differentiated between emotions. The aim of the current study was to assess bodily sensations for basic emotions induced by emotion eliciting pictures in depression.
Methods: 30 healthy controls (HC), 30 individuals suffering from Major depressive disorder (MDD) without medication use (MDDnm) and 30 individuals with MDD with medication use (MDDm) were shown emotional and neutral pictures and were asked to paint areas in an empty body silhouette where they felt an increase or decrease in activation. Body sensation maps were then calculated and statistical pattern recognition applied.
Results Results indicated statistically separable activation patterns for all three groups. MDDnm showed less overall activation than HCs, especially in sadness and fear, while MDDm showed stronger deactivation for all emotions than the other two groups.
Conclusions: We could show that emotion experience was associated with bodily sensations that are weaker in depression than in healthy controls and that antidepressant medication was correlated with an increased feeling of bodily deactivation.
Results give insights into the relevance for clinicians to acknowledge bodily sensations in the treatment of depression.
Problem: A group of robots, called a swarm, is placed in an unknown environment and is supposed to explore it independently. The goal of the exploration is the creation of a common map.
Implementation
- Equipping six Kobuki robots with appropriate sensor technology, a large battery, a router and the Jetson board
- Setup of the Jetson-Boards with self-made ROS2 nodes and the set up mesh network
- Writing of launch files for the common start of all functions
- Reinforcement learning is used to train an AI that controls the swarm by selecting points for the robots to approach and navigating to them and navigating them there.
- Setting up a responsive website using Angular and the Bootstrap
Framework.
Nerf(acto) for the 3D modeling of the Computer Science building of Westfälische Hochschule GE
(2023)
The video shows a very high resolution 3D point cloud !!! of the computer science building of the University of Applied Science Gelsenkirchen. For the recording a 3 minute flight with a M30T was performed. The 105 images taken by the wide-angle camera during this flight were localized within 3 minutes using colmap and processed using Neural Radiance Fields (NeRF). The nerfacto model of Nerfstudio was trained on an Nvidia RTX 4090 for 8 minutes. Thus, a top 3D model is available after about 15 minutes.
The video shown here shows a free camera path rendered at 60 hz (Full HD).
From the 360° images of the former video (
• German rescue robotic center captured... ) we now generate the 3D point cloud. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The 3D point cloud generation is 5x slower than the video. It uses a VSLAM algorithm to localize the k-frames (green) and with 3 k-frames it use a 360° PatchMatch algorithm implemented at a NVIDIA graphic card (CUDA) to calculated the dense point clouds.The hall ist about 70 x 20 meters.
The video shows the first test of a small spherical UAV (35 cm) with 4 rotors for missions in complex environments such as buildings, caves or tunnels. The spherical design protects the vehicle's internal components and allows the UAV to roll over the ground when the environment allows. The drone can land and take off in any position and come into contact with objects without endangering the propellers and can restart even after crashes.
Sperical UAV: Crash Test with 1/2 liter bottle from 2 meters
Gaussian Splatting: 3D Reconstruction of a Chemical Company After a Tank Explosion in Kempen 8/2023
(2023)
The video showcases a 3D model of a chemical company following a tank explosion that occurred on August 17, 2023, in Kempen computed with the gaussian splatting algorithm. Captured by a compact mini drone measuring 18cm x 18cm and equipped with a 360° camera, these images offer an intricate perspective of the aftermath. The computation need 29 minutes and uses 2770 images (~350 equirectangular images). After a comprehensive aerial survey and inspection of the 360° images taken within the facility, authorities confirmed that it was safe for the evacuated residents to return to their homes. See also:
https://www1.wdr.de/fernsehen/aktuelle-stunde/alle-videos/video-grosser-chemieunfall-in-kempen-100.html
The video showcases a 3D model of a chemical company following a tank explosion that occurred on August 17, 2023, in Kempen computed with the AI algorithm Neural Radiance Field (NeRF). Captured by a compact mini drone measuring 18cm x 18cm and equipped with a 360° camera, these images offer an intricate perspective of the aftermath. After a comprehensive aerial survey and inspection of the 360° images taken within the facility, authorities confirmed that it was safe for the evacuated residents to return to their homes. See also:
https://www1.wdr.de/fernsehen/aktuelle-stunde/alle-videos/video-grosser-chemieunfall-in-kempen-100.html
ARGUS is a tool for the systematic acquisition, documentation and evaluation of drone flights in rescue operations. In addition to the very fast generation of RGB and IR orthophotos, a trained AI can automatically detect fire, people and cars in the images captured by the drones. The video gives a short introduction to the Aerial Rescue and Geospatial Utility System -- ARGUS
Check out our Github repository under
https://github.com/RoblabWh/argus/
You can find the dataset on kaggle under
https://www.kaggle.com/datasets/julienmeine/rescue-object-detection
This video features a flight test conducted in our robotics lab, showcasing a custom-built thermal camera drone. We've enhanced a DJI Avata with a specialized thermal camera system. With its compact dimensions measuring 18 x 18 x 17 cm, this drone is designed to navigate and provide critical thermal information within post-fire or post-explosion environments. For more insights, be sure to check out our previous videos on this channel.
360° and IR- Camera Drone Flight Test: Superimposition of two data sources for Post-Fire Inspection
(2023)
This video highlights a recent flight test carried out in our cutting-edge robotics lab, unveiling the capabilities of our meticulously crafted thermal and 360° camera drone! We've ingeniously upgraded a DJI Avata with a bespoke thermal and 360° camera system. Compact yet powerful, measuring just 18 x 18 x 17 cm, this drone is strategically engineered to effortlessly navigate and deliver crucial thermal and 360° insights concurrently in post-fire or post-explosion environments.
The integration of a specialized thermal and 360° camera system enables the simultaneous capture of both data sources during a single flight. This groundbreaking approach not only reduces inspection time by half but also facilitates the seamless superimposition of thermal and 360° videos for comprehensive analysis and interpretation.
At the integration sprint of the E-DRZ consortium in march 2023 we improve the information captured by the human spotter (of the fire brigade) by extending him through a 360° drone i.e. the DJI Avata with an Insta360 on top of it. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The hall ist about 70 x 20 meters. When the drone is landed we have all information in 360° degree at 5.7k as you can see it in the video. Furthermore it is a perfect documentation of the deployment scenario. In the next video we will show how to spatial localize the 360° video and how to generate a 3D point cloud from it.
At the integration sprint of the E-DRZ consortium in march 2023 we improve the information captured by the human spotter (of the fire brigade) by extending him through a 360° drone. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The hall ist about 70 x 20 meters. When the drone is landed we have all information in 360° degree at 5.7k as you can see it in the video. Furthermore it is a perfect documentation of the deployment scenario. In the next video we will show how to spatial localize the 360° video and how to generate a 3D point cloud from it.
The dataset is used for 3D environment modeling, i.e. for the generation of dense 3D point clouds and 3D models with PatchMatch algorithm and neural networks. Difficult for the modeling algorithm are the reflections of rain, water and snow, as well as windows and vehicle surface. In addition, lighting conditions are constantly changing.
Hintergrund
Während der SARS-CoV-2-Pandemie ist es vorrangig, die Mitarbeiter vor Infektionsrisiken zu schützen und die Geschäftstätigkeit zu sichern. Neue Virusvarianten mit erhöhter Ansteckungsgefahr erfordern eine weiterentwickelte Risikostrategie.
Material und Methoden
Mehrere Standardmaßnahmen wie Tests, Isolierung und Quarantäne werden zu einer neuartigen Risikostrategie kombiniert. Epidemiologische Modellrechnungen und wissenschaftliche Erkenntnisse über den Verlauf der SARS-CoV-2-Infektiosität werden zur Optimierung dieser Strategie herangezogen. Das Verfahren ist in einem einfach zu bedienenden Rechner auf Excel-Basis implementiert.
Aufbau in der Praxis und Ergebnisse
Alternative Maßnahmenkombinationen und praktische Aspekte werden erörtert. Anhand von Beispielrechnungen wird die Wirkung der diskutierten Maßnahmen demonstriert.
Schlussfolgerung
Der aus diesen Grundlagen abgeleitete Quarantäne-Rechner ermöglicht es auch Nicht-Fachleuten, eine differenzierte Risikoanalyse durchzuführen und optimierte Maßnahmen einzuleiten. Gezielte Prüfroutinen und alternative Maßnahmen sichern die Personalverfügbarkeit.
IT-Schutzmaßnahmen sind kein Selbstzweck. Mit Hilfe von IT-Schutzmaßnahmen kann das Risiko bei der Nutzung von IT-System reduziert werden. In diesem Artikel werden die Kosten der IT-Schutzmaßnahmen aus unterschiedlichen Blickwinkeln betrachtet. Da eine IT-Schutzmaßnahme eine Investition für die Zukunft ist, sollten die Kosten-Nutzen-Aspekte schon bei der Planung besonders berücksichtigt werden.
Internetstatistik
(2005)
Körperliche Behinderungen können einen Menschen soweit einschränken, dass für sie ein autonomes und selbstbestimmtes Leben, trotz intakter mentaler und kognitiven Fähigkeiten, nicht mehr möglich ist. Daher ist für Menschen, die beispielsweise vom Hals abwärts gelähmt sind, sogenannten Tetraplegikern, jede Zurückgewinnung von Autonomie eine Steigerung der Lebensqualität. In dieser Masterarbeit wird ein Augmented Reality Prototyp entwickelt, der es Tetraplegikern oder Menschen mit einer ähnlichen körperlichen Einschränkung erlaubt, an einem Mensch-Roboter Arbeitsplatz Montageaufgaben durchzuführen und ihnen somit eine Integration ins Arbeitsleben ermöglichen kann. Der Prototyp erlaubt es den Benutzer ohne die Nutzung der Hände, einen Kuka iiwa Roboterarm mit der Microsoft HoloLens zu steuern. Dabei wird ein Fokus darauf gelegt, das Blickfeld des Benutzers mit speziellen virtuellen Visualisierungen, sogenannten visuellen Helfern, anzureichern, um die Nachteile, die durch die Bewegungseinschränkungen der Zielgruppe ausgelöst werden, auszugleichen. Diese visuellen Helfer sollen bei der Steuerung des Roboterarms unterstützen und die Bedienung des Prototyps verbessern. Eine Evaluation des Prototyps zeigte Tendenzen, dass das Konzept der visuellen Helfer den Benutzer den Roboterarm präziser steuern lässt und seine Bedienung unterstützt.