Filtern
Erscheinungsjahr
Dokumenttyp
- Video (46)
- Teil eines Buches (Kapitel) (34)
- Wissenschaftlicher Artikel (26)
- Konferenzveröffentlichung (24)
- Lehrmaterial (13)
- Buch (Monographie) (10)
- Vorlesung (7)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (3)
- Sonstiges (3)
- Bericht (2)
- Masterarbeit (1)
Sprache
- Deutsch (169) (entfernen)
Schlagworte
- Robotik (22)
- Flugkörper (14)
- Journalismus (14)
- UAV (14)
- 3D Modell (7)
- Akkreditierung (7)
- E-Learning (7)
- Marketing (6)
- Radio-Feature (6)
- Mikroinformatik (5)
Institut
- Informatik und Kommunikation (169) (entfernen)
Ziele und Konzepte der GI-Empfehlungen, Adressaten der Empfehlung, Studiengänge und Abschlussbezeichnungen, Ausbildungsziele und curriculare Anforderungen, Grundstruktur und Kategorien, Inhalte, Organisatorische Anforderungen, Qualität der Lehre, Ausstattung des Lehr- und Studienbetriebs, Akkreditierung.
Datenanalyse beim CRM
(2016)
Selbstständig und selbstbestimmt essen und trinken zu können gehört zu den Grundbedürfnissen des Menschen und wird den Aktivitäten des täglichen Lebens (ATLs) zugeordnet. Körperliche Beeinträchtigungen, die mit Funktionsverlusten in Armen, Händen und ggf. der Beweglichkeit des Oberkörpers einhergehen, schränken die selbstständige Nahrungszufuhr erheblich ein. Die Betroffenen sind darauf angewiesen, dass ihnen Getränke und Mahlzeiten zubereitet, bereitgestellt und angereicht werden. Zu dieser Personengruppe gehören Menschen mit querschnittbedingter Tetraplegie, Multiple Sklerose, Muskeldystrophie und Erkrankungen mit ähnlichen Auswirkungen. Derzeit gibt es verschiedene assistive Technologien, die das selbstständige Essen und Trinken wieder ermöglichen sollen.Wie aber muss ein Interaktionsdesign für einen Roboterarm gestaltet sein, damit er von den Betroffenen zur Nahrungsaufnahme genutzt werden kann? Welche Anforderungen gibt es und welche Aspekte sind in Bezug auf die Akzeptanz eines Roboterarms zu berücksichtigen?
Nicht nur in der Gestaltung digitaler Medien spielt die Kategorie Geschlecht eine tragende Rolle, sondern auch in der Konzeption, Herstellung sowie Nutzung von Webangeboten. Problematisch daran ist, dass die weibliche Perspektive in Bezug auf Interessen, Bedürfnisse und Anwendbarkeit häufig wenig oder stereotyp berücksichtigt wird, die Nutzung digitaler Medien jedoch Verhaltensweisen, Werte und Normen von Nutzer_innen erheblich – und sehr einseitig – prägt. Design stellt hierbei einen zentralen Faktor dar: Es steuert, ermöglicht oder verhindert das Nutzer_innenverhalten und deutet und wertet Inhalte durch die Art der jeweiligen Darstellung. Die Auswirkung von Design im Entwicklungsprozess von digitalen Artefakten ist sehr vielschichtig und in ihrer gesamten Tragweite weit unterschätzt. Der Beitrag sensibilisiert hinsichtlich Gendercodes in Designstrategien, Methoden aus dem Entwicklungsprozess (Persona-Entwicklung) und einzelner Gestaltungselemente (Farbe, Typografie).
Ressortjournalismus
(2016)
Lehrredaktion
(2016)
Soziale Netzwerke dienen politischen Kandidaten dazu, Bürgerinnen und Bürger ungefiltert mit ihren Botschaften zu erreichen. Während des Wahlkampfes spielt die TV-Berichterstattung allerdings noch immer eine wichtige Rolle. Die vorliegende Analyse zeigt am Beispiel von Angela Merkel und Martin Schulz, dass die Profile der Kanzlerkandidaten während des Bundestagswahlkampfes 2017 über keine Thematisierungsmacht für das Fernsehen verfügten. Die Kandidaten vermochten es nicht, ihre Inhalte mithilfe ihrer Auftritte in den sozialen Netzwerken in die großen TV-Nachrichtenmagazine zu transferieren. tagesthemen und heute journal blieben in ihrer Darstellung unabhängig von den Eigendarstellungen der Kandidaten. Ferner zeigt die Analyse, dass sich das Fernsehen stark auf die Performance der Kandidaten konzentrierte, während politische Inhalte im Rahmen der Berichterstattung seltener thematisiert wurden. Merkel verweigerte sich weitgehend inhaltlicher Debatten über soziale Netzwerke; Schulz schaffte es nicht, mit seinen Botschaften zu punkten.
Wie wählen Nachrichtenmedien aus, worüber sie berichten? Dieser Frage versuchen Nachrichtenwertforschende seit vielen Jahren auf den Grund zu gehen. Die Nachrichtenwertforschung ist eine der traditionsreichsten Forschungsrichtungen der Journalismusforschung, die bis zum heutigen Tag aktuell ist. Begründet wurde sie bereits in den 1920er-Jahren von Walter Lippmann, internationale Bekanntheit erfuhr sie durch Johan Galtung und Mari Holmboe Ruge, die 1965 eine Liste von Nachrichtenfaktoren entwickelten und diese empirisch überprüften. Es folgten unzählige empirische Untersuchungen zu diesem Thema, die sich an einer Weiterentwicklung der Theorie versuchten. Der vorliegende Beitrag gibt einen Überblick über die Entwicklungsgeschichte der Nachrichtenwertforschung und skizziert, was Forschende heutzutage an der Thematik interessiert.
Soft Skills
(2014)
Crowdfunding im Journalismus
(2014)
Papierloses Krankenhaus
(2005)
Kultureinrichtungen als Arbeitgeber sehen sich zunehmend veränderten Rahmenbedingungen der Mitarbeitergewinnung und -bindung gegenüber, die sich aus mehreren gesellschaftlichen Megatrends ergeben. Zentral sind dabei zum einen der demografische Wandel und die damit einhergehende Überalterung der Arbeitnehmer, zum anderen geänderte Wertvorstellungen und Arbeitsmotive der jüngeren Arbeitnehmergeneration, der sogenannten „Generation Y“. Beides hat weitreichende Implikationen für das Recruiting und die dauerhafte Bindung von Mitarbeitern in zahlreichen Branchen an das jeweilige Unternehmen. Vorgestellt werden im folgenden Beitrag die Ergebnisse einer Studie, die zum einen Arbeitsmotivation und -zufriedenheit von Beschäftigten im Kultursektor untersucht hat und dabei den Fokus auf Wert- und Arbeitshaltungen der Generation Y gelegt hat. Zum anderen wurden die Bedeutung der Rahmenarbeitsbedingungen erhoben, insbesondere die Rolle der Führung sowie von Flexibilität am Arbeitsplatz.
Brand Purpose in aller Munde. Was gilt es in der werthaltigen Kommunikation von Marken zu beachten?
(2020)
Unternehmen positionieren sich gern mit Bezug auf die gesellschaftliche Relevanz ihres Unternehmenszwecks. Diese Orientierung findet sich zunehmend auch in der Kommunikation auf Markenebene. Statt den Produktnutzen zu betonen, liefert die Markenkommunikation Input zu gesellschaftlichen Debatten wie Gleichstellung oder Nachhaltigkeit. Unter dem Stichwort „Brand Purpose“ zeigen Beratungen und Agenturen gern auf, wie positiv diese Art der Kommunikation von Konsumenten und Stakeholdern eingestuft wird. Erste Stimmen gehen davon aus, dass sich diese Tendenzen nach der Coronakrise noch verstärken werden. Doch was bringt die Konzentration auf Sinnstiftung tatsächlich der Marke? Studien weisen darauf hin, dass eine reine Konzentration in der Kommunikation auf Zweck und Sinn einer Marke die Geschäftsentwicklung nicht unbedingt positiver beeinflussen muss als klassische Produktkommunikation und im schlimmsten Fall sogar kontraproduktiv wirken kann. Der Beitrag untersucht deshalb die Frage, welche Voraussetzungen erfüllt sein müssen, damit wertorientierte Kommunikation tatsächlich einen Mehrwert für die Marke bieten kann.
Der Kultursektor ist weiterhin ein attraktiver Arbeitsmarkt. Doch immer häufiger merken Unternehmen: Es klafft eine Lücke zwischen ihren Erwartungen und den Ansprüchen der jungen Generation von Berufstätigen. Um diese Lü-cke zu schließen, werden im Folgenden die Ergebnisse ei-ner Studie über die „Candidate Experience“ dargestellt, die von der Westfälischen Hochschule Gelsenkirchen durchgeführt wurde. Abgeleitet werden Handlungsempfehlungen sowohl für Bewerberinnen und Bewerber als auch für Institutionen.
Die Sportpresse hat gegenüber anderen Medien einen fundamentalen Aktualitätsnachteil und muss verstärkt als Komplementärmedium agieren, um für ansprechende Inhalte zu sorgen. Fraglich ist neben dem Inhalt jedoch ebenso die Art der Berichterstattung, auf sprachlich-stilistischer und formal-gestalterischer Ebene. Untersucht wird die Berichterstattung (N = 455) der Süddeutschen Zeitung über die Fußball-Europameisterschaften 2000, 2008 und 2016 hinsichtlich eines möglichen Boulevardisierungstrends. Zur Ermittlung eines möglichen Trends wurde ein Boulevardisierungsindex entwickelt. Dem Index kann ein leichter Boulevardisierungstrend für den 16-jährigen Zeitraum entnommen werden. Dabei ist die Berichterstattung besonders zwischen den Jahren 2000 und 2008 boulevardesker geworden. Die Befunde zeigen zudem, dass insgesamt vermehrt auf Boulevardvariablen (z. B. Emotionalisierung) gesetzt wurde, die vor dem Hintergrund journalistischer Qualität als weniger kritisch anzusehen sind.
Technik des Online-Studiums
(2002)
Dieser Bericht beschreibt in Kurzform das Projekt, dessen Ziel es ist, Online-Studiengänge zu entwickeln. Weiterhin werden die Besonderheiten bei der Durchführung von Online-Studiengängen und die damit verbundenen Schwierigkeiten aufgezeigt. An einem Beispiel kann man erkennen, wie die didaktische und multimediale Umsetzung der einzelnen Lernmodule realisiert wurde. Eine ausführliche Abhandlung kann man im Internet nachlesen: http://194.94.127.15/Lehre/infophysik/IP-WBT-Demo/infophysik.html
Physik. eLearning-SmartBook
(2014)
Dieses Smart-Book enthält das komplette eLearning-Modul Physik für Studierende der Technik und Informatik. Zusätzlich enthält es noch ein kleinerer Modul zum Thema Virtuelle Welten. Der Umfang entspricht in etwa einem Volumen von 10 Kreditpunkten im deutschen Hochschulsystem. Demo: http://www.haverlag.de/ebooks/physik-smart/demo/start/first.html
Mikroinformatik
(2012)
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst.
Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs.
Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen.
Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Evaluation der Lehre im Hochschulbereich wird seit vielen Jahren praktiziert als ein Prozess der Selbsterkenntnis mit dem Ziel der Qualitätsverbesserung und Effizienzsteigerung
1. Im sog. „Nordverbund“ der deutschen Küstenuniversitäten wird bereits seit 1994 evaluiert. Die Akkreditierung ist dagegen noch nicht ganz so alt. Nachdem sich im Juli 1999 der Akkreditierungsrat konstituiert hat, wurden ab 2000 die ersten Akkreditierungsverfahren durchgeführt.
Die Informatik hat auf diese neue Herausforderung als erste reagiert und schon im Juni 2000 „Standards zur Akkreditierung von Studiengängen der Informatik und interdisziplinären Informatik-Studiengängen an deutschen Hochschulen“ herausgegeben. Diese Standards wurden unter dem Dach der Gesellschaft für Informatik von einer Arbeitsgruppe, die aus Mitgliedern des Fachbereichstages und des Fakultätentages Informatik bestand, ab 1999 erarbeitet
2. Danach entstanden die Akkreditierungsagenturen, die sich vom Akkreditierungsrat akkreditieren lassen müssen, um schließlich selbst bei den von ihnen durchgeführten Akkreditierungsverfahren das Siegel des Akkreditierungsrates vergeben zu können.
Die als Bologna-Prozess bezeichnete Umstrukturierung des europäischen Hochschulsystems begann in Deutschland etwa 1999 mit den Strukturvorgaben der KMK
2. Darin wird auch von einem berufsqualifizierenden Profil der Bachelor- und Master-Studiengänge und von weiterbildenden Masterstudiengängen gesprochen. Im Folgenden wird über einige Erfahrungen zu diesen beiden Themenbereichen und das lebensbegleitende Lernen berichtet. Gewonnen wurden diese Erfahrungen vor allem durch die Tätigkeit im Fachbereichstag Informatik, im Bundesleitprojekt Virtuelle Fachhochschule und in der Akkreditierung von neuen Studiengängen an Universitäten und Fachhochschulen.
Ein weiterer Prozess, der die Neugestaltung der Studiengänge begleitet, ist durch den Europäischen Qualifikationsrahmen gegeben.
In seiner letzten Ausprägung werden auch die berufliche Qualifikation und das lebensbegleitende Lernen thematisiert.
Vor der Umstrukturierung der Studiengänge in Bachelor und Master gab es in Deutschland keine Studiengangsakkreditierung. Deshalb stellen diese Verfahren eine besondere Herausforderung für die Hochschulen dar. Dieser Artikel beschreibt einige Aspekte der Akkreditierung und dem damit im Zusammenhang stehenden neuen Paradigma der Outcome-Orientierung von Studiengängen. Weiterhin wird für den Hochschulbereich und die berufliche Bildung auf die Bemühungen um die Schaffung eines europäischen Qualifikationsrahmens eingegangen.
Die Medieninformatik wurde zuerst von der FH Furtwangen als Studiengang angeboten und dann 1996 – in einer neuen Konzeption – vom Fachbereich Informatik an der FH Gelsenkirchen (als 8-semestriger Diplomstudiengang). Seit dieser Zeit werden an vielen anderen Hochschulen Studiengänge dieses Namens angeboten.
Die Curricula sind jedoch sehr unterschiedlich – was häufig dadurch bedingt ist, dass diese Studiengänge mit dem vorhandenen Personal aufgebaut werden müssen. In Gelsenkirchen konnten wir jedoch mehrere Professuren entsprechend besetzen, da die Hochschule und der Fachbereich neu gegründet worden waren (Der Autor ist Gründungsdekan). In den Jahren 1997 bis 1998 reiften dann die Pläne heran, auch im VFH-Projekt den Studiengang Medieninformatik als einen der zu entwickelnden Online-Studiengänge vorzusehen. Diesen Studiengang – zu diesem Zeitpunkt – als Bachelor-Master-Studiengang zu etablieren, hat viel Überzeugungsarbeit gekostet. Der parallel zu entwickelnde Studiengang Wirtschaftsingenieur wurde z.B. zunächst als Diplomstudiengang konzipiert. Die Nachfrage, bezogen auf den Studiengang Medieninformatik, war und ist recht groß. Für den Präsenzstudiengang in Gelsenkirchen haben sich jeweils mehrere Hundert Bewerber gemeldet und auch der Online-Studiengang erfreut sich großer Nachfrage.
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst. Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs. Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen. Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Ein Physikbuch, entstanden aus Vorlesungen für Studierende der Elektrotechnik. Eine komprimierte, knappe Darstellung erleichtert den Überblick und lässt Raum für handschriftliche Ergänzungen der Studierenden während der Vorlesungen. Dabei konzentriert sich der Stoff auf die Gebiete und Vertiefungen die für das Studium einer technischen Disziplin als unverzichtbare Voraussetzung anzusehen sind.
An der Fachhochschule Gelsenkirchen wurde zum Wintersemester 1993/94 der Lehrbetrieb im neuen Studiengang Ingenieurinformatik, insbesondere Mikroinformatik aufgenommen. So wie es bei vielen anderen Wissenschaften einen Zweig gibt, der sich mit den kleinsten Forschungsobjekten befasst, so hat auch die Informatik spezielle Aufgabenstellungen, die sich mit den heute weit verbreiteten mikrominiaturisierten Systemen befassen. Die Mikroinformatik erstreckt sich von der Technischen Informatik über die Praktische Informatik bis hin zur Angewandten Informatik, jedoch gefiltert auf mikrominiaturisierte Systeme und Komponenten. Sie macht es sich somit zur Aufgabe, Problemlösungen durch die Entwicklung von Mikrocomputern und anderen Mikrosystemen sowie spezieller Algorithmen (Programme) zu finden. Diese Beschreibung lässt sich mit einigen Einschränkungen auf die folgende Kurzform bringen: Problemlösungen mittels Mikrocomputern in Technik und Organisation.
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst. Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs. Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen. Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Bachelor/Master-Studiengänge
(1999)
Intelligenzexplosion
(2016)
Virtuelle Hochschulen
(2002)
Virtuelle Fachhochschule
(2004)
Auf der Basis eines Wettbewerbs des BMBF von 1997 hat das Konsortium Virtuelle Fachhochschule (VFH) 43 Mio. DM erhalten und 1999 damit begonnen Online-Studiengänge zu entwickeln. Weitere Themenfelder dieses Bundesleitprojektes sind: Struktur und Organisation einer virtuellen Hochschule, Lehr- und Lernformen in Online-Studiengängen, etc. Beteiligt sind 10 Fachhochschulen, 2 Universitäten, sowie diverse Organisationen und Wirtschaftsunternehmen. Im Jahre 2001 startete der Bachelor-Online-Studiengang Medieninformatik (www.oncampus.de). Das Projekt läuft noch bis ins Jahr 2004. Der Autor ist Vizegesamtprojektleiter, Mitglied im Teilvorhaben Struktur und Organisation sowie Entwickler von 3 Lernmodulen zur Physik für das Medieninformatikstudium.
Am Beispiel dieses Großprojektes werden einige Besonderheiten und Erfahrungen zu den Themen: Organisationsformen, Betreuung, Lehrdeputat, Workload, Ergonomie, Evaluation, Akkreditierung und die Entwicklung der Physik-Online-Lernmodule dargestellt.
Professor Dr. Dieter Hannemann ist Physiker und Ingenieur und hat sich nach seinen Studien der Technischen Informatik zugewandt. An der Fachhochschule Bochum, Abt. Gelsenkirchen, gründete er 1979 den Bereich Mikrocomputertechnik, dessen Aktivitäten vor allem im Bereich des Technologietransfers liegen. Zum 1.8.1992 wurde die Fachhochschulabteilung Keimzelle der neuen FH Gelsenkirchen, an deren Aufbau Prof. Hannemann als Prorektor und Gründungsdekan des Fachbereichs Informatik maßgeblich beteiligt war und ist.