Filtern
Erscheinungsjahr
Dokumenttyp
- Video (46)
- Teil eines Buches (Kapitel) (34)
- Wissenschaftlicher Artikel (26)
- Konferenzveröffentlichung (24)
- Lehrmaterial (13)
- Buch (Monographie) (10)
- Vorlesung (7)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (3)
- Sonstiges (3)
- Bericht (2)
Sprache
- Deutsch (169) (entfernen)
Schlagworte
- Robotik (22)
- Flugkörper (14)
- Journalismus (14)
- UAV (14)
- 3D Modell (7)
- Akkreditierung (7)
- E-Learning (7)
- Marketing (6)
- Radio-Feature (6)
- Mikroinformatik (5)
Institut
- Informatik und Kommunikation (169) (entfernen)
Background: Emotions play a central role in mental disorder and especially in depression. They are sensed in the body, and it has recently been shown in healthy participants that these sensations can be differentiated between emotions. The aim of the current study was to assess bodily sensations for basic emotions induced by emotion eliciting pictures in depression.
Methods: 30 healthy controls (HC), 30 individuals suffering from Major depressive disorder (MDD) without medication use (MDDnm) and 30 individuals with MDD with medication use (MDDm) were shown emotional and neutral pictures and were asked to paint areas in an empty body silhouette where they felt an increase or decrease in activation. Body sensation maps were then calculated and statistical pattern recognition applied.
Results Results indicated statistically separable activation patterns for all three groups. MDDnm showed less overall activation than HCs, especially in sadness and fear, while MDDm showed stronger deactivation for all emotions than the other two groups.
Conclusions: We could show that emotion experience was associated with bodily sensations that are weaker in depression than in healthy controls and that antidepressant medication was correlated with an increased feeling of bodily deactivation.
Results give insights into the relevance for clinicians to acknowledge bodily sensations in the treatment of depression.
Nachdem die Fachgruppe Medieninformatik (FG MI) der Gesellschaft für Informatik e.V. (GI) bereits in den Jahren 2009 und 2010 Workshops zu den Themen „Medieninformatik in Forschung, Lehre und Praxis“ (Herczeg 2009) bzw. „Basismodule und Basiscurricula für die Medieninformatik“ (Herczeg 2010) durchgeführt hat und den Input aus den Workshops in der Folge überwiegend im Kreis der FG-Leitung verarbeitet hat, ist es Zeit mit den dort entstandenen Ideen wieder in die größere Runde zu gehen. Dieser Beitrag ist als Diskussionspapier für den kommenden (aber auch für weitere) Workshop(s) im Bereich der Medieninformatik gedacht. Die Ideen stammen im Wesentlichen aus der Arbeit der FG-Leitung bzw. einzelner engagierter Mitglieder der FG MI. Gemäß der Tradition der FG erheben die Darstellungen keinen Richtlinienanspruch, sondern sollen Diskussionen anregen.
Nach einer erfolgreichen Wiederbelebung der Medieninformatik-Workshopreihe mit dem Workshop Medieninformatik 2016 auf der Mensch-und-Computer 2016 in Aachen, lädt die Fachgruppe Medieninformatik (FG MI) im Fachbereich Mensch-Computer-Interaktion (FB MCI) der Gesellschaft für Informatik (GI) ein zum Workshop Medieninformatik 2017. In diesem Jahr soll es, aufbauend auf den Ergebnissen des 2016er-Workshops, zunächst um das Herausarbeiten von Berufsbildern und Färbungen der Medieninformatik- und Medieninformatik-orientieren Studiengänge gehen. Grundlage der Diskussion ist eine, im Vorfeld des Workshops durchzuführende Kurzumfrage, in der die Zielrichtung der jeweiligen Studiengänge und die Absolventenstatistiken hinsichtlich der Arbeitsfelder erfasst werden. Die Ergebnisse der Befragung werden vor dem Workshop an die Workshop-Teilnehmer zurückgespielt und sollen diesen als Kontext für die Vorbereitung der Workshop-Vorträge dienen. Die Vorträge sollen nach relativ engen Vorgaben die Themen Berufsbilder und Färbungen der Medieninformatik thematisieren, um die Workshopdiskussion anzustoßen. Daran anknüpfend sind die Themen Studiengangsgestaltung (Curriculum) und Erfahrungsaustausch zu (praxisgerechten) Lehr-Lernformen vorgesehen. Des Weiteren soll das im 2016-Workshop sehr kontrovers diskutierte Thema „Gibt es eine Medieninformatik-Forschung?“ anhand konkreter Medieninformatik-Forschungsvorhaben erneut thematisiert werden. Der vorgestellte Themenkanon ist nicht abschließend zu verstehen, sondern soll durch die Teilnehmenden im Vorfeld und vor Ort ergänzt werden.
Dieses Buch ist hervorgegangen aus der Schrift "Hannemann, Datensammlung Mikrocomputer", welche 1985 in ihrer ersten Auflage erschienen ist und im Wesentlichen als zusammenfassende Unterlage für die Arbeit an den Mikrocomputern im Fachbereich Elektrotechnik der Fachhochschule Bochum, Abteilung Gelsenkirchen diente. Da sich die genannte Schrift in der täglichen Arbeit am Computer sehr bewährt hat, wurde sie erweitert und durch die Hinzunahme eines Coautors auch auf die höheren Programmiersprachen PASCAL und C, sowie das Betriebssystem CP/M ausgedehnt. Die Programmiersprachen spielen im Bereich der Mikrocomputer bzw. der Personal Computer eine sehr wichtige Rolle. Beide Autoren sind Professoren an der neuen Fachhochschule Gelsenkirchen, Fachbereich Ingenieurinformatik und dort für die Fächer Angewandte Informatik (Prof. Dr. A. Niemietz) und Mikrocomputertechnik (Prof. Dr. D. Hannemann) verantwortlich. Prof. Hannemann ist Gründungsdekan des Fachbereichs Ingenieurinformatik und Initiator des Studiengangs Mikroinformatik.
Dieser Artikel bietet einen Bericht über Entwicklungstendenzen und erste Erfahrungen virtueller Lernräume im Internet. Der Autor geht auf die Kommunikation im Internet, Lernräume im WWW, die Rollenverteilung im Lernraum ein, mit den Anforderungen aus Sicht der Lernenden, Lehrenden und der Verwaltung.
Technik des Online-Studiums
(2002)
Dieser Bericht beschreibt in Kurzform das Projekt, dessen Ziel es ist, Online-Studiengänge zu entwickeln. Weiterhin werden die Besonderheiten bei der Durchführung von Online-Studiengängen und die damit verbundenen Schwierigkeiten aufgezeigt. An einem Beispiel kann man erkennen, wie die didaktische und multimediale Umsetzung der einzelnen Lernmodule realisiert wurde. Eine ausführliche Abhandlung kann man im Internet nachlesen: http://194.94.127.15/Lehre/infophysik/IP-WBT-Demo/infophysik.html
Physik. eLearning-SmartBook
(2014)
Dieses Smart-Book enthält das komplette eLearning-Modul Physik für Studierende der Technik und Informatik. Zusätzlich enthält es noch ein kleinerer Modul zum Thema Virtuelle Welten. Der Umfang entspricht in etwa einem Volumen von 10 Kreditpunkten im deutschen Hochschulsystem. Demo: http://www.haverlag.de/ebooks/physik-smart/demo/start/first.html
Mikroinformatik
(2012)
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst.
Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs.
Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen.
Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Evaluation der Lehre im Hochschulbereich wird seit vielen Jahren praktiziert als ein Prozess der Selbsterkenntnis mit dem Ziel der Qualitätsverbesserung und Effizienzsteigerung
1. Im sog. „Nordverbund“ der deutschen Küstenuniversitäten wird bereits seit 1994 evaluiert. Die Akkreditierung ist dagegen noch nicht ganz so alt. Nachdem sich im Juli 1999 der Akkreditierungsrat konstituiert hat, wurden ab 2000 die ersten Akkreditierungsverfahren durchgeführt.
Die Informatik hat auf diese neue Herausforderung als erste reagiert und schon im Juni 2000 „Standards zur Akkreditierung von Studiengängen der Informatik und interdisziplinären Informatik-Studiengängen an deutschen Hochschulen“ herausgegeben. Diese Standards wurden unter dem Dach der Gesellschaft für Informatik von einer Arbeitsgruppe, die aus Mitgliedern des Fachbereichstages und des Fakultätentages Informatik bestand, ab 1999 erarbeitet
2. Danach entstanden die Akkreditierungsagenturen, die sich vom Akkreditierungsrat akkreditieren lassen müssen, um schließlich selbst bei den von ihnen durchgeführten Akkreditierungsverfahren das Siegel des Akkreditierungsrates vergeben zu können.
Die als Bologna-Prozess bezeichnete Umstrukturierung des europäischen Hochschulsystems begann in Deutschland etwa 1999 mit den Strukturvorgaben der KMK
2. Darin wird auch von einem berufsqualifizierenden Profil der Bachelor- und Master-Studiengänge und von weiterbildenden Masterstudiengängen gesprochen. Im Folgenden wird über einige Erfahrungen zu diesen beiden Themenbereichen und das lebensbegleitende Lernen berichtet. Gewonnen wurden diese Erfahrungen vor allem durch die Tätigkeit im Fachbereichstag Informatik, im Bundesleitprojekt Virtuelle Fachhochschule und in der Akkreditierung von neuen Studiengängen an Universitäten und Fachhochschulen.
Ein weiterer Prozess, der die Neugestaltung der Studiengänge begleitet, ist durch den Europäischen Qualifikationsrahmen gegeben.
In seiner letzten Ausprägung werden auch die berufliche Qualifikation und das lebensbegleitende Lernen thematisiert.
Vor der Umstrukturierung der Studiengänge in Bachelor und Master gab es in Deutschland keine Studiengangsakkreditierung. Deshalb stellen diese Verfahren eine besondere Herausforderung für die Hochschulen dar. Dieser Artikel beschreibt einige Aspekte der Akkreditierung und dem damit im Zusammenhang stehenden neuen Paradigma der Outcome-Orientierung von Studiengängen. Weiterhin wird für den Hochschulbereich und die berufliche Bildung auf die Bemühungen um die Schaffung eines europäischen Qualifikationsrahmens eingegangen.
Die Medieninformatik wurde zuerst von der FH Furtwangen als Studiengang angeboten und dann 1996 – in einer neuen Konzeption – vom Fachbereich Informatik an der FH Gelsenkirchen (als 8-semestriger Diplomstudiengang). Seit dieser Zeit werden an vielen anderen Hochschulen Studiengänge dieses Namens angeboten.
Die Curricula sind jedoch sehr unterschiedlich – was häufig dadurch bedingt ist, dass diese Studiengänge mit dem vorhandenen Personal aufgebaut werden müssen. In Gelsenkirchen konnten wir jedoch mehrere Professuren entsprechend besetzen, da die Hochschule und der Fachbereich neu gegründet worden waren (Der Autor ist Gründungsdekan). In den Jahren 1997 bis 1998 reiften dann die Pläne heran, auch im VFH-Projekt den Studiengang Medieninformatik als einen der zu entwickelnden Online-Studiengänge vorzusehen. Diesen Studiengang – zu diesem Zeitpunkt – als Bachelor-Master-Studiengang zu etablieren, hat viel Überzeugungsarbeit gekostet. Der parallel zu entwickelnde Studiengang Wirtschaftsingenieur wurde z.B. zunächst als Diplomstudiengang konzipiert. Die Nachfrage, bezogen auf den Studiengang Medieninformatik, war und ist recht groß. Für den Präsenzstudiengang in Gelsenkirchen haben sich jeweils mehrere Hundert Bewerber gemeldet und auch der Online-Studiengang erfreut sich großer Nachfrage.
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst. Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs. Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen. Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Ein Physikbuch, entstanden aus Vorlesungen für Studierende der Elektrotechnik. Eine komprimierte, knappe Darstellung erleichtert den Überblick und lässt Raum für handschriftliche Ergänzungen der Studierenden während der Vorlesungen. Dabei konzentriert sich der Stoff auf die Gebiete und Vertiefungen die für das Studium einer technischen Disziplin als unverzichtbare Voraussetzung anzusehen sind.
An der Fachhochschule Gelsenkirchen wurde zum Wintersemester 1993/94 der Lehrbetrieb im neuen Studiengang Ingenieurinformatik, insbesondere Mikroinformatik aufgenommen. So wie es bei vielen anderen Wissenschaften einen Zweig gibt, der sich mit den kleinsten Forschungsobjekten befasst, so hat auch die Informatik spezielle Aufgabenstellungen, die sich mit den heute weit verbreiteten mikrominiaturisierten Systemen befassen. Die Mikroinformatik erstreckt sich von der Technischen Informatik über die Praktische Informatik bis hin zur Angewandten Informatik, jedoch gefiltert auf mikrominiaturisierte Systeme und Komponenten. Sie macht es sich somit zur Aufgabe, Problemlösungen durch die Entwicklung von Mikrocomputern und anderen Mikrosystemen sowie spezieller Algorithmen (Programme) zu finden. Diese Beschreibung lässt sich mit einigen Einschränkungen auf die folgende Kurzform bringen: Problemlösungen mittels Mikrocomputern in Technik und Organisation.
Was bedeutet Mikroinformatik? So wie es auch in den meisten anderen Wissenschaften Teilbereiche gibt die sich mit den kleinsten Objekten beschäftigen (Mikrobiologie, Mikrophysik, etc.), ist auch in der Informatik ein Arbeitsfeld abgrenzbar das sich mit den durch die Mikrominiaturisierung geschaffenen Möglichkeiten der Problemlösungen in Technik und Organisation befasst. Im Vordergrund des Interesses stehen hier nicht die theoretischen Horizonte die sich aus der Miniaturisierung ergeben, sondern die mehr praktischen Aspekte bei der Lösung von Problemen mittels der Mikroprozessoren, der Mikrocontroller und der Personal Computer. So behandelt denn auch der erste Band die "Praktische Mikroinformatik", d.h. die Grundlagen zur Programmierung der Mikroprozessoren am Beispiel der PCs. Beim zweiten Band steht die "Technische Mikroinformatik" im Vordergrund. Es werden elektronische Bausteine und Prinzipien sowie deren Wechselwirkung mit den Programmen des Computers dargestellt. Der gesamte Stoff wurde in die drei klassischen Elemente eines jeden Computers aufgeteilt: Prozessoren, Speicher und Ein-/Ausgabeschnittstellen. Diese Einführung ist praxisorientiert, da sie sich zum einen der am weitesten verbreiteten Mikroprozessoren und Mikrocomputer (Personal Computer) bedient um die wichtigsten Zusammenhänge und Techniken zu erklären und zum anderen auf lange theoretische Erörterungen verzichtet und dem praktischen Beispiel den Vorzug gibt.
Bachelor/Master-Studiengänge
(1999)
Intelligenzexplosion
(2016)
Virtuelle Hochschulen
(2002)
Virtuelle Fachhochschule
(2004)
Auf der Basis eines Wettbewerbs des BMBF von 1997 hat das Konsortium Virtuelle Fachhochschule (VFH) 43 Mio. DM erhalten und 1999 damit begonnen Online-Studiengänge zu entwickeln. Weitere Themenfelder dieses Bundesleitprojektes sind: Struktur und Organisation einer virtuellen Hochschule, Lehr- und Lernformen in Online-Studiengängen, etc. Beteiligt sind 10 Fachhochschulen, 2 Universitäten, sowie diverse Organisationen und Wirtschaftsunternehmen. Im Jahre 2001 startete der Bachelor-Online-Studiengang Medieninformatik (www.oncampus.de). Das Projekt läuft noch bis ins Jahr 2004. Der Autor ist Vizegesamtprojektleiter, Mitglied im Teilvorhaben Struktur und Organisation sowie Entwickler von 3 Lernmodulen zur Physik für das Medieninformatikstudium.
Am Beispiel dieses Großprojektes werden einige Besonderheiten und Erfahrungen zu den Themen: Organisationsformen, Betreuung, Lehrdeputat, Workload, Ergonomie, Evaluation, Akkreditierung und die Entwicklung der Physik-Online-Lernmodule dargestellt.
Professor Dr. Dieter Hannemann ist Physiker und Ingenieur und hat sich nach seinen Studien der Technischen Informatik zugewandt. An der Fachhochschule Bochum, Abt. Gelsenkirchen, gründete er 1979 den Bereich Mikrocomputertechnik, dessen Aktivitäten vor allem im Bereich des Technologietransfers liegen. Zum 1.8.1992 wurde die Fachhochschulabteilung Keimzelle der neuen FH Gelsenkirchen, an deren Aufbau Prof. Hannemann als Prorektor und Gründungsdekan des Fachbereichs Informatik maßgeblich beteiligt war und ist.
Der Studiengangsführer des neu gegründeten Fachbereichs Ingenieurinformatik an der FH Gelsenkirchen beschreibt den deutschlandweit einmaligen Diplom-Studiengang Mikroinformatik mit seinen zwei Ausprägungen ‚Technische- und Angewandte Mikroinformatik‘: Die Aufgabenbereiche, das Praxissemester, die Einschreibungsvoraussetzungen, die Berufsfelder, den Studienverlauf und die Fächerinhalte.
Es werden die Hintergründe der Projekte angesprochen, die das Ziel haben, Lehrinhalte multimedial zu ergänzen, diese elektronisch anzubieten oder über das Internet zur Verfügung zu stellen. Zugangsmöglichkeiten zu diesen Lernformen und die technischen Stufen der Darbietung werden erläutert: Navigator, Lernraum, Portal. Auf virtuelle Lernräume, die Kommunikation im Internet, die Lernraumauswahl, auf Ausblicke für die Zukunft und auf e-Learningbeispiele wird eingegangen.
Virtuelle Hochschulen
(2001)
Dieser Artikel beleuchtet die Virtuelle Kooperative Hochschule (Organisation, Betreuung, Manpower), den Lernraum (Kommunikation im Internet, Lernräume im WWW und die Rollenverteilung im Lernraum), das Bundesleitprojekt Virtuelle Fachhochschule (Studentenleben, Projektdaten), Studieren im Netz (Medieninformatik, Virtuelles Lernmodul: Navigation), sowie die Didaktik.
Dieser Aufsatz will zeigen, wie mit den modernen Hilfsmitteln, die im Zusammenhang mit dem Internet entstehen, dreidimensionale virtuelle Welten geschaffen werden können, in denen physikalische Prozesse ablaufen. Neben einer allgemeinen, mehr philosophisch gehaltenen Einführung werden kurz die wichtigsten Elemente einer Sprache beschrieben, mit der man diese Welten modellieren kann. Die kurze Einführung in diese Sprache reicht aus, um an einem Beispiel den Fall eines Balls nachbilden zu können. Die Behandlung dieses Themas kann anregen, sich mit den Möglichkeiten dieser neuen Techniken zur Darstellung physikalischer Abläufe zu beschäftigen.
Die Sportpresse hat gegenüber anderen Medien einen fundamentalen Aktualitätsnachteil und muss verstärkt als Komplementärmedium agieren, um für ansprechende Inhalte zu sorgen. Fraglich ist neben dem Inhalt jedoch ebenso die Art der Berichterstattung, auf sprachlich-stilistischer und formal-gestalterischer Ebene. Untersucht wird die Berichterstattung (N = 455) der Süddeutschen Zeitung über die Fußball-Europameisterschaften 2000, 2008 und 2016 hinsichtlich eines möglichen Boulevardisierungstrends. Zur Ermittlung eines möglichen Trends wurde ein Boulevardisierungsindex entwickelt. Dem Index kann ein leichter Boulevardisierungstrend für den 16-jährigen Zeitraum entnommen werden. Dabei ist die Berichterstattung besonders zwischen den Jahren 2000 und 2008 boulevardesker geworden. Die Befunde zeigen zudem, dass insgesamt vermehrt auf Boulevardvariablen (z. B. Emotionalisierung) gesetzt wurde, die vor dem Hintergrund journalistischer Qualität als weniger kritisch anzusehen sind.
Der Kultursektor ist weiterhin ein attraktiver Arbeitsmarkt. Doch immer häufiger merken Unternehmen: Es klafft eine Lücke zwischen ihren Erwartungen und den Ansprüchen der jungen Generation von Berufstätigen. Um diese Lü-cke zu schließen, werden im Folgenden die Ergebnisse ei-ner Studie über die „Candidate Experience“ dargestellt, die von der Westfälischen Hochschule Gelsenkirchen durchgeführt wurde. Abgeleitet werden Handlungsempfehlungen sowohl für Bewerberinnen und Bewerber als auch für Institutionen.
Brand Purpose in aller Munde. Was gilt es in der werthaltigen Kommunikation von Marken zu beachten?
(2020)
Unternehmen positionieren sich gern mit Bezug auf die gesellschaftliche Relevanz ihres Unternehmenszwecks. Diese Orientierung findet sich zunehmend auch in der Kommunikation auf Markenebene. Statt den Produktnutzen zu betonen, liefert die Markenkommunikation Input zu gesellschaftlichen Debatten wie Gleichstellung oder Nachhaltigkeit. Unter dem Stichwort „Brand Purpose“ zeigen Beratungen und Agenturen gern auf, wie positiv diese Art der Kommunikation von Konsumenten und Stakeholdern eingestuft wird. Erste Stimmen gehen davon aus, dass sich diese Tendenzen nach der Coronakrise noch verstärken werden. Doch was bringt die Konzentration auf Sinnstiftung tatsächlich der Marke? Studien weisen darauf hin, dass eine reine Konzentration in der Kommunikation auf Zweck und Sinn einer Marke die Geschäftsentwicklung nicht unbedingt positiver beeinflussen muss als klassische Produktkommunikation und im schlimmsten Fall sogar kontraproduktiv wirken kann. Der Beitrag untersucht deshalb die Frage, welche Voraussetzungen erfüllt sein müssen, damit wertorientierte Kommunikation tatsächlich einen Mehrwert für die Marke bieten kann.
Kultureinrichtungen als Arbeitgeber sehen sich zunehmend veränderten Rahmenbedingungen der Mitarbeitergewinnung und -bindung gegenüber, die sich aus mehreren gesellschaftlichen Megatrends ergeben. Zentral sind dabei zum einen der demografische Wandel und die damit einhergehende Überalterung der Arbeitnehmer, zum anderen geänderte Wertvorstellungen und Arbeitsmotive der jüngeren Arbeitnehmergeneration, der sogenannten „Generation Y“. Beides hat weitreichende Implikationen für das Recruiting und die dauerhafte Bindung von Mitarbeitern in zahlreichen Branchen an das jeweilige Unternehmen. Vorgestellt werden im folgenden Beitrag die Ergebnisse einer Studie, die zum einen Arbeitsmotivation und -zufriedenheit von Beschäftigten im Kultursektor untersucht hat und dabei den Fokus auf Wert- und Arbeitshaltungen der Generation Y gelegt hat. Zum anderen wurden die Bedeutung der Rahmenarbeitsbedingungen erhoben, insbesondere die Rolle der Führung sowie von Flexibilität am Arbeitsplatz.
Papierloses Krankenhaus
(2005)
Crowdfunding im Journalismus
(2014)
Soft Skills
(2014)
Ressortjournalismus
(2016)
Lehrredaktion
(2016)
Soziale Netzwerke dienen politischen Kandidaten dazu, Bürgerinnen und Bürger ungefiltert mit ihren Botschaften zu erreichen. Während des Wahlkampfes spielt die TV-Berichterstattung allerdings noch immer eine wichtige Rolle. Die vorliegende Analyse zeigt am Beispiel von Angela Merkel und Martin Schulz, dass die Profile der Kanzlerkandidaten während des Bundestagswahlkampfes 2017 über keine Thematisierungsmacht für das Fernsehen verfügten. Die Kandidaten vermochten es nicht, ihre Inhalte mithilfe ihrer Auftritte in den sozialen Netzwerken in die großen TV-Nachrichtenmagazine zu transferieren. tagesthemen und heute journal blieben in ihrer Darstellung unabhängig von den Eigendarstellungen der Kandidaten. Ferner zeigt die Analyse, dass sich das Fernsehen stark auf die Performance der Kandidaten konzentrierte, während politische Inhalte im Rahmen der Berichterstattung seltener thematisiert wurden. Merkel verweigerte sich weitgehend inhaltlicher Debatten über soziale Netzwerke; Schulz schaffte es nicht, mit seinen Botschaften zu punkten.
Wie wählen Nachrichtenmedien aus, worüber sie berichten? Dieser Frage versuchen Nachrichtenwertforschende seit vielen Jahren auf den Grund zu gehen. Die Nachrichtenwertforschung ist eine der traditionsreichsten Forschungsrichtungen der Journalismusforschung, die bis zum heutigen Tag aktuell ist. Begründet wurde sie bereits in den 1920er-Jahren von Walter Lippmann, internationale Bekanntheit erfuhr sie durch Johan Galtung und Mari Holmboe Ruge, die 1965 eine Liste von Nachrichtenfaktoren entwickelten und diese empirisch überprüften. Es folgten unzählige empirische Untersuchungen zu diesem Thema, die sich an einer Weiterentwicklung der Theorie versuchten. Der vorliegende Beitrag gibt einen Überblick über die Entwicklungsgeschichte der Nachrichtenwertforschung und skizziert, was Forschende heutzutage an der Thematik interessiert.
Nicht nur in der Gestaltung digitaler Medien spielt die Kategorie Geschlecht eine tragende Rolle, sondern auch in der Konzeption, Herstellung sowie Nutzung von Webangeboten. Problematisch daran ist, dass die weibliche Perspektive in Bezug auf Interessen, Bedürfnisse und Anwendbarkeit häufig wenig oder stereotyp berücksichtigt wird, die Nutzung digitaler Medien jedoch Verhaltensweisen, Werte und Normen von Nutzer_innen erheblich – und sehr einseitig – prägt. Design stellt hierbei einen zentralen Faktor dar: Es steuert, ermöglicht oder verhindert das Nutzer_innenverhalten und deutet und wertet Inhalte durch die Art der jeweiligen Darstellung. Die Auswirkung von Design im Entwicklungsprozess von digitalen Artefakten ist sehr vielschichtig und in ihrer gesamten Tragweite weit unterschätzt. Der Beitrag sensibilisiert hinsichtlich Gendercodes in Designstrategien, Methoden aus dem Entwicklungsprozess (Persona-Entwicklung) und einzelner Gestaltungselemente (Farbe, Typografie).
Selbstständig und selbstbestimmt essen und trinken zu können gehört zu den Grundbedürfnissen des Menschen und wird den Aktivitäten des täglichen Lebens (ATLs) zugeordnet. Körperliche Beeinträchtigungen, die mit Funktionsverlusten in Armen, Händen und ggf. der Beweglichkeit des Oberkörpers einhergehen, schränken die selbstständige Nahrungszufuhr erheblich ein. Die Betroffenen sind darauf angewiesen, dass ihnen Getränke und Mahlzeiten zubereitet, bereitgestellt und angereicht werden. Zu dieser Personengruppe gehören Menschen mit querschnittbedingter Tetraplegie, Multiple Sklerose, Muskeldystrophie und Erkrankungen mit ähnlichen Auswirkungen. Derzeit gibt es verschiedene assistive Technologien, die das selbstständige Essen und Trinken wieder ermöglichen sollen.Wie aber muss ein Interaktionsdesign für einen Roboterarm gestaltet sein, damit er von den Betroffenen zur Nahrungsaufnahme genutzt werden kann? Welche Anforderungen gibt es und welche Aspekte sind in Bezug auf die Akzeptanz eines Roboterarms zu berücksichtigen?
Datenanalyse beim CRM
(2016)
Ziele und Konzepte der GI-Empfehlungen, Adressaten der Empfehlung, Studiengänge und Abschlussbezeichnungen, Ausbildungsziele und curriculare Anforderungen, Grundstruktur und Kategorien, Inhalte, Organisatorische Anforderungen, Qualität der Lehre, Ausstattung des Lehr- und Studienbetriebs, Akkreditierung.