Filtern
Erscheinungsjahr
- 2017 (194)
- 2016 (168)
- 2018 (166)
- 2015 (142)
- (132)
- 2019 (103)
- 2007 (91)
- 2008 (88)
- 2014 (88)
- 2023 (88)
- 2021 (87)
- 2006 (86)
- 2012 (74)
- 2022 (74)
- 2020 (73)
- 2013 (67)
- 2011 (66)
- 2009 (62)
- 2010 (58)
- 2005 (53)
- 2003 (48)
- 2004 (48)
- 2002 (46)
- 2001 (36)
- 2000 (25)
- 1996 (14)
- 1998 (14)
- 1999 (11)
- 1997 (10)
- 1995 (9)
- 1988 (6)
- 1989 (4)
- 1992 (3)
- 1983 (2)
- 1987 (2)
- 1994 (2)
- 2024 (2)
- 1985 (1)
- 1986 (1)
- 1990 (1)
- 1993 (1)
Dokumenttyp
- Wissenschaftlicher Artikel (989)
- Teil eines Buches (Kapitel) (310)
- Konferenzveröffentlichung (308)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (236)
- Buch (Monographie) (218)
- Bericht (66)
- Sonstiges (43)
- Rezension (27)
- Lehrmaterial (16)
- Arbeitspapier (10)
Sprache
- Deutsch (1757)
- Englisch (483)
- Französisch (3)
- Spanisch (2)
- Mehrsprachig (1)
Volltext vorhanden
- nein (2246) (entfernen)
Schlagworte
- Journalismus (14)
- Geldpolitik (6)
- Juristenausbildung (6)
- Wirtschaftsjurist (6)
- Building Information Modeling (5)
- Marketing (5)
- Energiepolitik (4)
- Kühllastberechnung (4)
- Sportökonomie (4)
- World Wide Web 2.0 (4)
Institut
- Wirtschaftsrecht (768)
- Institut für Internetsicherheit (261)
- Wirtschaft und Informationstechnik Bocholt (211)
- Institut für Innovationsforschung und -management (193)
- Westfälisches Institut für Gesundheit (141)
- Informatik und Kommunikation (118)
- Westfälisches Energieinstitut (83)
- Elektrotechnik und angewandte Naturwissenschaften (58)
- Wirtschaft Gelsenkirchen (50)
- Institut Arbeit und Technik (46)
Theoretischer Hintergrund: Mut ist ein bislang wenig erforschtes Konstrukt. In der Forschung existieren unterschiedliche Betrachtungsweisen und Annahmen, u.a. hinsichtlich der Art des Konstruktes oder der Einflussfaktoren. Es existieren zudem, insbesondere im deutschsprachigen Raum, nur wenige Instrumente zur Messung von Mut. Diese zeigen zudem oftmals verbesserungsfähige oder unzureichende psychometrische Gütekriterien.
Fragestellung: Auf Basis einer umfangreichen Literaturrecherche ist unser Ziel, neben einem wissenschaftlichen Beitrag zur Klärung des Konstruktes, einen Selbstbeschreibungsfragebogen zur Messung von Mut im Arbeitskontext zu konstruieren, welcher den gängigen psychometrischen Gütekriterien entspricht und perspektivisch im Rahmen der Personalauswahl und Personalentwicklung eingesetzt werden könnte.
Methodik: Der Erstentwurf des Selbstbeschreibungsfragebogens zu Mut im Arbeitskontext besteht aus den Dimensionen sozialer Mut und persönlicher Mut. Zur psychometrischen Überprüfung des Fragebogenentwurfs haben wir eine Querschnittstudie in Form einer Online-Befragung durchgeführt (N = 253). Der Fokus lag auf der Itemanalyse, sowie auf der Überprüfung der Reliabilität und der Validität.
Ergebnisse: Die Reliabilität beträgt α = .92 und α = .91. Die exploratorische Faktorenanalyse stützt das 2-Faktoren-Modell. Es existieren erwartungsgemäß signifikante positive Korrelationen mit inhaltsähnlichen Konstrukten, u.a. arbeitsplatzbezogene Selbstwirksamkeit oder Extraversion und negative signifikante Korrelationen zu Neurotizismus und Psychopathie. Zusätzlich zeigen Mittelwertsvergleiche für
Geschlecht und Führungsverantwortung Ergebnisse gemäß dem aktuellen Stand der Forschung.
Diskussion Der Selbstbeschreibungsfragebogen zeigt klares Potenzial für die Nutzung im Rahmen der Personalauswahl und Personalentwicklung. Im Rahmen der Fragebogenkonstruktion ist es entscheidend das Konstrukt so eng wie möglich einzugrenzen. Die Fokussierung auf eine spezifische Form von
Mut scheint der Schlüssel zu sein, um ein den gängigen Anforderungen an psychometrische Gütekriterien entsprechendes Instrument zu entwickeln.
Eine der ersten Informationen, die man von seinem Gegenüber wahrnehmen kann, ist meist das äußere Erscheinungsbild. Wird dies als attraktiv bewertet, wirkt es sich in vielen Lebensbereichen, wie auch im beruflichen Umfeld, vorteilhaft aus (Willis & Todorov, 2006; Marlowe et al., 1996; Langlois et al., 2000; Frieze et al., 1991). Im Rahmen der Bachelor-Thesis wurde der Einfluss physischer Attraktivität in Bezug
auf das Fehlverhalten von Mitarbeitenden in Form einer Vignettenstudie untersucht. Es wurden die folgenden Forschungsfragen formuliert: Werden attraktive Mitarbeitende trotz eines gezeigten Fehlverhaltens als vertrauenswürdiger eingeschätzt als unattraktive Mitarbeitende? Wird eine Bestrafung in Form einer Abmahnung und einer Kündigung bei unattraktiven Mitarbeitenden für angemessener gehalten als bei attraktiven Mitarbeitenden? Es wurde vermutet, dass sich auch hier die physische Attraktivität positiv auswirken kann.
Die postulierten Hypothesen wurden mit einem Stichprobenumfang von N = 679 im Between-Subjects Design eines Online-Experiments untersucht. Insgesamt gab es vier Vignetten, die sich in der Attraktivität einer dargestellten Mitarbeiterin und der Art des kontraproduktiven Arbeitsverhaltens unterschieden. Die Datenanalyse zeigte eine signifikante Interaktion zwischen der physischen Attraktivität und der Art des kontraproduktiven Arbeitsverhaltens auf, F(1,675) = 4.02, p = .046, η² = .01. Im Falle eines interpersonal schädigenden Arbeitsverhaltens wurde eine Kündigung bei der attraktiven Mitarbeiterin als angemessener bewertet. Im Falle eines organisationalschädigenden Arbeitsverhaltens hingegen wurde eine Kündigung bei der unattraktiven Mitarbeiterin als angemessener bewertet. Aus diesen Forschungsergebnissen wurden praktische Implikationen, wie zum Beispiel die Sensibilisierung für derartige Einflüsse durch Schulungen, abgeleitet. Auch Ansätze für zukünftige Forschungen, wie die Variation im Geschlecht der Stimulusperson, wurden vorgeschlagen.
Theoretischer Hintergrund: In der psychologischen Führungsforschung zeigt sich ein Shift von traditionellem Management hin zu progressiveren Führungsmodellen, in denen das Gemeinwohl und die nachhaltige Führung von Mitarbeitenden anstelle des Selbstinteresses von Führungskräften treten.
Diese Modelle bewegen sich allerdings weiter im traditionellen Paradigma, dass effektive Führung komplexe Systeme gezielt beeinflussen und auf erwünschte Zielzustände hin ausrichten kann.
Fragestellung: Folgt man dem systemischen Ansatz, so können Führungskräfte das organisationale System nicht beeinflussen, sondern lediglich die Relationen seiner Bestandteile und Rahmenbedingungen für Emergenz schaffen. So lässt es sich beispielsweise aus der Theorie komplexer adaptiver Systeme und dem darauf basierenden Complexity Leadership Ansatz ableiten. Wenngleich viele Wissenschaftler*innen hierin Potential effektiver Führung sehen, mangelt es doch an konzeptionellen und psychometrischen Grundlagen sowie empirischer Evidenz für die Effektivität systemischer Führung.
Methodik: Wir stellen einen Fremdbeschreibungsfragebogen zur Messung systemischer Führung vor (N ges = 8770) sowie die mit diesem Instrument gewonnenen Ergebnisse verschiedener Feldstudien (k = 28) zu Antezedenzien, Auswirkungen und Randbedingungen systemischer Führung. Wir berücksichtigen auch die inkrementelle Varianzaufklärung über transformationale Führung.
Ergebnisse: Das Systemic Leadership Inventory ermöglicht die Einschätzung systemischer Kompetenzen
von Führungskräften.
Diskussion: Zukünftige Forschung sollte sich mit der Entwickelbarkeit systemischer Führung beschäftigen. Limitationen unseres Forschungsprojekts werden diskutiert.
Der sozioanalytischen Theorie folgend argumentieren wir, dass Machiavellismus nur im Falle einer hohen emotionalen Einflusskompetenz zuträglich für den objektiven Karriereerfolg ist.
In den Daten unserer fragebogenbasierten Querschnittsstudie zum jährlichen Bruttoeinkommen mit N = 149 Mitarbeitenden aus der Privatwirtschaft zeigen sich unter Kontrolle von Alter, Geschlecht und Führungsspanne weder signifikante Haupteffekte für Machiavellismus, noch für emotionale Intelligenz, dafür aber ein hypothesenkonformer Interaktionseffekt.
Unter Berücksichtigung methodischer Limitationen, die vorrangig an die Messung der beiden die Studie konstituierenden Konstrukte geknüpft sind, werden wissenschaftliche und praktische Implikationen dieses Befunds diskutiert.
The number of publications describing chemical structures has increased steadily over the last decades. However, the majority of published chemical information is currently not available in machine-readable form in public databases. It remains a challenge to automate the process of information extraction in a way that requires less manual intervention - especially the mining of chemical structure depictions. As an open-source platform that leverages recent advancements in deep learning, computer vision, and natural language processing, DECIMER.ai (Deep lEarning for Chemical IMagE Recognition) strives to automatically segment, classify, and translate chemical structure depictions from the printed literature. The segmentation and classification tools are the only openly available packages of their kind, and the optical chemical structure recognition (OCSR) core application yields outstanding performance on all benchmark datasets. The source code, the trained models and the datasets developed in this work have been published under permissive licences. An instance of the DECIMER web application is available at https://decimer.ai.
Die neue Aufgabe der internen Kommunikation: schwierige Unternehmenspersönlichkeiten erkennen
(2023)
Measurement studies are essential for research and industry alike to understand the Web’s inner workings better and help quantify specific phenomena. Performing such studies is demanding due to the dynamic nature and size of the Web. An experiment’s careful design and setup are complex, and many factors might affect the results. However, while several works have independently observed differences in
the outcome of an experiment (e.g., the number of observed trackers) based on the measurement setup, it is unclear what causes such deviations. This work investigates the reasons for these differences by visiting 1.7M webpages with five different measurement setups. Based on this, we build ‘dependency trees’ for each page and cross-compare the nodes in the trees. The results show that the measured trees differ considerably, that the cause of differences can be attributed to specific nodes, and that even identical measurement setups can produce different results.
In this work a mathematical approach to calculate solar panel temperature based on measured irradiance, temperature and wind speed is applied. With the calculated module temperature, the electrical solar module characteristics is determined. A program developed in MatLab App Designer allows to import measurement data from a weather station and calculates the module temperature based on the mathematical NOCT and stationary approach with a time step between the measurements of 5 minutes. Three commercially available solar panels with different cell and interconnection technologies are used for the verification of the established models. The results show a strong correlation between the measured and by the stationary model predicted module temperature with a coefficient of determination R2 close to 1 and a root mean square deviation (RMSE) of ≤ 2.5 K for a time period of three months. Based on the predicted temperature, measured irradiance in module plane and specific module information the program models the electrical data as time series in 5-minute steps. Predicted to measured power for a time period of three months shows a linear correlation with an R2 of 0.99 and a mean absolute error (MAE) of 3.5, 2.7 and 4.8 for module ID 1, 2 and 3. The calculated energy (exemplarily for module ID 2) based on the measured, calculated by the NOCT and stationary model for this time period is 118.4 kWh, resp. 116.7 kWh and 117.8 kWh. This is equivalent to an uncertainty of 1.4% for the NOCT and 0.5% for the stationary model.
n-type silicon modules
(2023)
The photovoltaic industry is facing an exponential growth in the recent years fostered by a dramatic decrease in installation prices. This cost reduction is achieved by means of several mechanisms. First, because of the optimization of the design and installation process of current PV projects, and second, by the optimization, in terms of performance, in the manufacturing techniques and material combinations within the modules, which also has an impact on both, the installation process, and the levelized cost of electricity (LCOE).
One popular trend is to increase the power delivered by photovoltaic modules, either by using larger wafer sizes or by combining more cells within the module unit. This solution means a significant increase in the size of these devices, but it implies an optimization in the design of photovoltaic plants. This results in an installation cost reduction which turns into a decrease in the LCOE.
However, this solution does not represent a breakthrough in addressing the real challenge of the technology which affects the module requirements. The innovation efforts must be focused on improving the modules capability to produce energy without enlarging the harvesting area. This challenge can be faced by approaching some of the module characteristics which are summarized in this chapter.
Advanced Determination of Temperature Coefficients of Photovoltaic Modules by Field Measurements
(2023)
In this work data from outdoor measurements, acquired over the course of up to three years on commercially available solar panels, is used to determine the temperature coefficients and compare these to the information as stated by the producer in the data sheets. A program developed in MatLab App Designer allows to import the electrical and ambient measurement data. Filter algorithms for solar irradiance narrow the irradiance level down to ~1000 W/m2 before linear regression methods are applied to obtain the temperature coefficients. A repeatability investigation proves the accuracy of the determined temperature coefficients which are in good agreement to the supplier specification if the specified values for power are not larger than -0.3%/K. Further optimization is achieved by applying wind filter techniques and days with clear sky condition. With the big (measurement) data on hand it was possible to determine the change of the temperature coefficients for varying irradiance. As stated in literature we see an increase of the temperature coefficient of voltage and a decline for the temperature coefficient of power with increasing irradiance.
Nachhaltigkeit von intelligenten Gebäuden - Ein Blick auf die Gesetzgebungen und Praxismöglichkeiten
(2023)
Gebäude sind durch ihre Herstellung und den Betrieb für einen erheblichen Teil der CO2-Emissionen in Europa verantwortlich. Die EU und Deutschland wollen durch milliardenschwere Maßnahmenpakete diese Emissionen bis zum Jahr 2045 (Deutschland) bzw. 2050 (EU) auf null reduzieren. Neben der Gebäudehülle als maßgeblicher Faktor für die Wärmebilanz zum Heizen und Kühlen spielt die Gebäudeautomation eine wichtige Rolle. Wie Gebäude intelligenter und smarter werden und wie sich das auf die Energieeffizienz auswirkt, soll im Folgenden betrachtet werden.
Aufgrund der Energiewende und den steigenden Anforderungen an die technische Gebäudeausrüstung gewinnt der Betrieb von Wärmepumpen in Gebäuden immer mehr an Bedeutung. Inzwischen existiert eine Vielzahl an Wärmepumpen-Systemen, die unterschiedliche Vor- und Nachteile sowie Einsatzmöglichkeiten aufweisen. Sofern die Installation einer Wärmepumpe für den Wohngebäudesektor in Betracht gezogen wird, muss eruiert werden, welches System sowohl ökologisch als auch ökonomisch für das Bauvorhaben am sinnvollsten ist. Hierfür wurde eine Bewertungstool entwickelt, das den Einsatz der unterschiedlichen Wärmepumpensysteme bewertet und auch Nutzern mit wenig Expertise eine Entscheidungshilfe ermöglicht. Für eine möglichst ganzheitliche Betrachtung können verschiedene Szenarien mit Hilfe des Bewertungstools überprüft werden. Hierzu können Indikatoren wie Standortdaten, Gebäudedaten, Parameter für die Trinkwassererwärmung, die Systemtemperaturen der Heizung und die Betriebsweise der Wärmepumpe im Tool variiert werden. Die Ergebnisse des Bewertungstools zeigen, wie die unterschiedlichen Nutzungsanforderungen sich auf die Jahresarbeitszahl und den Energiebedarf auswirken. Zusätzlich werden Investitions- und Verbrauchskosten für die unterschiedlichen Szenarien abgeschätzt und berechnet. Bei der ökologischen Bewertung wird der Fokus der Betrachtung auf den TEWI-Wert gelegt, um den Einfluss von verschiedener Kältemittel im Lebenszyklus der Wärmepumpe zu berücksichtigen.
Jdpd - An open Java Simulation Kernel for Molecular Fragment Dissipative Particle Dynamics (DPD)
Jdpd is an open Java simulation kernel for Molecular Fragment Dissipative Particle Dynamics (DPD) with parallelizable force calculation, efficient caching options and fast property calculations. It is characterized by an interface and factory-pattern driven design for simple code changes and may help to avoid problems of polyglot programming. Detailed input/output communication, parallelization and process control as well as internal logging capabilities for debugging purposes are supported. The kernel may be utilized in different simulation environments ranging from flexible scripting solutions up to fully integrated “all-in-one” simulation systems like MFsim.
Since Jdpd version 1.6.1.0 Jdpd is available in a (basic) double-precision version and a (derived) single-precision version (= JdpdSP) for all numerical calculations, where the single precision version needs about half the memory of the double precision version.
Jdpd uses the Apache Commons Math and Apache Commons RNG libraries and is published as open source under the GNU General Public License version 3. This repository comprises the Java bytecode libraries (including the Apache Commons Math and RNG libraries), the Javadoc HTML documentation and the Netbeans source code packages including Unit tests.
Jdpd has been described in the scientific literature (the final manuscript 2018 - van den Broek - Jdpd - Final Manucsript.pdf is added to the repository) and used for DPD studies (see references below).
See text file JdpdVersionHistory.txt for a version history with more detailed information.
MFsim - An open Java all-in-one rich-client simulation environment for mesoscopic simulation
MFsim is an open Java all-in-one rich-client computing environment for mesoscopic simulation with Jdpd as its default simulation kernel for Molecular Fragment Dissipative Particle Dynamics (DPD). The environment integrates and supports the complete preparation-simulation-evaluation triad of a mesoscopic simulation task. Productive highlights are a SPICES molecular structure editor, a PDB-to-SPICES parser for particle-based peptide/protein representations, a support of polymer definitions, a compartment editor for complex simulation box start configurations, interactive and flexible simulation box views including analytics, simulation movie generation or animated diagrams. As an open project, MFsim enables customized extensions for different fields of research.
MFsim uses several open libraries (see MFSimVersionHistory.txt for details and references below) and is published as open source under the GNU General Public License version 3 (see LICENSE).
MFsim has been described in the scientific literature and used for DPD studies.
Fälle zum Europarecht
(2023)
Cookie notices (or cookie banners) are a popular mechanism for websites to provide (European) Internet users a tool to choose which cookies the site may set. Banner implementations range from merely providing information that a site uses cookies over offering the choice to accepting or denying all cookies to allowing fine-grained control of cookie usage. Users frequently get annoyed by the banner’s pervasiveness as they interrupt “natural” browsing on the Web. As a remedy, different browser extensions have been developed to automate the interaction with cookie banners.
In this work, we perform a large-scale measurement study comparing the effectiveness of extensions for “cookie banner interaction.” We configured the extensions to express different privacy choices (e.g., accepting all cookies, accepting functional cookies, or rejecting all cookies) to understand their capabilities to execute a user’s preferences. The results show statistically significant differences in which cookies are set, how many of them are set, and which types are set—even for extensions that aim to implement the same cookie choice. Extensions for “cookie banner interaction” can effectively reduce the number of set cookies compared to no interaction with the banners. However, all extensions increase the
tracking requests significantly except when rejecting all cookies.
Die Beschaffung von IT-Sicherheitslösungen ist für Unternehmen oft eine Herausforderung. So führt die Komplexität der Systeme dazu, dass die für eine Kaufentscheidung erforderlichen Kompetenzen und Informationen nicht immer vorhanden sind. Grundvoraussetzung für eine erfolgreiche Geschäftsbeziehung ist deswegen ein valides Vertrauensverhältnis zwischen Anwender- und Herstellerunternehmen. Das setzt jedoch voraus, dass die Herstellerunternehmen vertrauenswürdig auftreten und im Interesse ihrer Kunden handeln. Eine Studie der Westfälischen Hochschule Gelsenkirchen hat untersucht, welche Vertrauenskriterien Kunden bei Herstellern und deren Produkten wichtig sind. So ist zum Beispiel ein Hersteller bei den Kunden unten durch, wenn er zu viele Buzzwords nutzt.
Wie Datenräume helfen, neue Geschäftsmodelle zu entwickeln : sicher, vertrauenswürdig und dezentral
(2023)
In der heutigen Zeit werden sehr große Datenmengen generiert und verwaltet, dennoch wird der Wert der Daten in Deutschland und Europa noch nicht voll ausgeschöpft. Die gemeinsame Nutzung von Daten kann und soll datengetriebene Anwendungen noch weiter vorantreiben, bei der Erfüllung regulatorischer Anforderungen helfen sowie einen finanziellen Mehrwert für Firmen schaffen. Viele kleine bis mittelständische Unternehmen zögern derzeit jedoch, Daten untereinander auszutauschen, weil sie befürchten, die Hoheit über ihre Daten zu verlieren und nicht wissen, wer Zugriff auf die Daten hat und wofür die Daten verwendet werden.
Künstliche Intelligenz (KI) ermöglicht es, komplexe Zusammenhänge und Muster aus großen Datenmengen zu extrahieren und in einem statistischen Modell zu erfassen. Dieses KI-Modell kann anschließend Aussagen über zukünftig auftretende Daten treffen. Mit dem zunehmenden Einsatz von Künstlicher Intelligenz rücken solche Systeme auch immer mehr ins Visier von Cyberkriminellen. Der Artikel beschreibt umfassend Angriffsszenarien und mögliche Abwehrmaßnahmen.
Vor vier Jahren betrat die Datenschutz-Grundverordnung (DS-GVO) die Bühne und brachte für Unternehmen und Nutzer gleichermaßen Veränderungen mit sich. Doch gerade im dynamischen Umfeld des Online-Marketings tauchen ständig neue und oft knifflige Fragen auf – Fragen, die nun im Rahmen einer wissenschaftlichen Studie etwas genauer unter die Lupe genommen wurden.
Viele Unternehmen beginnen damit, Standards "wild" umzusetzen oder verschiedene Sicherheitsprodukte zu kaufen. Cybersicherheit muss aber auf einem soliden Fundament stehen. Dazu sollten die Verantwortlichen die eigenen Organisationsstrukturen kennen und die drei Schlüsselfaktoren Menschen, Prozesse und Technologie sorgfältig ausbalancieren.
Ventilanordnung und Verfahren zum Kühlen eines Wärmetauschers eines Fahrzeugs [Offenlegungsschrift]
(2023)
Die Erfindung betrifft eine Ventilanordnung umfassend wenigstens ein durch Gas, insbesondere Luft, durchströmbares Ventilelement (1, 1') mit einer Öffnung, wobei der Öffnung ein Dichtelement zugeordnet ist, mit dem die Öffnung verschließbar und/oder öffenbar ist, wobei das Dichtelement durch einen Dichtflächenbereich eines Plattenelements ausgebildet ist, vorzugsweise eines in zumindest einem möglichen Betriebszustand planen Plattenelements ausgebildet ist, wobei das Dichtelement der Öffnung des wenigstens einen Ventilelements gegenüberliegt und der das Dichtelement bildende Dichtflächenbereich des Plattenelements mittels wenigstens eines Spiralarmes mit einem Randflächenbereich des Plattenelements einstückig und relativ zum Randflächenbereich beweglich verbunden ist und der wenigstens eine Spiralarm von wenigstens einer um den Dichtflächenbereich verlaufenden spiralförmigen und durch Gas durchströmbare Ausnehmung in dem Plattenelement zumindest bereichsweise umgeben ist. Die Erfindung betrifft auch ein Verfahren zum Kühlen eines Wärmetauschers in
einem Fahrzeug.
Grundkurs C++
(2022)
Das gesamte Grundwissen zu C++ im praktischen Taschenbuchformat – zum Lernen und Nachschlagen. Vom ersten einfachen Programm bis zu komplexen Anwendungen. Übungen am Ende jedes Kapitels helfen Ihnen bei der Lernkontrolle. Sämtliche Grundlagen (Klassen, Vererbung, Polymorphie, Templates usw.) werden kurz und übersichtlich dargestellt. Diese dritte Auflage berücksichtigt aktuelle Standars bis C++20.
Der Datenjournalismus wird gleichermaßen stark in der Nachrichtenbranche beobachtet und in der Journalismusforschung reflektiert. Dieser Beitrag beschreibt das Phänomen zunächst im Kontext des Megatrends der Automatisierung des Journalismus. Anschließend wird die erste Trendstudie zum Da-tenjournalismus in Deutschland vorgestellt: Die Berufsfeldstudie war 2012 und 2019 im Feld. Die ge-wählten Items ermöglichen einen Längsschnitt-Vergleich der Entwicklung des Datenjournalismus. Bei einem Vergleich mit den nationalen Daten der „Worlds of Journalism Study“ werden weitere Gemein-samkeiten und Unterschiede deutlich. Die Ergebnisse zeigen, dass sich der Datenjournalismus in Deutschland zunehmend institutionalisiert hat und Datenjournalist:innen sich stark einem investigati-ven politischen Journalismus verpflichtet fühlen.
Kompensationsgeschäfte sind als Kopplungsgeschäfte medienrechtlich verboten. Laut Berichten von Praktiker*innen sind sie jedoch alltägliches Werkzeug im Austausch zwischen Journalist*innen und Verlagen einerseits sowie PR-Akteur*innen und Werbungtreibenden andererseits. Auf Grundlage kommunikationswissenschaftlicher, medienrechtlicher und betriebswirtschaftlicher Literatur sowie einer Befragung von 37 Expert*innen aus der Kommunikationsbranche wird untersucht, welche Formen von Kompensationsgeschäften in der Praxis existieren und welche Rolle Kompensationsgeschäfte im Wechselverhältnis von Öffentlichkeitsarbeit und Journalismus spielen. In der alltäglichen Berufspraxis mancher Branchen und Redaktionen werden im Ergebnis mit großer Selbstverständlichkeit Kompensationsgeschäfte genutzt. Daher wird nach einem definitorischen Abgleich von Induktionen, Adaptionen und Kompensationen eine Erweiterung des Intereffikationsmodells vorgeschlagen.
Journalismus und Werbung. Zur Trennung von redaktionellen Inhalten und kommerzieller Kommunikation
(2022)
Der Trennungsgrundsatz zwischen redaktionellen Inhalten und kommerzieller Kommunikation schützt sowohl die Demokratie- wie auch die Werbeträgerfunktion von Massenmedien. Dieser Beitrag stellt für die diversen Aspekte des Trennungsgrundsatzes wie die Kennzeichnungspflicht, das Verbot von bezahlten Inhalten und Kopplungsgeschäften sowie die Handhabung zahlreicher Darstellungsformen redaktioneller Werbung alle verfügbaren gesetzlichen und standesrechtlichen Regelungen zusammen. Anschließend wird für die einzelnen Aspekte des Trennungsgrundsatzes der Stand der Forschung insbesondere hinsichtlich Beschreibung und Wirkung referiert. Schließlich werden Lösungsvorschläge für die aktuelle Anwendung und Desiderata zusammengetragen.
Journalism and Advertising. On the Separation of Editorial Content and Commercial Communication
(2022)
The principle of separation between editorial content and commercial communication protects both the democratic and the commercial function of mass media. This article compiles all available statutory and professional regulations in Germany as an example of the various aspects of the principle of separation, such as the labeling obligation, the prohibition of paid content and tying transactions, as well as the handling of numerous forms of presentation of editorial advertising. Subsequently, the state of research is reported for the individual aspects of the principle of separation, in particular with regard to description and effect. Finally, proposed solutions for current application and desiderata are compiled.
Different charge treatment approaches are examined for cyclotide-induced plasma membrane disruption by lipid extraction studied with dissipative particle dynamics. A pure Coulomb approach with truncated forces tuned to avoid individual strong ion pairing still reveals hidden statistical pairing effects that may lead to artificial membrane stabilization or distortion of cyclotide activity depending on the cyclotide’s charge state. While qualitative behavior is not affected in an apparent manner, more sensitive quantitative evaluations can be systematically biased. The findings suggest a charge smearing of point charges by an adequate charge distribution. For large mesoscopic simulation boxes, approximations for the Ewald sum to account for mirror charges due to periodic boundary conditions are of negligible influence.
Wie wählen Nachrichtenmedien aus, worüber sie berichten? Dieser Frage versuchen Nachrichtenwertforschende seit vielen Jahren auf den Grund zu gehen. Die Nachrichtenwertforschung ist eine der traditionsreichsten Forschungsrichtungen der Journalismusforschung, die bis zum heutigen Tag aktuell ist. Begründet wurde sie bereits in den 1920er-Jahren von Walter Lippmann, internationale Bekanntheit erfuhr sie durch Johan Galtung und Mari Holmboe Ruge, die 1965 eine Liste von Nachrichtenfaktoren entwickelten und diese empirisch überprüften. Es folgten unzählige empirische Untersuchungen zu diesem Thema, die sich an einer Weiterentwicklung der Theorie versuchten. Der vorliegende Beitrag gibt einen Überblick über die Entwicklungsgeschichte der Nachrichtenwertforschung und skizziert, was Forschende heutzutage an der Thematik interessiert.
„Digital gestützte Lehrveranstaltungen“ im Sinne von § 1a Abs. 2 LVV (NRW) – eine erste Annäherung
(2022)
The use of molecular string representations for deep learning in chemistry has been steadily increasing in recent years. The complexity of existing string representations, and the difficulty in creating meaningful tokens from them, lead to the development of new string representations for chemical structures. In this study, the translation of chemical structure depictions in the form of bitmap images to corresponding molecular string representations was examined. An analysis of the recently developed DeepSMILES and SELFIES representations in comparison with the most commonly used SMILES representation is presented where the ability to translate image features into string representations with transformer models was specifically tested. The SMILES representation exhibits the best overall performance whereas SELFIES guarantee valid chemical structures. DeepSMILES perform in between SMILES and SELFIES, InChIs are not appropriate for the learning task. All investigations were performed using publicly available datasets and the code used to train and evaluate the models has been made available to the public.
The translation of images of chemical structures into machine-readable representations of the depicted molecules is known as optical chemical structure recognition (OCSR). There has been a lot of progress over the last three decades in this field, but the development of systems for the recognition of complex hand-drawn structure depictions is still at the beginning. Currently, there is no data for the systematic evaluation of OCSR methods on hand-drawn structures available. Here we present DECIMER — Hand-drawn molecule images, a standardised, openly available benchmark dataset of 5088 hand-drawn depictions of diversely picked chemical structures. Every structure depiction in the dataset is mapped to a machine-readable representation of the underlying molecule. The dataset is openly available and published under the CC-BY 4.0 licence which applies very few limitations. We hope that it will contribute to the further development of the field.
Dieses Buch betrachtet die grundlegenden logistischen Bereiche zur Beschaffung, Produktion, Distribution und Entsorgung und zeigt, welche Themen und Aspekte das Logistikmanagement umfassen. In der Logistik geht es vor allem um die Optimierung des Materialflusses, der Kapazitätsauslastung, der Transportstrecke oder der Maschinenbelegung. Für den Bereich des Supply Chain Management wird die Funktionsweise, Koordination und Resilienz der Supply Chain auch vor dem Hintergrund aktueller Lieferkettenstörungen und der Einführung des Lieferkettensorgfaltspflichtengesetzes beschrieben.
Das Buch ermöglicht, anhand von zahlreichen Anwendungs- und quantitativen Übungsbeispielen, das im Studium benötigte Wissen leicht nachvollziehbar zu erlangen und zu vertiefen.
Das Phänomen des Shareholder Activismbzw. der aktivistischen Investorenwar bis vor wenigen Jahren primär aus demangloamerikanischen Raumbekannt. Seit einiger Zeit sind verstärkt auch europäische und deutscheUnternehmen das Ziel von aktivistischen Aktionären. Der vorliegendeBeitrag zeigt die Zielsetzungen dieser Investorengruppe und die hierbeiverfolgten Strategien bzw. eingesetzten Maßnahmen auf, womit paralleleine Beschreibung des Geschäftsmodells des finanziell geprägten Share-holder Activismvorgelegt wird.
The development of deep learning-based optical chemical structure recognition (OCSR) systems has led to a need for datasets of chemical structure depictions. The diversity of the features in the training data is an important factor for the generation of deep learning systems that generalise well and are not overfit to a specific type of input. In the case of chemical structure depictions, these features are defined by the depiction parameters such as bond length, line thickness, label font style and many others. Here we present RanDepict, a toolkit for the creation of diverse sets of chemical structure depictions. The diversity of the image features is generated by making use of all available depiction parameters in the depiction functionalities of the CDK, RDKit, and Indigo. Furthermore, there is the option to enhance and augment the image with features such as curved arrows, chemical labels around the structure, or other kinds of distortions. Using depiction feature fingerprints, RanDepict ensures diversely picked image features. Here, the depiction and augmentation features are summarised in binary vectors and the MaxMin algorithm is used to pick diverse samples out of all valid options. By making all resources described herein publicly available, we hope to contribute to the development of deep learning-based OCSR systems.
Krankenhäuser in Deutschland befinden sich seit vielen Jahren in einer schwierigen finanziellen Lage, weshalb bei nicht wenigen von ihnen ein konkretes Insolvenzrisiko zu beobachten ist. Diese Entwicklung verstärkt den Druck auf die Krankenhäuser, noch intensiver als bisher eine Verbesserung ihrer Liquiditätssituation zu erreichen. Ein optimiertes Working Capital kann die Verbesserung der Liquidität wirksam unterstützen. Der vorliegende Beitrag zeigt die zentralen Komponenten des Working Capitals bzw. des Cash Conversion Cycle in Krankenhäusern auf, erläutert wichtige Gestaltungsbereiche zur Verbesserung des Working Capitals und zeigt zudem auf der Basis aktueller Untersuchungsergebnisse die Ist-Situation auf.
Planung bzw. Budgetierung bilden ein zentrales Element des Controlling. Aussagekräftige Ergebnisse der Budgetierung sind unverzichtbar für die Steuerung der im Unternehmen verfügbaren Ressourcen. Entsprechend der hohen Bedeutung der Budgetierung ist eine intensive methodische Innovationsbereitschaft bei den Planungsinstrumenten in den letzten Jahren zu beobachten. Zwischenzeitlich werden auch die Einsatzbereiche des Zero-Based-Budgeting wieder intensiver diskutiert (= reloaded), wobei hier die Besonderheit darin besteht, dass dieses Instrument bereits in den 80er Jahren für einige Jahre eine stärkere Beachtung in der betriebswirtschaftlichen Theorie und Praxis gefunden hatte.
Die Ukrainekrise und coronabedingte Lieferkettenprobleme treiben derzeitdie Rohstoff-, Material- und Lebensmittelpreise hoch. Auch die Inflationser-wartungen steigen; es drohen Zweitrundeneffekte imGefolge höhererLohnforderungen und Lohnabschlüsse. Langfristig könnten in der Eurozoneweitere Faktoren die Inflation treiben, z.B. angebotsseitig der Fachkräfte-mangel sowie globale Nahrungsmittelknappheiten und politikseitig diegewollten Effekte der Klimapolitik. Der Beitrag diskutiert vor diesemHinter-grund geldpolitische Implikationen.
Ein größerer Anteil der in den letzten Jahren vorgenommenen Unternehmensakquisitionen wurde maßgeblich mit attraktiven Synergieerwartungen begründet. Bei näherer Betrachtung können diese Synergien oft nur wenig präzise quantifiziert und der Zeitpunkt ihrer Realisierung nur ungenau eingeordnet werden. Der vorliegende Beitrag zeigt die Bedeutung von Synergien in Verbindung mit dem Goodwill, grenzt die Kosten- und Umsatzsynergien inhaltlich ab und befasst sich auf der Basis zahlreicher Studien mit dem aktuellen Erkenntnisstand in Verbindung mit der Vorbereitung und Realisierung von Kosten- und Umsatzsynergien.
Air Handling units (AHU) are designed to guarantee a high indoor air quality for any time and outdoor condition all over the year. To do so, the AHU removes particle matter like dust or pollen and adapts the thermophysical properties of air to the desired, seasonal indoor comfort conditions. AHU have a robust design and thus operate for more than fifteen years, sometimes even for decades. An AHU designed today must consider and anticipate the change of user needs as well as outdoor air conditions for the next twenty years. To anticipate the outdoor air condition of coming decades, scientific models exist, which allow the design of peak performance and capacities of the air treatment components. It is most likely, that the ongoing climate change will lead to higher temperatures as well as higher humidity, while the comfort zone of human beings will remain at today’s values. Next to the impact of global warming with average rise of mean air temperature local effects will influence the operation of AHU. On effect investigated here is the steep temperature increase in city centres called urban heat islands. Heating and cooling capacities as well as water consumption for humidification are investigated for a reference AHU for fifteen regional locations in Germany. These regions represent all climate zones within the country. Additionally, the urban heat island effect was investigated for Berlin Alexanderplatz compared a rural area close by. The AHU was chosen to operate in an intensive care unit of a hospital. The set-up leads to 24/7 operation with 8760 hours per year. The article presents the modelling of current and future weather data as well as the unit set up. The calculated hourly performance and capacity parameters for current (reference year 2012) and future weather data (reference year 2045) yield energy consumption and peak loads of the unit for heating, cooling and humidification. The results are displayed by relative comparisons of each performance value.
Robot arms are one of many assistive technologies used by people with motor impairments. Assistive robot arms can allow people to perform activities of daily living (ADL) involving grasping and manipulating objects in their environment without the assistance of caregivers. Suitable input devices (e.g., joysticks) mostly have two Degrees of Freedom (DoF), while most assistive robot arms have six or more. This results in time-consuming and cognitively demanding mode switches to change the mapping of DoFs to control the robot. One option to decrease the difficulty of controlling a high-DoF assistive robot arm using a low-DoF input device is to assign different combinations of movement-DoFs to the device’s input DoFs depending on the current situation (adaptive control). To explore this method of control, we designed two adaptive control methods for a realistic virtual 3D environment. We evaluated our methods against a commonly used non-adaptive control method that requires the user to switch controls manually. This was conducted in a simulated remote study that used Virtual Reality and involved 39 non-disabled participants. Our results show that the number of mode switches necessary to complete a simple pick-and-place task decreases significantl when using an adaptive control type. In contrast, the task completion time and workload stay the same. A thematic analysis of qualitative feedback of our participants suggests that a longer period of training could further improve the performance of adaptive control methods.
Media Brand Management
(2022)
The management of media brands faces challenges. In order to be able to point out possible solutions, this article first explains the concept and the nature of “media brands.” Subsequently, various theoretical approaches to the explanation of media brands and their management are presented. Regardless of theoretical preferences, it is important to keep in mind the brand-strategic complexity of media management that is subsequently described. Due to their specificity, special attention is paid to the basic strategic positioning options and to the communication management of media brands. In this way, the special features of media brand management become clear in comparison with other products and services.
Nowadays, robots are found in a growing number of areas where they collaborate closely with humans. Enabled by lightweight materials and safety sensors, these cobots are gaining increasing popularity in domestic care, where they support people with physical impairments in their everyday lives. However, when cobots perform actions autonomously, it remains challenging for human collaborators to understand and predict their behavior, which is crucial for achieving trust and user acceptance. One significant aspect of predicting cobot behavior is understanding their perception and comprehending how they “see” the world. To tackle this challenge, we compared three different visualization techniques for Spatial Augmented Reality. All of these communicate cobot perception by visually indicating which objects in the cobot’s surrounding have been identified by their sensors. We compared the well-established visualizations Wedge and Halo against our proposed visualization Line in a remote user experiment with participants suffering from physical impairments. In a second remote experiment, we validated these findings with a broader non-specific user base. Our findings show that Line, a lower complexity visualization, results in significantly faster reaction times compared to Halo, and lower task load compared to both Wedge and Halo. Overall, users prefer Line as a more straightforward visualization. In Spatial Augmented Reality, with its known disadvantage of limited projection area size, established off-screen visualizations are not effective in communicating cobot perception and Line presents an easy-to-understand alternative.
The concept of molecular scaffolds as defining core structures of organic molecules is utilised in many areas of chemistry and cheminformatics, e.g. drug design, chemical classification, or the analysis of high-throughput screening data. Here, we present Scaffold Generator, a comprehensive open library for the generation, handling, and display of molecular scaffolds, scaffold trees and networks. The new library is based on the Chemistry Development Kit (CDK) and highly customisable through multiple settings, e.g. five different structural framework definitions are available. For display of scaffold hierarchies, the open GraphStream Java library is utilised. Performance snapshots with natural products (NP) from the COCONUT (COlleCtion of Open Natural prodUcTs) database and drug molecules from DrugBank are reported. The generation of a scaffold network from more than 450,000 NP can be achieved within a single day.
Im zweiten Corona-Winter sollen die Schulen offenbleiben. Neben Fenster- und mechanischer Lüftung werden mobile Raumluftreiniger als sinnvolle Maßnahmen angesehen, um das Infektionsrisiko zu reduzieren. Dabei stellt sich die Frage, wie deren sicherer und zuverlässiger Betrieb gestalten sein muss. Gibt es bevorzugte Aufstellpositionen im Raum und wie wirkt sich die Luftbewegung auf die Behaglichkeit aus? Die Datenlage hierzu ist noch unzureichend (vgl. HLH-Interview mit Dr. Gommel, HLH 10/2021). Diese Fragen werden für einen typischen Seminar- und Klassenraum näher beleuchtet.
Zentrale Raumlufttechnische Anlagen (RLT-Anlagen) sind für Betriebszeiten von fünfzehn und mehr Jahren konzipiert. Nicht selten werden die Geräte auch nach 25 Jahren Dank Retrofit weiterbetrieben. Unberücksichtigt bleibt dabei, ob die zukünftigen, klimatischen Bedingungen noch der Auslegung entsprechen. Zur Überprüfung der klimatischen Änderungen können sogenannte Testreferenzjahre (TRY – Test Reference Year) genutzt werden. Diese basieren für die heutige Auslegung auf den lokalen, stündlichen Wetterbedingungen im Bezugsjahr 2012 und zusätzlich auf modellbasierten Wetterdaten für das Bezugsjahr 2045.
Das Zentralluftgerät einer Krankenhaus-Intensivstation wurde für die 15 Wetter¬stationen der VDI 4710, Blatt 3 in Deutschland auf die Leistungsanforderungen von heute und für das Jahr 2045 untersucht. Zusätzlich wurden für den Standort Berlin die aktuellen Wetteraufzeichnungen im Sommer 2020 betrachtet. Daraus lassen sich Rückschlüsse ziehen, wie sich städtische Wärmeinseln (UHI – Urban Heat Islands) zukünftig auf den Energie- und Leistungsbedarf zur Gebäudeklimatisierung auswirken werden.
Die Auswirkungen auf die Wärme- und Kältespitzenleistung sowie der kumulierte Energiebedarf werden genauso analysiert wie der Befeuchtungsbedarf. Hieraus lassen sich die potenziellen Leistungsreserven abschätzen und die Klimaresilienz der Anlagentechnik bewerten.
The development of deep learning-based optical chemical structure recognition (OCSR) systems has led to a need for datasets of chemical structure depictions. The diversity of the features in the training data is an important factor for the generation of deep learning systems that generalise well and are not overfit to a specific type of input. In the case of chemical structure depictions, these features are defined by the depiction parameters such as bond length, line thickness, label font style and many others. Here we present RanDepict, a toolkit for the creation of diverse sets of chemical structure depictions. The diversity of the image features is generated by making use of all available depiction parameters in the depiction functionalities of the CDK, RDKit, and Indigo. Furthermore, there is the option to enhance and augment the image with features such as curved arrows, chemical labels around the structure, or other kinds of distortions. Using depiction feature fingerprints, RanDepict ensures diversely picked image features. Here, the depiction and augmentation features are summarised in binary vectors and the MaxMin algorithm is used to pick diverse samples out of all valid options. By making all resources described herein publicly available, we hope to contribute to the development of deep learning-based OCSR systems.
BIM-Daten sind vielfältig und entstehen an unterschiedlichen Zeitpunkten im Bauprojekt. Das Verständnis und der Umgang mit diesen Daten sind wesentliche Merkmale der BIM-Methodik.
Für den Anwender ist dabei nicht immer sofort klar, wie und in welcher Detailtiefe Bauwerksinformationen – über die reine Geometrie hinaus – bereitgestellt werden müssen.
In diesem Buch werden die Modelle und Formate vor-
gestellt. Dabei werden insbesondere die Attribute und Eigenschaften der BIM-Objekte betrachtet.
Die Nutzung der Daten und das dazugehörige Datenmanagement werden anschaulich erklärt. Praktische Tipps zur richtigen Softwareauswahl schließen das Buch ab.
We study the dynamics of a quantum two-state system driven through an avoided crossing under the influence of a super-Ohmic environment. We determine the Landau–Zener probability employing the numerical exact quasi-adiabatic path integral and a Markovian weak coupling approach. Increasing the driving time in the numerical protocol, we find converged results which shows that super-Ohmic environments only influence the Landau Zener probability within a finite crossing time window. This crossing time is qualitatively determined by the environmental cut-off energy. At weak coupling, we show that the Markovian weak coupling approach provides an accurate description. Since pure dephasing of a super-Ohmic bath is non-Markovian, this highlights that pure dephasing hardly influences the Landau–Zener probability. The finite crossing time window, thus, results from the suppression of relaxation once the energy splitting exceeds the environmental cut-off energy.
A quantum two-level system immersed in a sub-Ohmic bath experiences enhanced low-frequency quantum statistical fluctuations which render the nonequilibrium quantum dynamics highly non-Markovian. Upon using the numerically exact time-evolving matrix product operator approach, we investigate the phase diagram of the polarization dynamics. In addition to the known phases of damped coherent oscillatory dynamics and overdamped decay, we identify a new third region in the phase diagram for strong coupling showing an aperiodic behavior. We determine the corresponding phase boundaries. The dynamics of the quantum two-state system herein is not coherent by itself but slaved to the oscillatory bath dynamics.
We propose a quantum-mechanical model to calculate the nonlinear differential conductance of a single molecular junction immersed in a solvent, either in pure form or as a binary mixture with varying volume fraction. The solvent mixture is captured by a dielectric continuum model for which the resulting spectral density is determined within the Gladstone-Dale approach. The conductance of the molecular junction is calculated by a real-time diagrammatic technique. We find a strong variation of the conductance maximum for varying volume fraction of the solvent mixture. Importantly, the calculated molecular nonlinear conductance shows a very good agreement with experimentally measured data for common molecular junctions in various polar solvent mixtures.
Einleitung und Fragestellung
Zahlreiche empirische Befunden sprechen für die positiven Effekte authentischer Führung. Wir untersuchen ihre Antezedenzien.
Theoretischer Hintergrund
Authentische Führung meint Handeln im Einklang mit moralischen Werten. Aus sozialkognitiver Perspektive bezeichnet moralische Identität eine komplexe Wissensstruktur aus moralischen Werten, Zielen und Verhaltensmustern, welche durch Lebenserfahrungen erworben werden. Darin sehen wir eine Basis für authentische
Führung (H1). Sich trotz sozialer Opposition für moralische Prinzipien einzusetzen, ist bezeichnend für Mut. Dieser zeigt sich in selbstkongruentem Verhalten trotz negativer
Konsequenzen. Dem Identitätsprozessmodell folgend, wird Mut notwendig, wenn Identiätsspannungen Inkongruenz zwischen Selbstkonzept und sozialer Identität hervorrufen. Darin sehen wir ein Aktivierungspotenzial für authentische Führung (H2).
Methode
Wir befragten N = 70 Führungsdyaden eines Industriekonzerns. Mut (WSCS; Howard et al., 2016) und moralische Identität(MIS; Aquino & Reed, 2002) wurden als Selbsteinschätzung der Führungskräfte erhoben (Altersdurchschnitt: 46 Jahre, 59% ♂). Authentische Führung (ALQ, Walumbwa et al., 2008) erfassten wir als Fremdeinschätzung durch Mitarbeitende (Altersdurchschnitt: 37, 47% ♂).
Ergebnisse
Moralische Identität und tatsächliches Verhalten müssen scheinbar nicht notwendigerweise übereinstimmen; etwa wenn hohe Kosten für moralisches Verhalten erwartbar sind. Hier setzt sozialer Mut im Arbeitskontext an. Entsprechend
wird eine mutig agierende Führungskraft als authentisch wahrgenommen, vor allem, wenn dieses Verhalten mögliche negative soziale Konsequenzen beinhaltet.
Diskussion
Mutiges Handeln wird durch Persönlichkeit, Selbstwirksamkeit und aktuelle Emotionen geleitet und kann etwa in der Führungskräfteentwicklung gelernt werden.
Hier bieten sich narrative Formate an, die die Selbstreflexion fördern. Auch bzgl. der Entwicklung authentischer Führung verweisen erste Befunde auf die Bedeutung der persönlichen Reflexion, z.B. über die eigene Lebensgeschichte.
To address the question which neocortical layers and cell types are important for the perception of a sensory stimulus, we performed multielectrode recordings in the barrel cortex of head-fixed mice performing a single-whisker go/no-go detection task with vibrotactile stimuli of differing intensities. We found that behavioral detection probability decreased gradually over the course of each session, which was well explained by a signal detection theory-based model that posits stable psychometric sensitivity and a variable decision criterion updated after each reinforcement, reflecting decreasing motivation. Analysis of multiunit activity demonstrated highest neurometric sensitivity in layer 4, which was achieved within only 30 ms after stimulus onset. At the level of single neurons, we observed substantial heterogeneity of neurometric sensitivity within and across layers, ranging from nonresponsiveness to approaching or even exceeding psychometric sensitivity. In all cortical layers, putative inhibitory interneurons on average proffered higher neurometric sensitivity than putative excitatory neurons. In infragranular layers, neurons increasing firing rate in response to stimulation featured higher sensitivities than neurons decreasing firing rate. Offline machine-learning-based analysis of videos of behavioral sessions showed that mice performed better when not moving, which at the neuronal level, was reflected by increased stimulus-evoked firing rates.
Daten sind heute die Schlüsselkomponente in der Wertschöpfung. Ihre sichere und vertrauenswürdige Verarbeitung sind daher essenziell - auch in Cloud-Infrastrukturen, die per se erst mal nicht vertrauenswürdig sind. Während die Daten und der Code der sie verarbeitenden Anwendung hier in gespeicherter Form und bei der Übertragung in der Regel verschlüsselt sind, liegt beides während der Verarbeitung von Anwendungen in einer Cloud-Infrastruktur im Klartext vor und ist somit angreifbar. Auf der Basis von Sicherheitsfunktionen der CPU sorg Confidential Computing dafür, dass Anwendungen mit Code und Daten auf Cloud-Infrastrukturen in isolierter und verschlüsselter Form in sicheren Enklaven verarbeitet werden. Die Inhalte der Anwendung in einer Enklave werden so vor unbefugten Zugriff durch Systemadministratoren und weiteren Personen, die prinzipiell Zugriff auf die Cloud-Infrastruktur haben, geschützt. Technik unterstützt auf diese Weise die sichere und vertrauenswürdige Umsetzung des Datenschutzes.
Das Internet hat sich als globale Kommunikations-, Informations-, Commerce- und Businessinfrastruktur fest in der Gesellschaft etabliert. Mit jedem Grad Zuwachs bei der Digitalisierung wird das Leben einfacher und schneller - aber auch gefährlicher. Die konkrete Gefährlichkeit bleibt dabei bislang oft ein Mysterium - Strategien für die IT-Sicherheit müssen auf Basis von Annahmen und Erfahrungen entwickelt werden. Internet-Kennzahlen und deren systematische Auswertung sollen nun dabei helfen, Probleme, Risiken und Schwachstellen als Trend zu erkennen, um Sicherheitsstrategien proaktiv fokussierter zu gestalten. Auch der Stand der IT-Sicherheit lässt sich durch Messung der Kennzahlen ermitteln und bewerten. Internet-Kennzahlen werden von lokalen und globalen Anbietern bereitgestellt.
Supply-Chain-Angriffe sind eine akute Bedrohung für jedes Unternehmen. Einen Softwarelieferanten auszunutzen, um eine große Anzahl seiner Kunden zu erreichen, ist eine ausgeklügelte und erfolgreiche Methode aktueller Hacker. Die Spezialisierung der Unternehmen auf ihre Kernkompetenzen, die Globalisierung der Lieferketten (im folgendem wird Supply Chain und Lieferkette synonym verwendet), sowie die Digitalisierung entlang der Wertschöpfungskette sind nur einige Beispiele, wieso Angreifer vermehrt die Vertrauensbeziehung zwischen Kunden und Lieferanten verstärkt für Angriffe ausnutzen. Dieser Artikel erläutert Cyber-Angriffe in Bezug auf eine Supply Chain und zeigt Sicherheitsmechanismen für die erfolgreiche Verteidigung.
Digitale Sprachassistenten wie Alexa, Google, Siri & Co erfreuen sich auch in Deutschland hoher Beliebtheit - Tendenz steigend. Bei allen genannten und vielen weiteren Systemen handelt es sich um cloudbasierte Architekturen - die gesprochenen Befehle werden in Rechenzentren rund um den Globus übertragen und dort interpretiert. Aus Sicht des Datenschutzes und der Privatsphäre ist das problematisch. Auch die Abhängigkeit zu Cloud-Anbietern kann zu Schwierigkeiten führen, z.B. wenn sich die Sprachassistenten oder Smart-Home-Geräte nicht mehr nutzen lassen, weil der Anbieter seinen Dienst einstellt. Im Rahmen eines internen Forschungsprojekts hat das Institut für Internet-Sicherheit nun einen "dezentralen" Sprachassistenten entwickelt, der im Offline-Betrieb operiert und die Sprachdaten lokal auf dem Gerät verarbeitet, ohne sie in eine entfernte Cloud übertragen zu müssen.
Im Prinzip wollen und müssen Menschen auch in der digitalen Welt vertrauen (können) – nicht zuletzt, um grundsätzlich handlungsfähig zu sein. Aber auch, weil teilweise gar keine andere Wahl besteht, als einfach zu vertrauen, da die IT-Technologien mittlerweile nicht nur so allgegenwärtig, sondern auch so komplex geworden sind, dass der Nutzer sie vielfach gar nicht mehr einschätzen kann. Daher ist es – insbesondere im Sinne der Digitalisierung – wichtig und auch notwendig, dass Nutzern verschiedene Alternativen zur Verfügung stehen, anhand derer sie individuell die Vertrauenswürdigkeit von Unternehmen sowie IT-Lösungen – also jeglicher Produkte, Anwendungen und Dienste – beurteilen können. Aufgrund der steigenden Zahl an Sicherheitsvorfällen in der digitalen Welt sollte speziell die Cyber-Sicherheit dabei im Fokus stehen.
In dieser Arbeit wird eine ganzheitliche Bedrohung für Business-Chat-Anwendungen aufgezeigt und bewertet: Chishing – Phishing über Business-Chats. Die Bedrohung hat ihren Ursprung in den Anfängen der heutigen vernetzten Welt und das zugrunde liegende Problem wird als Spoofing in seiner einfachsten Form bezeichnet. In vier von sechs Business-Chat-Tools, die in dieser Arbeit analysiert werden, ist es möglich, Anzeigenamen, Profilbilder und weitere persönliche Informationen erfolgreich zu fälschen. Dies stellt eine Bedrohung für Unternehmen dar, da es Insider-Bedrohungen Vorschub leistet und unter Umständen auch externen Entitäten dazu einlädt, sich als interne Mitarbeiterin auszugeben.
Web measurement studies can shed light on not yet fully understood phenomena and thus are essential for analyzing how the modern Web works. This often requires building new and adjustinng existing crawling setups, which has led to a wide variety of analysis tools for different (but related) aspects. If these efforts are not sufficiently documented, the reproducibility and replicability of the measurements may suffer—two properties that are crucial to sustainable research. In this paper, we survey 117 recent research papers to derive best practices for Web-based measurement studies and specify criteria that need to be met in practice. When applying these criteria to the surveyed papers, we find that the experimental setup and other aspects essential to reproducing and replicating results are often missing. We underline the criticality of this finding by performing a large-scale Web measurement study on 4.5 million pages with 24 different measurement setups to demonstrate the influence of the individual criteria. Our experiments show that slight differences in the experimental setup directly affect the overall results and must be documented accurately and carefully.
Third-party tracking is a common and broadly used technique on the Web. Different defense mechanisms have emerged to counter these practices (e.g. browser vendors that ban all third-party cookies). However, these countermeasures only target third-party trackers and ignore the first party because the narrative is that such monitoring is mostly used to improve the utilized service (e.g. analytical services). In this paper, we present a large-scale measurement study that analyzes tracking performed by the first party but utilized by a third party to circumvent standard tracking preventing techniques. We visit the top 15,000 websites to analyze first-party cookies used to track users and a technique called “DNS CNAME cloaking”, which can be used by a third party to place first-party cookies. Using this data, we show that 76% of sites effectively utilize such tracking techniques. In a long-running analysis, we show that the usage of such cookies increased by more than 50% over 2021.