Filtern
Erscheinungsjahr
Dokumenttyp
- Wissenschaftlicher Artikel (1082)
- Konferenzveröffentlichung (344)
- Teil eines Buches (Kapitel) (321)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (237)
- Buch (Monographie) (219)
- Bericht (74)
- Video (60)
- Vorlesung (46)
- Sonstiges (45)
- Rezension (27)
Sprache
- Deutsch (1980)
- Englisch (532)
- Französisch (4)
- Mehrsprachig (2)
- Spanisch (2)
- Rumänisch (1)
Schlagworte
- Robotik (30)
- Flugkörper (21)
- UAV (21)
- Journalismus (15)
- Bionik (11)
- Rettungsrobotik (8)
- 3D Modell (7)
- Akkreditierung (7)
- E-Learning (7)
- Juristenausbildung (7)
Institut
- Wirtschaftsrecht (834)
- Institut für Internetsicherheit (262)
- Wirtschaft und Informationstechnik Bocholt (254)
- Informatik und Kommunikation (220)
- Institut für Innovationsforschung und -management (194)
- Westfälisches Institut für Gesundheit (141)
- Westfälisches Energieinstitut (83)
- Wirtschaft Gelsenkirchen (65)
- Maschinenbau Bocholt (60)
- Elektrotechnik und angewandte Naturwissenschaften (59)
Die neue Aufgabe der internen Kommunikation: schwierige Unternehmenspersönlichkeiten erkennen
(2023)
Measurement studies are essential for research and industry alike to understand the Web’s inner workings better and help quantify specific phenomena. Performing such studies is demanding due to the dynamic nature and size of the Web. An experiment’s careful design and setup are complex, and many factors might affect the results. However, while several works have independently observed differences in
the outcome of an experiment (e.g., the number of observed trackers) based on the measurement setup, it is unclear what causes such deviations. This work investigates the reasons for these differences by visiting 1.7M webpages with five different measurement setups. Based on this, we build ‘dependency trees’ for each page and cross-compare the nodes in the trees. The results show that the measured trees differ considerably, that the cause of differences can be attributed to specific nodes, and that even identical measurement setups can produce different results.
This paper reveals various approaches undertaken over more than two decades of teaching undergraduate programming classes at different Higher Education Institutions, in order to improve student activation and participation in class and consequently teaching and learning effectiveness.
While new technologies and the ubiquity of smartphones and internet access has brought new tools to the classroom and opened new didactic approaches, lessons learned from this personal long-term study show that neither technology itself nor any single new and often hyped didactic approach ensured sustained improvement of student activation. Rather it needs an integrated yet open approach towards a participative learning space supported but not created by new tools, technology and innovative teaching methods.
This paper presents a pragmatic approach for stepwise introduction of peer assessment elements in undergraduate programming classes, discusses some lessons learned so far and directions for further work. Students are invited to challenge their peers with their own programming exercises to be submitted through Moodle and evaluated by other students according to a predefined rubric and supervised by teaching assistants. Preliminary results show an increased activation and motivation of students leading to a better performance in the final programming exams.
In this work a mathematical approach to calculate solar panel temperature based on measured irradiance, temperature and wind speed is applied. With the calculated module temperature, the electrical solar module characteristics is determined. A program developed in MatLab App Designer allows to import measurement data from a weather station and calculates the module temperature based on the mathematical NOCT and stationary approach with a time step between the measurements of 5 minutes. Three commercially available solar panels with different cell and interconnection technologies are used for the verification of the established models. The results show a strong correlation between the measured and by the stationary model predicted module temperature with a coefficient of determination R2 close to 1 and a root mean square deviation (RMSE) of ≤ 2.5 K for a time period of three months. Based on the predicted temperature, measured irradiance in module plane and specific module information the program models the electrical data as time series in 5-minute steps. Predicted to measured power for a time period of three months shows a linear correlation with an R2 of 0.99 and a mean absolute error (MAE) of 3.5, 2.7 and 4.8 for module ID 1, 2 and 3. The calculated energy (exemplarily for module ID 2) based on the measured, calculated by the NOCT and stationary model for this time period is 118.4 kWh, resp. 116.7 kWh and 117.8 kWh. This is equivalent to an uncertainty of 1.4% for the NOCT and 0.5% for the stationary model.
n-type silicon modules
(2023)
The photovoltaic industry is facing an exponential growth in the recent years fostered by a dramatic decrease in installation prices. This cost reduction is achieved by means of several mechanisms. First, because of the optimization of the design and installation process of current PV projects, and second, by the optimization, in terms of performance, in the manufacturing techniques and material combinations within the modules, which also has an impact on both, the installation process, and the levelized cost of electricity (LCOE).
One popular trend is to increase the power delivered by photovoltaic modules, either by using larger wafer sizes or by combining more cells within the module unit. This solution means a significant increase in the size of these devices, but it implies an optimization in the design of photovoltaic plants. This results in an installation cost reduction which turns into a decrease in the LCOE.
However, this solution does not represent a breakthrough in addressing the real challenge of the technology which affects the module requirements. The innovation efforts must be focused on improving the modules capability to produce energy without enlarging the harvesting area. This challenge can be faced by approaching some of the module characteristics which are summarized in this chapter.
Advanced Determination of Temperature Coefficients of Photovoltaic Modules by Field Measurements
(2023)
In this work data from outdoor measurements, acquired over the course of up to three years on commercially available solar panels, is used to determine the temperature coefficients and compare these to the information as stated by the producer in the data sheets. A program developed in MatLab App Designer allows to import the electrical and ambient measurement data. Filter algorithms for solar irradiance narrow the irradiance level down to ~1000 W/m2 before linear regression methods are applied to obtain the temperature coefficients. A repeatability investigation proves the accuracy of the determined temperature coefficients which are in good agreement to the supplier specification if the specified values for power are not larger than -0.3%/K. Further optimization is achieved by applying wind filter techniques and days with clear sky condition. With the big (measurement) data on hand it was possible to determine the change of the temperature coefficients for varying irradiance. As stated in literature we see an increase of the temperature coefficient of voltage and a decline for the temperature coefficient of power with increasing irradiance.
Nachhaltigkeit von intelligenten Gebäuden - Ein Blick auf die Gesetzgebungen und Praxismöglichkeiten
(2023)
Gebäude sind durch ihre Herstellung und den Betrieb für einen erheblichen Teil der CO2-Emissionen in Europa verantwortlich. Die EU und Deutschland wollen durch milliardenschwere Maßnahmenpakete diese Emissionen bis zum Jahr 2045 (Deutschland) bzw. 2050 (EU) auf null reduzieren. Neben der Gebäudehülle als maßgeblicher Faktor für die Wärmebilanz zum Heizen und Kühlen spielt die Gebäudeautomation eine wichtige Rolle. Wie Gebäude intelligenter und smarter werden und wie sich das auf die Energieeffizienz auswirkt, soll im Folgenden betrachtet werden.
The concept of “Internationalisation at Home“ has gained momentum with the increasing digitalization of education and limitations on mobility. Collaborative Online International Learning (COIL) is an innovative, cost-effective instructional method that promotes intercul-tural learning through online collaboration between faculty and students from different countries or locations. The benefits of using COIL courses have been widely recognized, with learners developing intercultural competencies, digital skills, international education experi-ence, and global awareness.
However, multicultural communication in project environments can be complex and demand awareness of cultural variations . The creation and development of effective cross-cultural collectivism, trust, communication, and empathy in leadership is an important ingredient for remote project collaborations success. This is an area that has been least explored in re-search on communication in virtual teams.
The GIPE projects are mainly carried out as so-called Collaborative Online International Learning (COIL) events. However, to gain a “real world“ experience abroad in an intercultural team, students from all partner universities can participate in the Spring School being held for two weeks in Germany and the Germany students present and hand-over the results in the country of the partner university. The main objective of this research was to examine the experiences of students participating in the GIPE project and to evaluate the effectiveness of the project in enhancing intercultural competencies and fostering collaboration among stu-dents from different continents. This paper will also explore the implications of the GIPE project for Education 2.0 considering the COVID-19 pandemic and the future of education delivery and administration transformation.
Aufgrund der Energiewende und den steigenden Anforderungen an die technische Gebäudeausrüstung gewinnt der Betrieb von Wärmepumpen in Gebäuden immer mehr an Bedeutung. Inzwischen existiert eine Vielzahl an Wärmepumpen-Systemen, die unterschiedliche Vor- und Nachteile sowie Einsatzmöglichkeiten aufweisen. Sofern die Installation einer Wärmepumpe für den Wohngebäudesektor in Betracht gezogen wird, muss eruiert werden, welches System sowohl ökologisch als auch ökonomisch für das Bauvorhaben am sinnvollsten ist. Hierfür wurde eine Bewertungstool entwickelt, das den Einsatz der unterschiedlichen Wärmepumpensysteme bewertet und auch Nutzern mit wenig Expertise eine Entscheidungshilfe ermöglicht. Für eine möglichst ganzheitliche Betrachtung können verschiedene Szenarien mit Hilfe des Bewertungstools überprüft werden. Hierzu können Indikatoren wie Standortdaten, Gebäudedaten, Parameter für die Trinkwassererwärmung, die Systemtemperaturen der Heizung und die Betriebsweise der Wärmepumpe im Tool variiert werden. Die Ergebnisse des Bewertungstools zeigen, wie die unterschiedlichen Nutzungsanforderungen sich auf die Jahresarbeitszahl und den Energiebedarf auswirken. Zusätzlich werden Investitions- und Verbrauchskosten für die unterschiedlichen Szenarien abgeschätzt und berechnet. Bei der ökologischen Bewertung wird der Fokus der Betrachtung auf den TEWI-Wert gelegt, um den Einfluss von verschiedener Kältemittel im Lebenszyklus der Wärmepumpe zu berücksichtigen.
Jdpd - An open Java Simulation Kernel for Molecular Fragment Dissipative Particle Dynamics (DPD)
Jdpd is an open Java simulation kernel for Molecular Fragment Dissipative Particle Dynamics (DPD) with parallelizable force calculation, efficient caching options and fast property calculations. It is characterized by an interface and factory-pattern driven design for simple code changes and may help to avoid problems of polyglot programming. Detailed input/output communication, parallelization and process control as well as internal logging capabilities for debugging purposes are supported. The kernel may be utilized in different simulation environments ranging from flexible scripting solutions up to fully integrated “all-in-one” simulation systems like MFsim.
Since Jdpd version 1.6.1.0 Jdpd is available in a (basic) double-precision version and a (derived) single-precision version (= JdpdSP) for all numerical calculations, where the single precision version needs about half the memory of the double precision version.
Jdpd uses the Apache Commons Math and Apache Commons RNG libraries and is published as open source under the GNU General Public License version 3. This repository comprises the Java bytecode libraries (including the Apache Commons Math and RNG libraries), the Javadoc HTML documentation and the Netbeans source code packages including Unit tests.
Jdpd has been described in the scientific literature (the final manuscript 2018 - van den Broek - Jdpd - Final Manucsript.pdf is added to the repository) and used for DPD studies (see references below).
See text file JdpdVersionHistory.txt for a version history with more detailed information.
MFsim - An open Java all-in-one rich-client simulation environment for mesoscopic simulation
MFsim is an open Java all-in-one rich-client computing environment for mesoscopic simulation with Jdpd as its default simulation kernel for Molecular Fragment Dissipative Particle Dynamics (DPD). The environment integrates and supports the complete preparation-simulation-evaluation triad of a mesoscopic simulation task. Productive highlights are a SPICES molecular structure editor, a PDB-to-SPICES parser for particle-based peptide/protein representations, a support of polymer definitions, a compartment editor for complex simulation box start configurations, interactive and flexible simulation box views including analytics, simulation movie generation or animated diagrams. As an open project, MFsim enables customized extensions for different fields of research.
MFsim uses several open libraries (see MFSimVersionHistory.txt for details and references below) and is published as open source under the GNU General Public License version 3 (see LICENSE).
MFsim has been described in the scientific literature and used for DPD studies.
Fälle zum Europarecht
(2023)
Cookie notices (or cookie banners) are a popular mechanism for websites to provide (European) Internet users a tool to choose which cookies the site may set. Banner implementations range from merely providing information that a site uses cookies over offering the choice to accepting or denying all cookies to allowing fine-grained control of cookie usage. Users frequently get annoyed by the banner’s pervasiveness as they interrupt “natural” browsing on the Web. As a remedy, different browser extensions have been developed to automate the interaction with cookie banners.
In this work, we perform a large-scale measurement study comparing the effectiveness of extensions for “cookie banner interaction.” We configured the extensions to express different privacy choices (e.g., accepting all cookies, accepting functional cookies, or rejecting all cookies) to understand their capabilities to execute a user’s preferences. The results show statistically significant differences in which cookies are set, how many of them are set, and which types are set—even for extensions that aim to implement the same cookie choice. Extensions for “cookie banner interaction” can effectively reduce the number of set cookies compared to no interaction with the banners. However, all extensions increase the
tracking requests significantly except when rejecting all cookies.
Die Beschaffung von IT-Sicherheitslösungen ist für Unternehmen oft eine Herausforderung. So führt die Komplexität der Systeme dazu, dass die für eine Kaufentscheidung erforderlichen Kompetenzen und Informationen nicht immer vorhanden sind. Grundvoraussetzung für eine erfolgreiche Geschäftsbeziehung ist deswegen ein valides Vertrauensverhältnis zwischen Anwender- und Herstellerunternehmen. Das setzt jedoch voraus, dass die Herstellerunternehmen vertrauenswürdig auftreten und im Interesse ihrer Kunden handeln. Eine Studie der Westfälischen Hochschule Gelsenkirchen hat untersucht, welche Vertrauenskriterien Kunden bei Herstellern und deren Produkten wichtig sind. So ist zum Beispiel ein Hersteller bei den Kunden unten durch, wenn er zu viele Buzzwords nutzt.
Wie Datenräume helfen, neue Geschäftsmodelle zu entwickeln : sicher, vertrauenswürdig und dezentral
(2023)
In der heutigen Zeit werden sehr große Datenmengen generiert und verwaltet, dennoch wird der Wert der Daten in Deutschland und Europa noch nicht voll ausgeschöpft. Die gemeinsame Nutzung von Daten kann und soll datengetriebene Anwendungen noch weiter vorantreiben, bei der Erfüllung regulatorischer Anforderungen helfen sowie einen finanziellen Mehrwert für Firmen schaffen. Viele kleine bis mittelständische Unternehmen zögern derzeit jedoch, Daten untereinander auszutauschen, weil sie befürchten, die Hoheit über ihre Daten zu verlieren und nicht wissen, wer Zugriff auf die Daten hat und wofür die Daten verwendet werden.
Künstliche Intelligenz (KI) ermöglicht es, komplexe Zusammenhänge und Muster aus großen Datenmengen zu extrahieren und in einem statistischen Modell zu erfassen. Dieses KI-Modell kann anschließend Aussagen über zukünftig auftretende Daten treffen. Mit dem zunehmenden Einsatz von Künstlicher Intelligenz rücken solche Systeme auch immer mehr ins Visier von Cyberkriminellen. Der Artikel beschreibt umfassend Angriffsszenarien und mögliche Abwehrmaßnahmen.
Vor vier Jahren betrat die Datenschutz-Grundverordnung (DS-GVO) die Bühne und brachte für Unternehmen und Nutzer gleichermaßen Veränderungen mit sich. Doch gerade im dynamischen Umfeld des Online-Marketings tauchen ständig neue und oft knifflige Fragen auf – Fragen, die nun im Rahmen einer wissenschaftlichen Studie etwas genauer unter die Lupe genommen wurden.
Viele Unternehmen beginnen damit, Standards "wild" umzusetzen oder verschiedene Sicherheitsprodukte zu kaufen. Cybersicherheit muss aber auf einem soliden Fundament stehen. Dazu sollten die Verantwortlichen die eigenen Organisationsstrukturen kennen und die drei Schlüsselfaktoren Menschen, Prozesse und Technologie sorgfältig ausbalancieren.
Ventilanordnung und Verfahren zum Kühlen eines Wärmetauschers eines Fahrzeugs [Offenlegungsschrift]
(2023)
Die Erfindung betrifft eine Ventilanordnung umfassend wenigstens ein durch Gas, insbesondere Luft, durchströmbares Ventilelement (1, 1') mit einer Öffnung, wobei der Öffnung ein Dichtelement zugeordnet ist, mit dem die Öffnung verschließbar und/oder öffenbar ist, wobei das Dichtelement durch einen Dichtflächenbereich eines Plattenelements ausgebildet ist, vorzugsweise eines in zumindest einem möglichen Betriebszustand planen Plattenelements ausgebildet ist, wobei das Dichtelement der Öffnung des wenigstens einen Ventilelements gegenüberliegt und der das Dichtelement bildende Dichtflächenbereich des Plattenelements mittels wenigstens eines Spiralarmes mit einem Randflächenbereich des Plattenelements einstückig und relativ zum Randflächenbereich beweglich verbunden ist und der wenigstens eine Spiralarm von wenigstens einer um den Dichtflächenbereich verlaufenden spiralförmigen und durch Gas durchströmbare Ausnehmung in dem Plattenelement zumindest bereichsweise umgeben ist. Die Erfindung betrifft auch ein Verfahren zum Kühlen eines Wärmetauschers in
einem Fahrzeug.
Gerechter Zufall per Gesetz?
(2022)
Grundkurs C++
(2022)
Das gesamte Grundwissen zu C++ im praktischen Taschenbuchformat – zum Lernen und Nachschlagen. Vom ersten einfachen Programm bis zu komplexen Anwendungen. Übungen am Ende jedes Kapitels helfen Ihnen bei der Lernkontrolle. Sämtliche Grundlagen (Klassen, Vererbung, Polymorphie, Templates usw.) werden kurz und übersichtlich dargestellt. Diese dritte Auflage berücksichtigt aktuelle Standars bis C++20.
Der Datenjournalismus wird gleichermaßen stark in der Nachrichtenbranche beobachtet und in der Journalismusforschung reflektiert. Dieser Beitrag beschreibt das Phänomen zunächst im Kontext des Megatrends der Automatisierung des Journalismus. Anschließend wird die erste Trendstudie zum Da-tenjournalismus in Deutschland vorgestellt: Die Berufsfeldstudie war 2012 und 2019 im Feld. Die ge-wählten Items ermöglichen einen Längsschnitt-Vergleich der Entwicklung des Datenjournalismus. Bei einem Vergleich mit den nationalen Daten der „Worlds of Journalism Study“ werden weitere Gemein-samkeiten und Unterschiede deutlich. Die Ergebnisse zeigen, dass sich der Datenjournalismus in Deutschland zunehmend institutionalisiert hat und Datenjournalist:innen sich stark einem investigati-ven politischen Journalismus verpflichtet fühlen.
Kompensationsgeschäfte sind als Kopplungsgeschäfte medienrechtlich verboten. Laut Berichten von Praktiker*innen sind sie jedoch alltägliches Werkzeug im Austausch zwischen Journalist*innen und Verlagen einerseits sowie PR-Akteur*innen und Werbungtreibenden andererseits. Auf Grundlage kommunikationswissenschaftlicher, medienrechtlicher und betriebswirtschaftlicher Literatur sowie einer Befragung von 37 Expert*innen aus der Kommunikationsbranche wird untersucht, welche Formen von Kompensationsgeschäften in der Praxis existieren und welche Rolle Kompensationsgeschäfte im Wechselverhältnis von Öffentlichkeitsarbeit und Journalismus spielen. In der alltäglichen Berufspraxis mancher Branchen und Redaktionen werden im Ergebnis mit großer Selbstverständlichkeit Kompensationsgeschäfte genutzt. Daher wird nach einem definitorischen Abgleich von Induktionen, Adaptionen und Kompensationen eine Erweiterung des Intereffikationsmodells vorgeschlagen.
Journalismus und Werbung. Zur Trennung von redaktionellen Inhalten und kommerzieller Kommunikation
(2022)
Der Trennungsgrundsatz zwischen redaktionellen Inhalten und kommerzieller Kommunikation schützt sowohl die Demokratie- wie auch die Werbeträgerfunktion von Massenmedien. Dieser Beitrag stellt für die diversen Aspekte des Trennungsgrundsatzes wie die Kennzeichnungspflicht, das Verbot von bezahlten Inhalten und Kopplungsgeschäften sowie die Handhabung zahlreicher Darstellungsformen redaktioneller Werbung alle verfügbaren gesetzlichen und standesrechtlichen Regelungen zusammen. Anschließend wird für die einzelnen Aspekte des Trennungsgrundsatzes der Stand der Forschung insbesondere hinsichtlich Beschreibung und Wirkung referiert. Schließlich werden Lösungsvorschläge für die aktuelle Anwendung und Desiderata zusammengetragen.
Journalism and Advertising. On the Separation of Editorial Content and Commercial Communication
(2022)
The principle of separation between editorial content and commercial communication protects both the democratic and the commercial function of mass media. This article compiles all available statutory and professional regulations in Germany as an example of the various aspects of the principle of separation, such as the labeling obligation, the prohibition of paid content and tying transactions, as well as the handling of numerous forms of presentation of editorial advertising. Subsequently, the state of research is reported for the individual aspects of the principle of separation, in particular with regard to description and effect. Finally, proposed solutions for current application and desiderata are compiled.
Different charge treatment approaches are examined for cyclotide-induced plasma membrane disruption by lipid extraction studied with dissipative particle dynamics. A pure Coulomb approach with truncated forces tuned to avoid individual strong ion pairing still reveals hidden statistical pairing effects that may lead to artificial membrane stabilization or distortion of cyclotide activity depending on the cyclotide’s charge state. While qualitative behavior is not affected in an apparent manner, more sensitive quantitative evaluations can be systematically biased. The findings suggest a charge smearing of point charges by an adequate charge distribution. For large mesoscopic simulation boxes, approximations for the Ewald sum to account for mirror charges due to periodic boundary conditions are of negligible influence.
Wie wählen Nachrichtenmedien aus, worüber sie berichten? Dieser Frage versuchen Nachrichtenwertforschende seit vielen Jahren auf den Grund zu gehen. Die Nachrichtenwertforschung ist eine der traditionsreichsten Forschungsrichtungen der Journalismusforschung, die bis zum heutigen Tag aktuell ist. Begründet wurde sie bereits in den 1920er-Jahren von Walter Lippmann, internationale Bekanntheit erfuhr sie durch Johan Galtung und Mari Holmboe Ruge, die 1965 eine Liste von Nachrichtenfaktoren entwickelten und diese empirisch überprüften. Es folgten unzählige empirische Untersuchungen zu diesem Thema, die sich an einer Weiterentwicklung der Theorie versuchten. Der vorliegende Beitrag gibt einen Überblick über die Entwicklungsgeschichte der Nachrichtenwertforschung und skizziert, was Forschende heutzutage an der Thematik interessiert.
„Digital gestützte Lehrveranstaltungen“ im Sinne von § 1a Abs. 2 LVV (NRW) – eine erste Annäherung
(2022)
The use of molecular string representations for deep learning in chemistry has been steadily increasing in recent years. The complexity of existing string representations, and the difficulty in creating meaningful tokens from them, lead to the development of new string representations for chemical structures. In this study, the translation of chemical structure depictions in the form of bitmap images to corresponding molecular string representations was examined. An analysis of the recently developed DeepSMILES and SELFIES representations in comparison with the most commonly used SMILES representation is presented where the ability to translate image features into string representations with transformer models was specifically tested. The SMILES representation exhibits the best overall performance whereas SELFIES guarantee valid chemical structures. DeepSMILES perform in between SMILES and SELFIES, InChIs are not appropriate for the learning task. All investigations were performed using publicly available datasets and the code used to train and evaluate the models has been made available to the public.
The translation of images of chemical structures into machine-readable representations of the depicted molecules is known as optical chemical structure recognition (OCSR). There has been a lot of progress over the last three decades in this field, but the development of systems for the recognition of complex hand-drawn structure depictions is still at the beginning. Currently, there is no data for the systematic evaluation of OCSR methods on hand-drawn structures available. Here we present DECIMER — Hand-drawn molecule images, a standardised, openly available benchmark dataset of 5088 hand-drawn depictions of diversely picked chemical structures. Every structure depiction in the dataset is mapped to a machine-readable representation of the underlying molecule. The dataset is openly available and published under the CC-BY 4.0 licence which applies very few limitations. We hope that it will contribute to the further development of the field.
Dieses Buch betrachtet die grundlegenden logistischen Bereiche zur Beschaffung, Produktion, Distribution und Entsorgung und zeigt, welche Themen und Aspekte das Logistikmanagement umfassen. In der Logistik geht es vor allem um die Optimierung des Materialflusses, der Kapazitätsauslastung, der Transportstrecke oder der Maschinenbelegung. Für den Bereich des Supply Chain Management wird die Funktionsweise, Koordination und Resilienz der Supply Chain auch vor dem Hintergrund aktueller Lieferkettenstörungen und der Einführung des Lieferkettensorgfaltspflichtengesetzes beschrieben.
Das Buch ermöglicht, anhand von zahlreichen Anwendungs- und quantitativen Übungsbeispielen, das im Studium benötigte Wissen leicht nachvollziehbar zu erlangen und zu vertiefen.
Das Phänomen des Shareholder Activismbzw. der aktivistischen Investorenwar bis vor wenigen Jahren primär aus demangloamerikanischen Raumbekannt. Seit einiger Zeit sind verstärkt auch europäische und deutscheUnternehmen das Ziel von aktivistischen Aktionären. Der vorliegendeBeitrag zeigt die Zielsetzungen dieser Investorengruppe und die hierbeiverfolgten Strategien bzw. eingesetzten Maßnahmen auf, womit paralleleine Beschreibung des Geschäftsmodells des finanziell geprägten Share-holder Activismvorgelegt wird.
Hintergrund
Während der SARS-CoV-2-Pandemie ist es vorrangig, die Mitarbeiter vor Infektionsrisiken zu schützen und die Geschäftstätigkeit zu sichern. Neue Virusvarianten mit erhöhter Ansteckungsgefahr erfordern eine weiterentwickelte Risikostrategie.
Material und Methoden
Mehrere Standardmaßnahmen wie Tests, Isolierung und Quarantäne werden zu einer neuartigen Risikostrategie kombiniert. Epidemiologische Modellrechnungen und wissenschaftliche Erkenntnisse über den Verlauf der SARS-CoV-2-Infektiosität werden zur Optimierung dieser Strategie herangezogen. Das Verfahren ist in einem einfach zu bedienenden Rechner auf Excel-Basis implementiert.
Aufbau in der Praxis und Ergebnisse
Alternative Maßnahmenkombinationen und praktische Aspekte werden erörtert. Anhand von Beispielrechnungen wird die Wirkung der diskutierten Maßnahmen demonstriert.
Schlussfolgerung
Der aus diesen Grundlagen abgeleitete Quarantäne-Rechner ermöglicht es auch Nicht-Fachleuten, eine differenzierte Risikoanalyse durchzuführen und optimierte Maßnahmen einzuleiten. Gezielte Prüfroutinen und alternative Maßnahmen sichern die Personalverfügbarkeit.
The development of deep learning-based optical chemical structure recognition (OCSR) systems has led to a need for datasets of chemical structure depictions. The diversity of the features in the training data is an important factor for the generation of deep learning systems that generalise well and are not overfit to a specific type of input. In the case of chemical structure depictions, these features are defined by the depiction parameters such as bond length, line thickness, label font style and many others. Here we present RanDepict, a toolkit for the creation of diverse sets of chemical structure depictions. The diversity of the image features is generated by making use of all available depiction parameters in the depiction functionalities of the CDK, RDKit, and Indigo. Furthermore, there is the option to enhance and augment the image with features such as curved arrows, chemical labels around the structure, or other kinds of distortions. Using depiction feature fingerprints, RanDepict ensures diversely picked image features. Here, the depiction and augmentation features are summarised in binary vectors and the MaxMin algorithm is used to pick diverse samples out of all valid options. By making all resources described herein publicly available, we hope to contribute to the development of deep learning-based OCSR systems.
Krankenhäuser in Deutschland befinden sich seit vielen Jahren in einer schwierigen finanziellen Lage, weshalb bei nicht wenigen von ihnen ein konkretes Insolvenzrisiko zu beobachten ist. Diese Entwicklung verstärkt den Druck auf die Krankenhäuser, noch intensiver als bisher eine Verbesserung ihrer Liquiditätssituation zu erreichen. Ein optimiertes Working Capital kann die Verbesserung der Liquidität wirksam unterstützen. Der vorliegende Beitrag zeigt die zentralen Komponenten des Working Capitals bzw. des Cash Conversion Cycle in Krankenhäusern auf, erläutert wichtige Gestaltungsbereiche zur Verbesserung des Working Capitals und zeigt zudem auf der Basis aktueller Untersuchungsergebnisse die Ist-Situation auf.
Planung bzw. Budgetierung bilden ein zentrales Element des Controlling. Aussagekräftige Ergebnisse der Budgetierung sind unverzichtbar für die Steuerung der im Unternehmen verfügbaren Ressourcen. Entsprechend der hohen Bedeutung der Budgetierung ist eine intensive methodische Innovationsbereitschaft bei den Planungsinstrumenten in den letzten Jahren zu beobachten. Zwischenzeitlich werden auch die Einsatzbereiche des Zero-Based-Budgeting wieder intensiver diskutiert (= reloaded), wobei hier die Besonderheit darin besteht, dass dieses Instrument bereits in den 80er Jahren für einige Jahre eine stärkere Beachtung in der betriebswirtschaftlichen Theorie und Praxis gefunden hatte.
Die Ukrainekrise und coronabedingte Lieferkettenprobleme treiben derzeitdie Rohstoff-, Material- und Lebensmittelpreise hoch. Auch die Inflationser-wartungen steigen; es drohen Zweitrundeneffekte imGefolge höhererLohnforderungen und Lohnabschlüsse. Langfristig könnten in der Eurozoneweitere Faktoren die Inflation treiben, z.B. angebotsseitig der Fachkräfte-mangel sowie globale Nahrungsmittelknappheiten und politikseitig diegewollten Effekte der Klimapolitik. Der Beitrag diskutiert vor diesemHinter-grund geldpolitische Implikationen.
Ein größerer Anteil der in den letzten Jahren vorgenommenen Unternehmensakquisitionen wurde maßgeblich mit attraktiven Synergieerwartungen begründet. Bei näherer Betrachtung können diese Synergien oft nur wenig präzise quantifiziert und der Zeitpunkt ihrer Realisierung nur ungenau eingeordnet werden. Der vorliegende Beitrag zeigt die Bedeutung von Synergien in Verbindung mit dem Goodwill, grenzt die Kosten- und Umsatzsynergien inhaltlich ab und befasst sich auf der Basis zahlreicher Studien mit dem aktuellen Erkenntnisstand in Verbindung mit der Vorbereitung und Realisierung von Kosten- und Umsatzsynergien.
Air Handling units (AHU) are designed to guarantee a high indoor air quality for any time and outdoor condition all over the year. To do so, the AHU removes particle matter like dust or pollen and adapts the thermophysical properties of air to the desired, seasonal indoor comfort conditions. AHU have a robust design and thus operate for more than fifteen years, sometimes even for decades. An AHU designed today must consider and anticipate the change of user needs as well as outdoor air conditions for the next twenty years. To anticipate the outdoor air condition of coming decades, scientific models exist, which allow the design of peak performance and capacities of the air treatment components. It is most likely, that the ongoing climate change will lead to higher temperatures as well as higher humidity, while the comfort zone of human beings will remain at today’s values. Next to the impact of global warming with average rise of mean air temperature local effects will influence the operation of AHU. On effect investigated here is the steep temperature increase in city centres called urban heat islands. Heating and cooling capacities as well as water consumption for humidification are investigated for a reference AHU for fifteen regional locations in Germany. These regions represent all climate zones within the country. Additionally, the urban heat island effect was investigated for Berlin Alexanderplatz compared a rural area close by. The AHU was chosen to operate in an intensive care unit of a hospital. The set-up leads to 24/7 operation with 8760 hours per year. The article presents the modelling of current and future weather data as well as the unit set up. The calculated hourly performance and capacity parameters for current (reference year 2012) and future weather data (reference year 2045) yield energy consumption and peak loads of the unit for heating, cooling and humidification. The results are displayed by relative comparisons of each performance value.
Biomimetics is a well-known approach for technical innovation. However, most of its influence remains in the academic field. One option for increasing its application in the practice of technical design is to enhance the use of the biomimetic process with a step-by-step standard, building a bridge to common engineering procedures. This article presents the endeavor of an interdisciplinary expert panel from the fields of biology, engineering science, and industry to develop a standard that links biomimetics to the classical processes of product development and engineering design. This new standard, VDI 6220 Part 2, proposes a process description that is compatible and connectable to classical approaches in engineering design. The standard encompasses both the solution-based and the problem-driven process of biomimetics. It is intended to be used in any product development process for more biomimetic applications in the future.
Robot arms are one of many assistive technologies used by people with motor impairments. Assistive robot arms can allow people to perform activities of daily living (ADL) involving grasping and manipulating objects in their environment without the assistance of caregivers. Suitable input devices (e.g., joysticks) mostly have two Degrees of Freedom (DoF), while most assistive robot arms have six or more. This results in time-consuming and cognitively demanding mode switches to change the mapping of DoFs to control the robot. One option to decrease the difficulty of controlling a high-DoF assistive robot arm using a low-DoF input device is to assign different combinations of movement-DoFs to the device’s input DoFs depending on the current situation (adaptive control). To explore this method of control, we designed two adaptive control methods for a realistic virtual 3D environment. We evaluated our methods against a commonly used non-adaptive control method that requires the user to switch controls manually. This was conducted in a simulated remote study that used Virtual Reality and involved 39 non-disabled participants. Our results show that the number of mode switches necessary to complete a simple pick-and-place task decreases significantl when using an adaptive control type. In contrast, the task completion time and workload stay the same. A thematic analysis of qualitative feedback of our participants suggests that a longer period of training could further improve the performance of adaptive control methods.
Media Brand Management
(2022)
The management of media brands faces challenges. In order to be able to point out possible solutions, this article first explains the concept and the nature of “media brands.” Subsequently, various theoretical approaches to the explanation of media brands and their management are presented. Regardless of theoretical preferences, it is important to keep in mind the brand-strategic complexity of media management that is subsequently described. Due to their specificity, special attention is paid to the basic strategic positioning options and to the communication management of media brands. In this way, the special features of media brand management become clear in comparison with other products and services.
Nowadays, robots are found in a growing number of areas where they collaborate closely with humans. Enabled by lightweight materials and safety sensors, these cobots are gaining increasing popularity in domestic care, where they support people with physical impairments in their everyday lives. However, when cobots perform actions autonomously, it remains challenging for human collaborators to understand and predict their behavior, which is crucial for achieving trust and user acceptance. One significant aspect of predicting cobot behavior is understanding their perception and comprehending how they “see” the world. To tackle this challenge, we compared three different visualization techniques for Spatial Augmented Reality. All of these communicate cobot perception by visually indicating which objects in the cobot’s surrounding have been identified by their sensors. We compared the well-established visualizations Wedge and Halo against our proposed visualization Line in a remote user experiment with participants suffering from physical impairments. In a second remote experiment, we validated these findings with a broader non-specific user base. Our findings show that Line, a lower complexity visualization, results in significantly faster reaction times compared to Halo, and lower task load compared to both Wedge and Halo. Overall, users prefer Line as a more straightforward visualization. In Spatial Augmented Reality, with its known disadvantage of limited projection area size, established off-screen visualizations are not effective in communicating cobot perception and Line presents an easy-to-understand alternative.
This chapter describes a new concept and experiences of a distributed interdisciplinary learning program for students across continents. The aim is to provide students with a truly Global Intercultural Project Experience (GIPE) by working together with peers from around the world and solving real-life client’s problems. We have received seed-funding for four annual projects to engage students from Germany (Europe), Namibia (Africa), Indonesia (Asia), and Peru (South America). In 2020 and 2021, 28 and 44 students from four continents engaged in a one-semester distributed interdisciplinary project for a Namibian and Indonesian client, respectively. Despite Covid-19 they successfully completed the project expressing deep appreciation for the learning opportunities overcoming challenges of working across widespread time zones, cultures, changing requirements, and various technical difficulties. Considering the vast learning benefits, we suggest incorporating such projects in all tertiary education curricula across the globe, while streamlining organizational efforts based on lessons learned.
Fruits (follicles) of Hakea salicifolia and Hakea sericea (Proteaceae) are characterised by pronounced lignification and open via a ventral suture and the dorsal side. The opening along both sides is unique within the Proteaceae. Both serotinous species are obligate seeders, whose spreading benefits from bush fire events. The different tissues and the course of the vascular bundles must allow the opening mechanism. While their 2D-arrangements are known to some extent from light-microscopy images of cross-sections, this work presents their three-dimensional structures and discusses their contribution to the opening of Hakea fruits. For this purpose, 3D greyscale images, reconstructed from µCT-projection data of both fruits are segmented, assisted by a deep learning algorithm (AI algorithm). 3D renderings from these segmentations show strongly interconnected vascular bundles that build a double-dome shaped network in each valve of H. salicifolia and a dome shaped honeycomb-structure in each valve of H. sericea. However, the vascular bundles of both species show no interconnection between the two lateral valves of the fruit but leave gaps for predetermined fracture tissues on the ventral and dorsal side. The opening of the fruits after a fire or after separation from the mother plant can be explained by the anisotropic shrinkage in the two valves of the fruit.
We investigated the formation of Artemia franciscana swarms of freshly hatched instar I nauplii larvae. Nauplii were released into light gradients but then interrupted by light-direction changes, small obstacles, or long barriers. All experiments were carried out horizontally. Each experiment used independent replicates. Freshly produced Artemia broods were harvested from independent incubators thus providing true replicate cohorts of Artemia subjected as replicates to the experimental treatments.
We discovered that Artemia nauplii swarms can: 1. repeatedly react to non-obstructed light gradients that undergo repeated direction-changes and do so in a consistent way, 2. find their way to a light source within maze-like arrangements made from small transparent obstacles, 3. move as a swarm around extended transparent barriers, following a light gradient. This paper focuses on the recognition of whole-swarm behaviors, the description thereof and the recognition of differences in whole-swarm movements comparing non-obstructed swarming with swarms encountering obstacles. Investigations of the within-swarm behaviors of individual Artemia nauplii and their interactions with neighboring nauplii are in progress, e.g. in order to discover the underlying swarming algorithms and differences
thereof comparing non-obstructed vs. obstructed pathways.
The concept of molecular scaffolds as defining core structures of organic molecules is utilised in many areas of chemistry and cheminformatics, e.g. drug design, chemical classification, or the analysis of high-throughput screening data. Here, we present Scaffold Generator, a comprehensive open library for the generation, handling, and display of molecular scaffolds, scaffold trees and networks. The new library is based on the Chemistry Development Kit (CDK) and highly customisable through multiple settings, e.g. five different structural framework definitions are available. For display of scaffold hierarchies, the open GraphStream Java library is utilised. Performance snapshots with natural products (NP) from the COCONUT (COlleCtion of Open Natural prodUcTs) database and drug molecules from DrugBank are reported. The generation of a scaffold network from more than 450,000 NP can be achieved within a single day.
Im zweiten Corona-Winter sollen die Schulen offenbleiben. Neben Fenster- und mechanischer Lüftung werden mobile Raumluftreiniger als sinnvolle Maßnahmen angesehen, um das Infektionsrisiko zu reduzieren. Dabei stellt sich die Frage, wie deren sicherer und zuverlässiger Betrieb gestalten sein muss. Gibt es bevorzugte Aufstellpositionen im Raum und wie wirkt sich die Luftbewegung auf die Behaglichkeit aus? Die Datenlage hierzu ist noch unzureichend (vgl. HLH-Interview mit Dr. Gommel, HLH 10/2021). Diese Fragen werden für einen typischen Seminar- und Klassenraum näher beleuchtet.
Zentrale Raumlufttechnische Anlagen (RLT-Anlagen) sind für Betriebszeiten von fünfzehn und mehr Jahren konzipiert. Nicht selten werden die Geräte auch nach 25 Jahren Dank Retrofit weiterbetrieben. Unberücksichtigt bleibt dabei, ob die zukünftigen, klimatischen Bedingungen noch der Auslegung entsprechen. Zur Überprüfung der klimatischen Änderungen können sogenannte Testreferenzjahre (TRY – Test Reference Year) genutzt werden. Diese basieren für die heutige Auslegung auf den lokalen, stündlichen Wetterbedingungen im Bezugsjahr 2012 und zusätzlich auf modellbasierten Wetterdaten für das Bezugsjahr 2045.
Das Zentralluftgerät einer Krankenhaus-Intensivstation wurde für die 15 Wetter¬stationen der VDI 4710, Blatt 3 in Deutschland auf die Leistungsanforderungen von heute und für das Jahr 2045 untersucht. Zusätzlich wurden für den Standort Berlin die aktuellen Wetteraufzeichnungen im Sommer 2020 betrachtet. Daraus lassen sich Rückschlüsse ziehen, wie sich städtische Wärmeinseln (UHI – Urban Heat Islands) zukünftig auf den Energie- und Leistungsbedarf zur Gebäudeklimatisierung auswirken werden.
Die Auswirkungen auf die Wärme- und Kältespitzenleistung sowie der kumulierte Energiebedarf werden genauso analysiert wie der Befeuchtungsbedarf. Hieraus lassen sich die potenziellen Leistungsreserven abschätzen und die Klimaresilienz der Anlagentechnik bewerten.
The development of deep learning-based optical chemical structure recognition (OCSR) systems has led to a need for datasets of chemical structure depictions. The diversity of the features in the training data is an important factor for the generation of deep learning systems that generalise well and are not overfit to a specific type of input. In the case of chemical structure depictions, these features are defined by the depiction parameters such as bond length, line thickness, label font style and many others. Here we present RanDepict, a toolkit for the creation of diverse sets of chemical structure depictions. The diversity of the image features is generated by making use of all available depiction parameters in the depiction functionalities of the CDK, RDKit, and Indigo. Furthermore, there is the option to enhance and augment the image with features such as curved arrows, chemical labels around the structure, or other kinds of distortions. Using depiction feature fingerprints, RanDepict ensures diversely picked image features. Here, the depiction and augmentation features are summarised in binary vectors and the MaxMin algorithm is used to pick diverse samples out of all valid options. By making all resources described herein publicly available, we hope to contribute to the development of deep learning-based OCSR systems.
BIM-Daten sind vielfältig und entstehen an unterschiedlichen Zeitpunkten im Bauprojekt. Das Verständnis und der Umgang mit diesen Daten sind wesentliche Merkmale der BIM-Methodik.
Für den Anwender ist dabei nicht immer sofort klar, wie und in welcher Detailtiefe Bauwerksinformationen – über die reine Geometrie hinaus – bereitgestellt werden müssen.
In diesem Buch werden die Modelle und Formate vor-
gestellt. Dabei werden insbesondere die Attribute und Eigenschaften der BIM-Objekte betrachtet.
Die Nutzung der Daten und das dazugehörige Datenmanagement werden anschaulich erklärt. Praktische Tipps zur richtigen Softwareauswahl schließen das Buch ab.
We study the dynamics of a quantum two-state system driven through an avoided crossing under the influence of a super-Ohmic environment. We determine the Landau–Zener probability employing the numerical exact quasi-adiabatic path integral and a Markovian weak coupling approach. Increasing the driving time in the numerical protocol, we find converged results which shows that super-Ohmic environments only influence the Landau Zener probability within a finite crossing time window. This crossing time is qualitatively determined by the environmental cut-off energy. At weak coupling, we show that the Markovian weak coupling approach provides an accurate description. Since pure dephasing of a super-Ohmic bath is non-Markovian, this highlights that pure dephasing hardly influences the Landau–Zener probability. The finite crossing time window, thus, results from the suppression of relaxation once the energy splitting exceeds the environmental cut-off energy.
A quantum two-level system immersed in a sub-Ohmic bath experiences enhanced low-frequency quantum statistical fluctuations which render the nonequilibrium quantum dynamics highly non-Markovian. Upon using the numerically exact time-evolving matrix product operator approach, we investigate the phase diagram of the polarization dynamics. In addition to the known phases of damped coherent oscillatory dynamics and overdamped decay, we identify a new third region in the phase diagram for strong coupling showing an aperiodic behavior. We determine the corresponding phase boundaries. The dynamics of the quantum two-state system herein is not coherent by itself but slaved to the oscillatory bath dynamics.
We propose a quantum-mechanical model to calculate the nonlinear differential conductance of a single molecular junction immersed in a solvent, either in pure form or as a binary mixture with varying volume fraction. The solvent mixture is captured by a dielectric continuum model for which the resulting spectral density is determined within the Gladstone-Dale approach. The conductance of the molecular junction is calculated by a real-time diagrammatic technique. We find a strong variation of the conductance maximum for varying volume fraction of the solvent mixture. Importantly, the calculated molecular nonlinear conductance shows a very good agreement with experimentally measured data for common molecular junctions in various polar solvent mixtures.
Einleitung und Fragestellung
Zahlreiche empirische Befunden sprechen für die positiven Effekte authentischer Führung. Wir untersuchen ihre Antezedenzien.
Theoretischer Hintergrund
Authentische Führung meint Handeln im Einklang mit moralischen Werten. Aus sozialkognitiver Perspektive bezeichnet moralische Identität eine komplexe Wissensstruktur aus moralischen Werten, Zielen und Verhaltensmustern, welche durch Lebenserfahrungen erworben werden. Darin sehen wir eine Basis für authentische
Führung (H1). Sich trotz sozialer Opposition für moralische Prinzipien einzusetzen, ist bezeichnend für Mut. Dieser zeigt sich in selbstkongruentem Verhalten trotz negativer
Konsequenzen. Dem Identitätsprozessmodell folgend, wird Mut notwendig, wenn Identiätsspannungen Inkongruenz zwischen Selbstkonzept und sozialer Identität hervorrufen. Darin sehen wir ein Aktivierungspotenzial für authentische Führung (H2).
Methode
Wir befragten N = 70 Führungsdyaden eines Industriekonzerns. Mut (WSCS; Howard et al., 2016) und moralische Identität(MIS; Aquino & Reed, 2002) wurden als Selbsteinschätzung der Führungskräfte erhoben (Altersdurchschnitt: 46 Jahre, 59% ♂). Authentische Führung (ALQ, Walumbwa et al., 2008) erfassten wir als Fremdeinschätzung durch Mitarbeitende (Altersdurchschnitt: 37, 47% ♂).
Ergebnisse
Moralische Identität und tatsächliches Verhalten müssen scheinbar nicht notwendigerweise übereinstimmen; etwa wenn hohe Kosten für moralisches Verhalten erwartbar sind. Hier setzt sozialer Mut im Arbeitskontext an. Entsprechend
wird eine mutig agierende Führungskraft als authentisch wahrgenommen, vor allem, wenn dieses Verhalten mögliche negative soziale Konsequenzen beinhaltet.
Diskussion
Mutiges Handeln wird durch Persönlichkeit, Selbstwirksamkeit und aktuelle Emotionen geleitet und kann etwa in der Führungskräfteentwicklung gelernt werden.
Hier bieten sich narrative Formate an, die die Selbstreflexion fördern. Auch bzgl. der Entwicklung authentischer Führung verweisen erste Befunde auf die Bedeutung der persönlichen Reflexion, z.B. über die eigene Lebensgeschichte.
To address the question which neocortical layers and cell types are important for the perception of a sensory stimulus, we performed multielectrode recordings in the barrel cortex of head-fixed mice performing a single-whisker go/no-go detection task with vibrotactile stimuli of differing intensities. We found that behavioral detection probability decreased gradually over the course of each session, which was well explained by a signal detection theory-based model that posits stable psychometric sensitivity and a variable decision criterion updated after each reinforcement, reflecting decreasing motivation. Analysis of multiunit activity demonstrated highest neurometric sensitivity in layer 4, which was achieved within only 30 ms after stimulus onset. At the level of single neurons, we observed substantial heterogeneity of neurometric sensitivity within and across layers, ranging from nonresponsiveness to approaching or even exceeding psychometric sensitivity. In all cortical layers, putative inhibitory interneurons on average proffered higher neurometric sensitivity than putative excitatory neurons. In infragranular layers, neurons increasing firing rate in response to stimulation featured higher sensitivities than neurons decreasing firing rate. Offline machine-learning-based analysis of videos of behavioral sessions showed that mice performed better when not moving, which at the neuronal level, was reflected by increased stimulus-evoked firing rates.
Daten sind heute die Schlüsselkomponente in der Wertschöpfung. Ihre sichere und vertrauenswürdige Verarbeitung sind daher essenziell - auch in Cloud-Infrastrukturen, die per se erst mal nicht vertrauenswürdig sind. Während die Daten und der Code der sie verarbeitenden Anwendung hier in gespeicherter Form und bei der Übertragung in der Regel verschlüsselt sind, liegt beides während der Verarbeitung von Anwendungen in einer Cloud-Infrastruktur im Klartext vor und ist somit angreifbar. Auf der Basis von Sicherheitsfunktionen der CPU sorg Confidential Computing dafür, dass Anwendungen mit Code und Daten auf Cloud-Infrastrukturen in isolierter und verschlüsselter Form in sicheren Enklaven verarbeitet werden. Die Inhalte der Anwendung in einer Enklave werden so vor unbefugten Zugriff durch Systemadministratoren und weiteren Personen, die prinzipiell Zugriff auf die Cloud-Infrastruktur haben, geschützt. Technik unterstützt auf diese Weise die sichere und vertrauenswürdige Umsetzung des Datenschutzes.
Das Internet hat sich als globale Kommunikations-, Informations-, Commerce- und Businessinfrastruktur fest in der Gesellschaft etabliert. Mit jedem Grad Zuwachs bei der Digitalisierung wird das Leben einfacher und schneller - aber auch gefährlicher. Die konkrete Gefährlichkeit bleibt dabei bislang oft ein Mysterium - Strategien für die IT-Sicherheit müssen auf Basis von Annahmen und Erfahrungen entwickelt werden. Internet-Kennzahlen und deren systematische Auswertung sollen nun dabei helfen, Probleme, Risiken und Schwachstellen als Trend zu erkennen, um Sicherheitsstrategien proaktiv fokussierter zu gestalten. Auch der Stand der IT-Sicherheit lässt sich durch Messung der Kennzahlen ermitteln und bewerten. Internet-Kennzahlen werden von lokalen und globalen Anbietern bereitgestellt.
Supply-Chain-Angriffe sind eine akute Bedrohung für jedes Unternehmen. Einen Softwarelieferanten auszunutzen, um eine große Anzahl seiner Kunden zu erreichen, ist eine ausgeklügelte und erfolgreiche Methode aktueller Hacker. Die Spezialisierung der Unternehmen auf ihre Kernkompetenzen, die Globalisierung der Lieferketten (im folgendem wird Supply Chain und Lieferkette synonym verwendet), sowie die Digitalisierung entlang der Wertschöpfungskette sind nur einige Beispiele, wieso Angreifer vermehrt die Vertrauensbeziehung zwischen Kunden und Lieferanten verstärkt für Angriffe ausnutzen. Dieser Artikel erläutert Cyber-Angriffe in Bezug auf eine Supply Chain und zeigt Sicherheitsmechanismen für die erfolgreiche Verteidigung.
Das Gesundheitswesen in Deutschland, Europa, aber auch weltweit steht gerade erst am Beginn eines notwendigen und besonderen Digitalisierungsschubs. Ein wichtiger Schritt im Rahmen dieser Digitalisierung wird es sein, sämtliche medizinische Daten leistungsträgerübergreifend einfach verfügbar zu machen. Dies ermöglicht neue Methoden der Behandlung wie durch KI-Ansätze oder die Vermeidung von Doppelbehandlungen. Zur Erreichung dieser Ziele ist es unabdingbar, dass moderne medizintechnische IT-Geräte miteinander vernetzt werden und die anfallenden Daten sicher verarbeitet und hinterlegt werden. Durch diesen Prozess entstehen aber auch neue Angriffsvektoren und die Risiken steigen erheblich an.
Diese Arbeit beschreibt zunächst grundlegende Cyber-Sicherheitsstrategien, die helfen die vorhandenen Risiken zu minimieren und mit den verbleibenden Risiken umzugehen. Zusätzlich werden konkrete Sicherheitsbedürfnisse- und Anforderungen, die zur Vernetzung von Medizintechnik und zur Verarbeitung von Daten in der Cloud, nötig sind diskutiert. Abschließend wird eine Gesamtarchitektur vorgestellt, die diese Sicherheitsbedürfnisse umsetzt.
Digitale Sprachassistenten wie Alexa, Google, Siri & Co erfreuen sich auch in Deutschland hoher Beliebtheit - Tendenz steigend. Bei allen genannten und vielen weiteren Systemen handelt es sich um cloudbasierte Architekturen - die gesprochenen Befehle werden in Rechenzentren rund um den Globus übertragen und dort interpretiert. Aus Sicht des Datenschutzes und der Privatsphäre ist das problematisch. Auch die Abhängigkeit zu Cloud-Anbietern kann zu Schwierigkeiten führen, z.B. wenn sich die Sprachassistenten oder Smart-Home-Geräte nicht mehr nutzen lassen, weil der Anbieter seinen Dienst einstellt. Im Rahmen eines internen Forschungsprojekts hat das Institut für Internet-Sicherheit nun einen "dezentralen" Sprachassistenten entwickelt, der im Offline-Betrieb operiert und die Sprachdaten lokal auf dem Gerät verarbeitet, ohne sie in eine entfernte Cloud übertragen zu müssen.
Im Prinzip wollen und müssen Menschen auch in der digitalen Welt vertrauen (können) – nicht zuletzt, um grundsätzlich handlungsfähig zu sein. Aber auch, weil teilweise gar keine andere Wahl besteht, als einfach zu vertrauen, da die IT-Technologien mittlerweile nicht nur so allgegenwärtig, sondern auch so komplex geworden sind, dass der Nutzer sie vielfach gar nicht mehr einschätzen kann. Daher ist es – insbesondere im Sinne der Digitalisierung – wichtig und auch notwendig, dass Nutzern verschiedene Alternativen zur Verfügung stehen, anhand derer sie individuell die Vertrauenswürdigkeit von Unternehmen sowie IT-Lösungen – also jeglicher Produkte, Anwendungen und Dienste – beurteilen können. Aufgrund der steigenden Zahl an Sicherheitsvorfällen in der digitalen Welt sollte speziell die Cyber-Sicherheit dabei im Fokus stehen.
In dieser Arbeit wird eine ganzheitliche Bedrohung für Business-Chat-Anwendungen aufgezeigt und bewertet: Chishing – Phishing über Business-Chats. Die Bedrohung hat ihren Ursprung in den Anfängen der heutigen vernetzten Welt und das zugrunde liegende Problem wird als Spoofing in seiner einfachsten Form bezeichnet. In vier von sechs Business-Chat-Tools, die in dieser Arbeit analysiert werden, ist es möglich, Anzeigenamen, Profilbilder und weitere persönliche Informationen erfolgreich zu fälschen. Dies stellt eine Bedrohung für Unternehmen dar, da es Insider-Bedrohungen Vorschub leistet und unter Umständen auch externen Entitäten dazu einlädt, sich als interne Mitarbeiterin auszugeben.
Web measurement studies can shed light on not yet fully understood phenomena and thus are essential for analyzing how the modern Web works. This often requires building new and adjustinng existing crawling setups, which has led to a wide variety of analysis tools for different (but related) aspects. If these efforts are not sufficiently documented, the reproducibility and replicability of the measurements may suffer—two properties that are crucial to sustainable research. In this paper, we survey 117 recent research papers to derive best practices for Web-based measurement studies and specify criteria that need to be met in practice. When applying these criteria to the surveyed papers, we find that the experimental setup and other aspects essential to reproducing and replicating results are often missing. We underline the criticality of this finding by performing a large-scale Web measurement study on 4.5 million pages with 24 different measurement setups to demonstrate the influence of the individual criteria. Our experiments show that slight differences in the experimental setup directly affect the overall results and must be documented accurately and carefully.
Third-party tracking is a common and broadly used technique on the Web. Different defense mechanisms have emerged to counter these practices (e.g. browser vendors that ban all third-party cookies). However, these countermeasures only target third-party trackers and ignore the first party because the narrative is that such monitoring is mostly used to improve the utilized service (e.g. analytical services). In this paper, we present a large-scale measurement study that analyzes tracking performed by the first party but utilized by a third party to circumvent standard tracking preventing techniques. We visit the top 15,000 websites to analyze first-party cookies used to track users and a technique called “DNS CNAME cloaking”, which can be used by a third party to place first-party cookies. Using this data, we show that 76% of sites effectively utilize such tracking techniques. In a long-running analysis, we show that the usage of such cookies increased by more than 50% over 2021.
Aufgrund der zunehmenden IT-Technisierung und damit einhergehend stetigen Veränderung der Lebensbedingungen ist es notwendig, dass Menschen den IT-Lösungen und Unternehmen weiterhin und kontinuierlich vertrauen können. Denn durch den höheren Grad der IT-Technisierung steigt die Komplexität, wodurch es für den Nutzer zunehmend schwieriger wird, einzelne IT-Lösungen und deren Hintergründe zu verstehen sowie zu bewerten. Diese Veränderung hat Auswirkungen: Zum einen macht sie grundsätzlich den Nutzern – den Menschen – Angst, da gewohnte Vorgänge beständig ihre Gültigkeit verlieren. Zum anderen entsteht dadurch sowie durch die Komplexität latent das Gefühl, eine falsche Entscheidung zu treffen, weil nicht alles bedacht werden kann. So fällt dem Aspekt der Interdependenz von Vertrauen und Vertrauenswürdigkeit für deutsche und europäische Unternehmen eine hohe Bedeutung zu, insbesondere auch da sich internationale Tech-Unternehmen zunehmend weniger vertrauenswürdig im komplexen Cyber-Raum verhalten. Dies eröffnet die Möglichkeit, sich über den Aufbau von Vertrauen weltweit gegen internationale Unternehmen nachhaltig zu profilieren und positionieren. Um dieses Ziel zu realisieren, bedarf es einer strategischen Vorgehensweise – zum Beispiel auf Basis des Vertrauenswürdigkeitsmodells.
Damit die medizinische Versorgung weiterhin flächendeckend gewährleistet werden kann und den explodierenden Kosten Einhalt geboten wird, muss ein Gesundheitswesen der Zukunft auf digitalen Technologien basieren. Die Kritikalität der entsprechenden Health-Services ruft Cyber-Sicherheit auf den Plan – die Sensibilität der im Gesundheitswesen verarbeiteten Daten den Datenschutz. Ein zukunftsfähiges Gesundheitswesen braucht einen stringenten Rechtsrahmen, eine moderne cloudbasierte Telematikinfrastruktur, die je nach Sicherheitsbedarf in verschiedenen Modellen umgesetzt werden kann, einen restriktiven Umgang mit globalen Public-Cloud-Providern, eine besonders gesicherte, leistungsstarke Forschungsdateninfrastruktur – etwa zur Optimierung von KI-Fähigkeiten, sichere Gesundheitsanwendungen und einiges mehr. Hier ein Ausblick.