Filtern
Erscheinungsjahr
Dokumenttyp
- Wissenschaftlicher Artikel (1112)
- Konferenzveröffentlichung (351)
- Teil eines Buches (Kapitel) (322)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (237)
- Buch (Monographie) (219)
- Bericht (75)
- Video (60)
- Sonstiges (47)
- Vorlesung (46)
- Rezension (27)
- Arbeitspapier (19)
- Lehrmaterial (17)
- Preprint (12)
- Bachelorarbeit (10)
- Dissertation (4)
- Masterarbeit (4)
- Audio (3)
- Ausgabe (Heft) zu einer Zeitschrift (2)
- Periodikum (1)
Sprache
- Deutsch (1987)
- Englisch (572)
- Französisch (4)
- Mehrsprachig (2)
- Spanisch (2)
- Rumänisch (1)
Schlagworte
- Robotik (30)
- Flugkörper (21)
- UAV (21)
- Journalismus (15)
- Bionik (11)
- Rettungsrobotik (8)
- 3D Modell (7)
- Akkreditierung (7)
- E-Learning (7)
- Juristenausbildung (7)
Institut
- Wirtschaftsrecht (835)
- Institut für Internetsicherheit (262)
- Wirtschaft und Informationstechnik Bocholt (254)
- Informatik und Kommunikation (220)
- Institut für Innovationsforschung und -management (194)
- Westfälisches Institut für Gesundheit (141)
- Westfälisches Energieinstitut (106)
- Wirtschaft Gelsenkirchen (65)
- Maschinenbau Bocholt (60)
- Elektrotechnik und angewandte Naturwissenschaften (59)
- Institut Arbeit und Technik (49)
- Institut für biologische und chemische Informatik (44)
- Wirtschaftsingenieurwesen (33)
- Strategische Projekte (23)
- Maschinenbau und Facilities Management (22)
- Fachbereiche (17)
- Institute (3)
- Mechatronik-Institut Bocholt (3)
- Sonstige (1)
Theoretischer Hintergrund: Mut ist ein bislang wenig erforschtes Konstrukt. In der Forschung existieren unterschiedliche Betrachtungsweisen und Annahmen, u.a. hinsichtlich der Art des Konstruktes oder der Einflussfaktoren. Es existieren zudem, insbesondere im deutschsprachigen Raum, nur wenige Instrumente zur Messung von Mut. Diese zeigen zudem oftmals verbesserungsfähige oder unzureichende psychometrische Gütekriterien.
Fragestellung: Auf Basis einer umfangreichen Literaturrecherche ist unser Ziel, neben einem wissenschaftlichen Beitrag zur Klärung des Konstruktes, einen Selbstbeschreibungsfragebogen zur Messung von Mut im Arbeitskontext zu konstruieren, welcher den gängigen psychometrischen Gütekriterien entspricht und perspektivisch im Rahmen der Personalauswahl und Personalentwicklung eingesetzt werden könnte.
Methodik: Der Erstentwurf des Selbstbeschreibungsfragebogens zu Mut im Arbeitskontext besteht aus den Dimensionen sozialer Mut und persönlicher Mut. Zur psychometrischen Überprüfung des Fragebogenentwurfs haben wir eine Querschnittstudie in Form einer Online-Befragung durchgeführt (N = 253). Der Fokus lag auf der Itemanalyse, sowie auf der Überprüfung der Reliabilität und der Validität.
Ergebnisse: Die Reliabilität beträgt α = .92 und α = .91. Die exploratorische Faktorenanalyse stützt das 2-Faktoren-Modell. Es existieren erwartungsgemäß signifikante positive Korrelationen mit inhaltsähnlichen Konstrukten, u.a. arbeitsplatzbezogene Selbstwirksamkeit oder Extraversion und negative signifikante Korrelationen zu Neurotizismus und Psychopathie. Zusätzlich zeigen Mittelwertsvergleiche für
Geschlecht und Führungsverantwortung Ergebnisse gemäß dem aktuellen Stand der Forschung.
Diskussion Der Selbstbeschreibungsfragebogen zeigt klares Potenzial für die Nutzung im Rahmen der Personalauswahl und Personalentwicklung. Im Rahmen der Fragebogenkonstruktion ist es entscheidend das Konstrukt so eng wie möglich einzugrenzen. Die Fokussierung auf eine spezifische Form von
Mut scheint der Schlüssel zu sein, um ein den gängigen Anforderungen an psychometrische Gütekriterien entsprechendes Instrument zu entwickeln.
Sowohl im Online-, aber auch im stationären Handel sind schon etliche innovative immersive Anwendungen entstanden, die neue kognitive und affektive Interaktions- und Informationsmöglichkeiten bieten. In den Bereichen Kunst, Immobilien, Architektur, Gaming, Fashion, Stadtplanung und -führungen finden sich ebenfalls mehr und mehr AR/VR Anwendungen. In diesem Beitrag wird nach einer Sichtung ausgewählter immersiver Projekte ein Konzept zur Nutzung von AR bzw. VR für Leerstände in einer ehemals attraktiven Einkaufsmeile in Gelsenkirchen vorgestellt.
Eine der ersten Informationen, die man von seinem Gegenüber wahrnehmen kann, ist meist das äußere Erscheinungsbild. Wird dies als attraktiv bewertet, wirkt es sich in vielen Lebensbereichen, wie auch im beruflichen Umfeld, vorteilhaft aus (Willis & Todorov, 2006; Marlowe et al., 1996; Langlois et al., 2000; Frieze et al., 1991). Im Rahmen der Bachelor-Thesis wurde der Einfluss physischer Attraktivität in Bezug
auf das Fehlverhalten von Mitarbeitenden in Form einer Vignettenstudie untersucht. Es wurden die folgenden Forschungsfragen formuliert: Werden attraktive Mitarbeitende trotz eines gezeigten Fehlverhaltens als vertrauenswürdiger eingeschätzt als unattraktive Mitarbeitende? Wird eine Bestrafung in Form einer Abmahnung und einer Kündigung bei unattraktiven Mitarbeitenden für angemessener gehalten als bei attraktiven Mitarbeitenden? Es wurde vermutet, dass sich auch hier die physische Attraktivität positiv auswirken kann.
Die postulierten Hypothesen wurden mit einem Stichprobenumfang von N = 679 im Between-Subjects Design eines Online-Experiments untersucht. Insgesamt gab es vier Vignetten, die sich in der Attraktivität einer dargestellten Mitarbeiterin und der Art des kontraproduktiven Arbeitsverhaltens unterschieden. Die Datenanalyse zeigte eine signifikante Interaktion zwischen der physischen Attraktivität und der Art des kontraproduktiven Arbeitsverhaltens auf, F(1,675) = 4.02, p = .046, η² = .01. Im Falle eines interpersonal schädigenden Arbeitsverhaltens wurde eine Kündigung bei der attraktiven Mitarbeiterin als angemessener bewertet. Im Falle eines organisationalschädigenden Arbeitsverhaltens hingegen wurde eine Kündigung bei der unattraktiven Mitarbeiterin als angemessener bewertet. Aus diesen Forschungsergebnissen wurden praktische Implikationen, wie zum Beispiel die Sensibilisierung für derartige Einflüsse durch Schulungen, abgeleitet. Auch Ansätze für zukünftige Forschungen, wie die Variation im Geschlecht der Stimulusperson, wurden vorgeschlagen.
Theoretischer Hintergrund: In der psychologischen Führungsforschung zeigt sich ein Shift von traditionellem Management hin zu progressiveren Führungsmodellen, in denen das Gemeinwohl und die nachhaltige Führung von Mitarbeitenden anstelle des Selbstinteresses von Führungskräften treten.
Diese Modelle bewegen sich allerdings weiter im traditionellen Paradigma, dass effektive Führung komplexe Systeme gezielt beeinflussen und auf erwünschte Zielzustände hin ausrichten kann.
Fragestellung: Folgt man dem systemischen Ansatz, so können Führungskräfte das organisationale System nicht beeinflussen, sondern lediglich die Relationen seiner Bestandteile und Rahmenbedingungen für Emergenz schaffen. So lässt es sich beispielsweise aus der Theorie komplexer adaptiver Systeme und dem darauf basierenden Complexity Leadership Ansatz ableiten. Wenngleich viele Wissenschaftler*innen hierin Potential effektiver Führung sehen, mangelt es doch an konzeptionellen und psychometrischen Grundlagen sowie empirischer Evidenz für die Effektivität systemischer Führung.
Methodik: Wir stellen einen Fremdbeschreibungsfragebogen zur Messung systemischer Führung vor (N ges = 8770) sowie die mit diesem Instrument gewonnenen Ergebnisse verschiedener Feldstudien (k = 28) zu Antezedenzien, Auswirkungen und Randbedingungen systemischer Führung. Wir berücksichtigen auch die inkrementelle Varianzaufklärung über transformationale Führung.
Ergebnisse: Das Systemic Leadership Inventory ermöglicht die Einschätzung systemischer Kompetenzen
von Führungskräften.
Diskussion: Zukünftige Forschung sollte sich mit der Entwickelbarkeit systemischer Führung beschäftigen. Limitationen unseres Forschungsprojekts werden diskutiert.
Der sozioanalytischen Theorie folgend argumentieren wir, dass Machiavellismus nur im Falle einer hohen emotionalen Einflusskompetenz zuträglich für den objektiven Karriereerfolg ist.
In den Daten unserer fragebogenbasierten Querschnittsstudie zum jährlichen Bruttoeinkommen mit N = 149 Mitarbeitenden aus der Privatwirtschaft zeigen sich unter Kontrolle von Alter, Geschlecht und Führungsspanne weder signifikante Haupteffekte für Machiavellismus, noch für emotionale Intelligenz, dafür aber ein hypothesenkonformer Interaktionseffekt.
Unter Berücksichtigung methodischer Limitationen, die vorrangig an die Messung der beiden die Studie konstituierenden Konstrukte geknüpft sind, werden wissenschaftliche und praktische Implikationen dieses Befunds diskutiert.
The number of publications describing chemical structures has increased steadily over the last decades. However, the majority of published chemical information is currently not available in machine-readable form in public databases. It remains a challenge to automate the process of information extraction in a way that requires less manual intervention - especially the mining of chemical structure depictions. As an open-source platform that leverages recent advancements in deep learning, computer vision, and natural language processing, DECIMER.ai (Deep lEarning for Chemical IMagE Recognition) strives to automatically segment, classify, and translate chemical structure depictions from the printed literature. The segmentation and classification tools are the only openly available packages of their kind, and the optical chemical structure recognition (OCSR) core application yields outstanding performance on all benchmark datasets. The source code, the trained models and the datasets developed in this work have been published under permissive licences. An instance of the DECIMER web application is available at https://decimer.ai.
Die neue Aufgabe der internen Kommunikation: schwierige Unternehmenspersönlichkeiten erkennen
(2023)
Measurement studies are essential for research and industry alike to understand the Web’s inner workings better and help quantify specific phenomena. Performing such studies is demanding due to the dynamic nature and size of the Web. An experiment’s careful design and setup are complex, and many factors might affect the results. However, while several works have independently observed differences in
the outcome of an experiment (e.g., the number of observed trackers) based on the measurement setup, it is unclear what causes such deviations. This work investigates the reasons for these differences by visiting 1.7M webpages with five different measurement setups. Based on this, we build ‘dependency trees’ for each page and cross-compare the nodes in the trees. The results show that the measured trees differ considerably, that the cause of differences can be attributed to specific nodes, and that even identical measurement setups can produce different results.
This paper reveals various approaches undertaken over more than two decades of teaching undergraduate programming classes at different Higher Education Institutions, in order to improve student activation and participation in class and consequently teaching and learning effectiveness.
While new technologies and the ubiquity of smartphones and internet access has brought new tools to the classroom and opened new didactic approaches, lessons learned from this personal long-term study show that neither technology itself nor any single new and often hyped didactic approach ensured sustained improvement of student activation. Rather it needs an integrated yet open approach towards a participative learning space supported but not created by new tools, technology and innovative teaching methods.
This paper presents a pragmatic approach for stepwise introduction of peer assessment elements in undergraduate programming classes, discusses some lessons learned so far and directions for further work. Students are invited to challenge their peers with their own programming exercises to be submitted through Moodle and evaluated by other students according to a predefined rubric and supervised by teaching assistants. Preliminary results show an increased activation and motivation of students leading to a better performance in the final programming exams.
In this work a mathematical approach to calculate solar panel temperature based on measured irradiance, temperature and wind speed is applied. With the calculated module temperature, the electrical solar module characteristics is determined. A program developed in MatLab App Designer allows to import measurement data from a weather station and calculates the module temperature based on the mathematical NOCT and stationary approach with a time step between the measurements of 5 minutes. Three commercially available solar panels with different cell and interconnection technologies are used for the verification of the established models. The results show a strong correlation between the measured and by the stationary model predicted module temperature with a coefficient of determination R2 close to 1 and a root mean square deviation (RMSE) of ≤ 2.5 K for a time period of three months. Based on the predicted temperature, measured irradiance in module plane and specific module information the program models the electrical data as time series in 5-minute steps. Predicted to measured power for a time period of three months shows a linear correlation with an R2 of 0.99 and a mean absolute error (MAE) of 3.5, 2.7 and 4.8 for module ID 1, 2 and 3. The calculated energy (exemplarily for module ID 2) based on the measured, calculated by the NOCT and stationary model for this time period is 118.4 kWh, resp. 116.7 kWh and 117.8 kWh. This is equivalent to an uncertainty of 1.4% for the NOCT and 0.5% for the stationary model.
n-type silicon modules
(2023)
The photovoltaic industry is facing an exponential growth in the recent years fostered by a dramatic decrease in installation prices. This cost reduction is achieved by means of several mechanisms. First, because of the optimization of the design and installation process of current PV projects, and second, by the optimization, in terms of performance, in the manufacturing techniques and material combinations within the modules, which also has an impact on both, the installation process, and the levelized cost of electricity (LCOE).
One popular trend is to increase the power delivered by photovoltaic modules, either by using larger wafer sizes or by combining more cells within the module unit. This solution means a significant increase in the size of these devices, but it implies an optimization in the design of photovoltaic plants. This results in an installation cost reduction which turns into a decrease in the LCOE.
However, this solution does not represent a breakthrough in addressing the real challenge of the technology which affects the module requirements. The innovation efforts must be focused on improving the modules capability to produce energy without enlarging the harvesting area. This challenge can be faced by approaching some of the module characteristics which are summarized in this chapter.
Advanced Determination of Temperature Coefficients of Photovoltaic Modules by Field Measurements
(2023)
In this work data from outdoor measurements, acquired over the course of up to three years on commercially available solar panels, is used to determine the temperature coefficients and compare these to the information as stated by the producer in the data sheets. A program developed in MatLab App Designer allows to import the electrical and ambient measurement data. Filter algorithms for solar irradiance narrow the irradiance level down to ~1000 W/m2 before linear regression methods are applied to obtain the temperature coefficients. A repeatability investigation proves the accuracy of the determined temperature coefficients which are in good agreement to the supplier specification if the specified values for power are not larger than -0.3%/K. Further optimization is achieved by applying wind filter techniques and days with clear sky condition. With the big (measurement) data on hand it was possible to determine the change of the temperature coefficients for varying irradiance. As stated in literature we see an increase of the temperature coefficient of voltage and a decline for the temperature coefficient of power with increasing irradiance.
Nachhaltigkeit von intelligenten Gebäuden - Ein Blick auf die Gesetzgebungen und Praxismöglichkeiten
(2023)
Gebäude sind durch ihre Herstellung und den Betrieb für einen erheblichen Teil der CO2-Emissionen in Europa verantwortlich. Die EU und Deutschland wollen durch milliardenschwere Maßnahmenpakete diese Emissionen bis zum Jahr 2045 (Deutschland) bzw. 2050 (EU) auf null reduzieren. Neben der Gebäudehülle als maßgeblicher Faktor für die Wärmebilanz zum Heizen und Kühlen spielt die Gebäudeautomation eine wichtige Rolle. Wie Gebäude intelligenter und smarter werden und wie sich das auf die Energieeffizienz auswirkt, soll im Folgenden betrachtet werden.
The concept of “Internationalisation at Home“ has gained momentum with the increasing digitalization of education and limitations on mobility. Collaborative Online International Learning (COIL) is an innovative, cost-effective instructional method that promotes intercul-tural learning through online collaboration between faculty and students from different countries or locations. The benefits of using COIL courses have been widely recognized, with learners developing intercultural competencies, digital skills, international education experi-ence, and global awareness.
However, multicultural communication in project environments can be complex and demand awareness of cultural variations . The creation and development of effective cross-cultural collectivism, trust, communication, and empathy in leadership is an important ingredient for remote project collaborations success. This is an area that has been least explored in re-search on communication in virtual teams.
The GIPE projects are mainly carried out as so-called Collaborative Online International Learning (COIL) events. However, to gain a “real world“ experience abroad in an intercultural team, students from all partner universities can participate in the Spring School being held for two weeks in Germany and the Germany students present and hand-over the results in the country of the partner university. The main objective of this research was to examine the experiences of students participating in the GIPE project and to evaluate the effectiveness of the project in enhancing intercultural competencies and fostering collaboration among stu-dents from different continents. This paper will also explore the implications of the GIPE project for Education 2.0 considering the COVID-19 pandemic and the future of education delivery and administration transformation.
Aufgrund der Energiewende und den steigenden Anforderungen an die technische Gebäudeausrüstung gewinnt der Betrieb von Wärmepumpen in Gebäuden immer mehr an Bedeutung. Inzwischen existiert eine Vielzahl an Wärmepumpen-Systemen, die unterschiedliche Vor- und Nachteile sowie Einsatzmöglichkeiten aufweisen. Sofern die Installation einer Wärmepumpe für den Wohngebäudesektor in Betracht gezogen wird, muss eruiert werden, welches System sowohl ökologisch als auch ökonomisch für das Bauvorhaben am sinnvollsten ist. Hierfür wurde eine Bewertungstool entwickelt, das den Einsatz der unterschiedlichen Wärmepumpensysteme bewertet und auch Nutzern mit wenig Expertise eine Entscheidungshilfe ermöglicht. Für eine möglichst ganzheitliche Betrachtung können verschiedene Szenarien mit Hilfe des Bewertungstools überprüft werden. Hierzu können Indikatoren wie Standortdaten, Gebäudedaten, Parameter für die Trinkwassererwärmung, die Systemtemperaturen der Heizung und die Betriebsweise der Wärmepumpe im Tool variiert werden. Die Ergebnisse des Bewertungstools zeigen, wie die unterschiedlichen Nutzungsanforderungen sich auf die Jahresarbeitszahl und den Energiebedarf auswirken. Zusätzlich werden Investitions- und Verbrauchskosten für die unterschiedlichen Szenarien abgeschätzt und berechnet. Bei der ökologischen Bewertung wird der Fokus der Betrachtung auf den TEWI-Wert gelegt, um den Einfluss von verschiedener Kältemittel im Lebenszyklus der Wärmepumpe zu berücksichtigen.
Jdpd - An open Java Simulation Kernel for Molecular Fragment Dissipative Particle Dynamics (DPD)
Jdpd is an open Java simulation kernel for Molecular Fragment Dissipative Particle Dynamics (DPD) with parallelizable force calculation, efficient caching options and fast property calculations. It is characterized by an interface and factory-pattern driven design for simple code changes and may help to avoid problems of polyglot programming. Detailed input/output communication, parallelization and process control as well as internal logging capabilities for debugging purposes are supported. The kernel may be utilized in different simulation environments ranging from flexible scripting solutions up to fully integrated “all-in-one” simulation systems like MFsim.
Since Jdpd version 1.6.1.0 Jdpd is available in a (basic) double-precision version and a (derived) single-precision version (= JdpdSP) for all numerical calculations, where the single precision version needs about half the memory of the double precision version.
Jdpd uses the Apache Commons Math and Apache Commons RNG libraries and is published as open source under the GNU General Public License version 3. This repository comprises the Java bytecode libraries (including the Apache Commons Math and RNG libraries), the Javadoc HTML documentation and the Netbeans source code packages including Unit tests.
Jdpd has been described in the scientific literature (the final manuscript 2018 - van den Broek - Jdpd - Final Manucsript.pdf is added to the repository) and used for DPD studies (see references below).
See text file JdpdVersionHistory.txt for a version history with more detailed information.
MFsim - An open Java all-in-one rich-client simulation environment for mesoscopic simulation
MFsim is an open Java all-in-one rich-client computing environment for mesoscopic simulation with Jdpd as its default simulation kernel for Molecular Fragment Dissipative Particle Dynamics (DPD). The environment integrates and supports the complete preparation-simulation-evaluation triad of a mesoscopic simulation task. Productive highlights are a SPICES molecular structure editor, a PDB-to-SPICES parser for particle-based peptide/protein representations, a support of polymer definitions, a compartment editor for complex simulation box start configurations, interactive and flexible simulation box views including analytics, simulation movie generation or animated diagrams. As an open project, MFsim enables customized extensions for different fields of research.
MFsim uses several open libraries (see MFSimVersionHistory.txt for details and references below) and is published as open source under the GNU General Public License version 3 (see LICENSE).
MFsim has been described in the scientific literature and used for DPD studies.
Fälle zum Europarecht
(2023)
Die Beschaffung von IT-Sicherheitslösungen ist für Unternehmen oft eine Herausforderung. So führt die Komplexität der Systeme dazu, dass die für eine Kaufentscheidung erforderlichen Kompetenzen und Informationen nicht immer vorhanden sind. Grundvoraussetzung für eine erfolgreiche Geschäftsbeziehung ist deswegen ein valides Vertrauensverhältnis zwischen Anwender- und Herstellerunternehmen. Das setzt jedoch voraus, dass die Herstellerunternehmen vertrauenswürdig auftreten und im Interesse ihrer Kunden handeln. Eine Studie der Westfälischen Hochschule Gelsenkirchen hat untersucht, welche Vertrauenskriterien Kunden bei Herstellern und deren Produkten wichtig sind. So ist zum Beispiel ein Hersteller bei den Kunden unten durch, wenn er zu viele Buzzwords nutzt.
Wie Datenräume helfen, neue Geschäftsmodelle zu entwickeln : sicher, vertrauenswürdig und dezentral
(2023)
In der heutigen Zeit werden sehr große Datenmengen generiert und verwaltet, dennoch wird der Wert der Daten in Deutschland und Europa noch nicht voll ausgeschöpft. Die gemeinsame Nutzung von Daten kann und soll datengetriebene Anwendungen noch weiter vorantreiben, bei der Erfüllung regulatorischer Anforderungen helfen sowie einen finanziellen Mehrwert für Firmen schaffen. Viele kleine bis mittelständische Unternehmen zögern derzeit jedoch, Daten untereinander auszutauschen, weil sie befürchten, die Hoheit über ihre Daten zu verlieren und nicht wissen, wer Zugriff auf die Daten hat und wofür die Daten verwendet werden.
Künstliche Intelligenz (KI) ermöglicht es, komplexe Zusammenhänge und Muster aus großen Datenmengen zu extrahieren und in einem statistischen Modell zu erfassen. Dieses KI-Modell kann anschließend Aussagen über zukünftig auftretende Daten treffen. Mit dem zunehmenden Einsatz von Künstlicher Intelligenz rücken solche Systeme auch immer mehr ins Visier von Cyberkriminellen. Der Artikel beschreibt umfassend Angriffsszenarien und mögliche Abwehrmaßnahmen.
Vor vier Jahren betrat die Datenschutz-Grundverordnung (DS-GVO) die Bühne und brachte für Unternehmen und Nutzer gleichermaßen Veränderungen mit sich. Doch gerade im dynamischen Umfeld des Online-Marketings tauchen ständig neue und oft knifflige Fragen auf – Fragen, die nun im Rahmen einer wissenschaftlichen Studie etwas genauer unter die Lupe genommen wurden.
Viele Unternehmen beginnen damit, Standards "wild" umzusetzen oder verschiedene Sicherheitsprodukte zu kaufen. Cybersicherheit muss aber auf einem soliden Fundament stehen. Dazu sollten die Verantwortlichen die eigenen Organisationsstrukturen kennen und die drei Schlüsselfaktoren Menschen, Prozesse und Technologie sorgfältig ausbalancieren.
Ventilanordnung und Verfahren zum Kühlen eines Wärmetauschers eines Fahrzeugs [Offenlegungsschrift]
(2023)
Die Erfindung betrifft eine Ventilanordnung umfassend wenigstens ein durch Gas, insbesondere Luft, durchströmbares Ventilelement (1, 1') mit einer Öffnung, wobei der Öffnung ein Dichtelement zugeordnet ist, mit dem die Öffnung verschließbar und/oder öffenbar ist, wobei das Dichtelement durch einen Dichtflächenbereich eines Plattenelements ausgebildet ist, vorzugsweise eines in zumindest einem möglichen Betriebszustand planen Plattenelements ausgebildet ist, wobei das Dichtelement der Öffnung des wenigstens einen Ventilelements gegenüberliegt und der das Dichtelement bildende Dichtflächenbereich des Plattenelements mittels wenigstens eines Spiralarmes mit einem Randflächenbereich des Plattenelements einstückig und relativ zum Randflächenbereich beweglich verbunden ist und der wenigstens eine Spiralarm von wenigstens einer um den Dichtflächenbereich verlaufenden spiralförmigen und durch Gas durchströmbare Ausnehmung in dem Plattenelement zumindest bereichsweise umgeben ist. Die Erfindung betrifft auch ein Verfahren zum Kühlen eines Wärmetauschers in
einem Fahrzeug.
Cookie notices (or cookie banners) are a popular mechanism for websites to provide (European) Internet users a tool to choose which cookies the site may set. Banner implementations range from merely providing information that a site uses cookies over offering the choice to accepting or denying all cookies to allowing fine-grained control of cookie usage. Users frequently get annoyed by the banner’s pervasiveness as they interrupt “natural” browsing on the Web. As a remedy, different browser extensions have been developed to automate the interaction with cookie banners.
In this work, we perform a large-scale measurement study comparing the effectiveness of extensions for “cookie banner interaction.” We configured the extensions to express different privacy choices (e.g., accepting all cookies, accepting functional cookies, or rejecting all cookies) to understand their capabilities to execute a user’s preferences. The results show statistically significant differences in which cookies are set, how many of them are set, and which types are set—even for extensions that aim to implement the same cookie choice. Extensions for “cookie banner interaction” can effectively reduce the number of set cookies compared to no interaction with the banners. However, all extensions increase the tracking requests significantly except when rejecting all cookies.
Among all additive manufacturing processes, Directed Energy Deposition-Arc (DED-Arc) shows significantly shorter production times and is particularly suitable for large-volume components of simple to medium complexity. To exploit the full potential of this process, the microstructural, mechanical and corrosion behavior have to be studied. High stickout distances lead to a large offset, which leads to an instable electric arc and thus defects such as lack of fusion. Since corrosion preferentially occurs at such defects, the main objective of this work is to investigate the influence of the stickout distance on the corrosion
behavior and microstructure of stainless steel manufactured by DED-Arc.
Within the heterogenous structure of the manufactured samples lack of fusion defects were detected. The quantity of such defects was reduced by applying a shorter stickout distance. The corrosion behavior of the additively manufactured specimens was investigated by means of potentiodynamic polarization measurements. The semi-logarithmic current density potential curves showed a similar course and thus similar corrosion resistance like that of the conventionally forged sample. The polarization curve of the reference material shows numerous current peaks, both in the anodic and cathodic regions. This metastable behavior is induced by the presence of manganese sulfides. On the sample surface a local attack by pitting corrosion was identified.
Among the FDM process variables, one of the less addressed in previous research is the filament color. Moreover, if not explicitly targeted, the filament color is usually not even mentioned.
Aiming to point out if, and to what extent, the color of the PLA filaments influences the dimensional precision and the mechanical strength of FDM prints, the authors of the present research carried out experiments on tensile specimens. The variable parameters were the layer height (0.05 mm, 0.10 mm, 0.15 mm, 0.20 mm) and the material color (natural, black, red, grey). The experimental results clearly showed that the filament color is an influential factor for the dimensional accuracy as well as for the tensile strength of the FDM printed PLA parts. Moreover, the two way ANOVA test performed revealed that the strongest effect on the tensile strength was exerted by the PLA color (2 = 97.3%), followed by the layer height (2 = 85.5%) and the interaction between the PLA color and the layer height (2 = 80.0%). Under the same printing conditions, the best dimensional accuracy was ensured by the black PLA (0.17% width deviations, respectively 5.48% height deviations), whilst the grey PLA showed the highest ultimate tensile strength values (between 57.10 MPa and 59.82 MPa).
Without proper post-processing (often using flame, furnace, laser remelting, and induction) or reinforcements’ addition, Ni-based flame-sprayed coatings generally manifest moderate adhesion to the substrate, high porosity, unmelted particles, undesirable oxides, or weak wear resistance and mechanical properties. The current research aimed to investigate the addition of ZrO2 as reinforcement to the self-fluxing alloy coatings. Mechanically mixed NiCrBSi-ZrO2 powders were thermally sprayed onto an industrially relevant high-grade steel. After thermal spraying, the samples were differently post-processed with a flame gun and with a vacuum furnace, respectively. Scanning electron microscopy showed a porosity reduction for the vacuum-heat-treated samples compared to that of the flame-post-processed ones. X-ray diffraction measurements showed differences in the main peaks of the patterns for the thermal processed samples compared to the as-sprayed ones, these having a direct influence on the mechanical behavior of the coatings. Although a slight microhardness decrease was observed in the case of vacuum-remelted samples, the overall low porosity and the phase differences helped the coating to perform better during wear-resistance testing, realized using a ball-on-disk arrangement, compared to the as-sprayed reference samples.
Ni-based alloys are among the materials of choice in developing high-quality coatings for ambient and high temperature applications that require protection against intense wear and corrosion. The current study aims to develop and characterize NiCrBSi coatings with high wear resistance and improved adhesion to the substrate. Starting with nickel-based feedstock powders, thermally sprayed coatings were initially fabricated. Prior to deposition, the powders were characterized in terms of microstructure, particle size, chemical composition, flowability, and density. For comparison, three types of powders with different chemical compositions and characteristics were deposited onto a 1.7227 tempered steel substrate using oxyacetylene flame spraying, and subsequently, the coatings were inductively remelted. Ball-on-disc sliding wear testing was chosen to investigate the tribological properties of both the as-sprayed and induction-remelted coatings. The results reveal that, in the case of as-sprayed coatings, the main wear mechanisms were abrasive, independent of powder chemical composition, and correlated with intense wear losses due to the poor intersplat cohesion typical of flame-sprayed coatings. The remelting treatment improved the performance of the coatings in terms of wear compared to that of the as-sprayed ones, and the density and lower porosity achieved during the induction post-treatment had a significant positive role in this behavior.
Um grünen Wasserstoff effizient als Energieträger nutzen zu können, ist die Entwicklung von haltbaren und aktiven Katalysatorschichten für Brennstoffzellen und Elektrolyseuren von äußerster Wichtigkeit. Eine große Herausforderung ist, dass konventionelle C/Pt-Katalysatoren eine starke Korrosionsreaktion durchlaufen und mit hohen Kosten verknüpft sind. Weswegen alternative Kohlenstoffträger wie Kohlenstoffnanofaser-Materialien entwickelt wurden, welche eine längere Haltbarkeit aufweisen können. In dieser Arbeit wurde die Aufbringung von Pt- und Ir-Nanopartikeln auf gesponnene Kohlenstoffnanofaser-Vliese untersucht. Es wurden erstmals in einer Flüssigkeit laserablatierte Pt-Nanoartikel mit einem PAN-Vlies versponnen oder in einem zweiten Syntheseverfahren auf ein Vlies aufgesprüht. Diese Methoden wurden mit der gepulsten galvanischen Abscheidung von Pt auf einem PAN-Vlies verglichen. Die Vliese wurden bezüglich ihres Graphitisierungsgrades, ihrer Partikelverteilung und ihrer Beständigkeit untersucht, einschließlich des Einflusses der Karbonisierungstemperatur. Die Raman- und XRF-Messungen ergaben eine Erhöhung des Graphitisierungsgrades und eine Abnahme der PAN-Reste mit dem Anstieg der Karbonisierungstemperatur. Elektrochemische Messungen und REM-Aufnahmen bestätigten die erfolgreiche Synthese von langzeitstabilen CNF-Vliesen mit einer hohen massenspezifischen aktiven Platinoberfläche und einer guten Nanopartikelverteilung. Diese Ergebnisse tragen zur Entwicklung von ökologischen und ökonomischen Katalysatorschichten bei.
Gerechter Zufall per Gesetz?
(2022)
Grundkurs C++
(2022)
Das gesamte Grundwissen zu C++ im praktischen Taschenbuchformat – zum Lernen und Nachschlagen. Vom ersten einfachen Programm bis zu komplexen Anwendungen. Übungen am Ende jedes Kapitels helfen Ihnen bei der Lernkontrolle. Sämtliche Grundlagen (Klassen, Vererbung, Polymorphie, Templates usw.) werden kurz und übersichtlich dargestellt. Diese dritte Auflage berücksichtigt aktuelle Standars bis C++20.
Der Datenjournalismus wird gleichermaßen stark in der Nachrichtenbranche beobachtet und in der Journalismusforschung reflektiert. Dieser Beitrag beschreibt das Phänomen zunächst im Kontext des Megatrends der Automatisierung des Journalismus. Anschließend wird die erste Trendstudie zum Da-tenjournalismus in Deutschland vorgestellt: Die Berufsfeldstudie war 2012 und 2019 im Feld. Die ge-wählten Items ermöglichen einen Längsschnitt-Vergleich der Entwicklung des Datenjournalismus. Bei einem Vergleich mit den nationalen Daten der „Worlds of Journalism Study“ werden weitere Gemein-samkeiten und Unterschiede deutlich. Die Ergebnisse zeigen, dass sich der Datenjournalismus in Deutschland zunehmend institutionalisiert hat und Datenjournalist:innen sich stark einem investigati-ven politischen Journalismus verpflichtet fühlen.
Kompensationsgeschäfte sind als Kopplungsgeschäfte medienrechtlich verboten. Laut Berichten von Praktiker*innen sind sie jedoch alltägliches Werkzeug im Austausch zwischen Journalist*innen und Verlagen einerseits sowie PR-Akteur*innen und Werbungtreibenden andererseits. Auf Grundlage kommunikationswissenschaftlicher, medienrechtlicher und betriebswirtschaftlicher Literatur sowie einer Befragung von 37 Expert*innen aus der Kommunikationsbranche wird untersucht, welche Formen von Kompensationsgeschäften in der Praxis existieren und welche Rolle Kompensationsgeschäfte im Wechselverhältnis von Öffentlichkeitsarbeit und Journalismus spielen. In der alltäglichen Berufspraxis mancher Branchen und Redaktionen werden im Ergebnis mit großer Selbstverständlichkeit Kompensationsgeschäfte genutzt. Daher wird nach einem definitorischen Abgleich von Induktionen, Adaptionen und Kompensationen eine Erweiterung des Intereffikationsmodells vorgeschlagen.
Journalismus und Werbung. Zur Trennung von redaktionellen Inhalten und kommerzieller Kommunikation
(2022)
Der Trennungsgrundsatz zwischen redaktionellen Inhalten und kommerzieller Kommunikation schützt sowohl die Demokratie- wie auch die Werbeträgerfunktion von Massenmedien. Dieser Beitrag stellt für die diversen Aspekte des Trennungsgrundsatzes wie die Kennzeichnungspflicht, das Verbot von bezahlten Inhalten und Kopplungsgeschäften sowie die Handhabung zahlreicher Darstellungsformen redaktioneller Werbung alle verfügbaren gesetzlichen und standesrechtlichen Regelungen zusammen. Anschließend wird für die einzelnen Aspekte des Trennungsgrundsatzes der Stand der Forschung insbesondere hinsichtlich Beschreibung und Wirkung referiert. Schließlich werden Lösungsvorschläge für die aktuelle Anwendung und Desiderata zusammengetragen.
Journalism and Advertising. On the Separation of Editorial Content and Commercial Communication
(2022)
The principle of separation between editorial content and commercial communication protects both the democratic and the commercial function of mass media. This article compiles all available statutory and professional regulations in Germany as an example of the various aspects of the principle of separation, such as the labeling obligation, the prohibition of paid content and tying transactions, as well as the handling of numerous forms of presentation of editorial advertising. Subsequently, the state of research is reported for the individual aspects of the principle of separation, in particular with regard to description and effect. Finally, proposed solutions for current application and desiderata are compiled.
Different charge treatment approaches are examined for cyclotide-induced plasma membrane disruption by lipid extraction studied with dissipative particle dynamics. A pure Coulomb approach with truncated forces tuned to avoid individual strong ion pairing still reveals hidden statistical pairing effects that may lead to artificial membrane stabilization or distortion of cyclotide activity depending on the cyclotide’s charge state. While qualitative behavior is not affected in an apparent manner, more sensitive quantitative evaluations can be systematically biased. The findings suggest a charge smearing of point charges by an adequate charge distribution. For large mesoscopic simulation boxes, approximations for the Ewald sum to account for mirror charges due to periodic boundary conditions are of negligible influence.
Wie wählen Nachrichtenmedien aus, worüber sie berichten? Dieser Frage versuchen Nachrichtenwertforschende seit vielen Jahren auf den Grund zu gehen. Die Nachrichtenwertforschung ist eine der traditionsreichsten Forschungsrichtungen der Journalismusforschung, die bis zum heutigen Tag aktuell ist. Begründet wurde sie bereits in den 1920er-Jahren von Walter Lippmann, internationale Bekanntheit erfuhr sie durch Johan Galtung und Mari Holmboe Ruge, die 1965 eine Liste von Nachrichtenfaktoren entwickelten und diese empirisch überprüften. Es folgten unzählige empirische Untersuchungen zu diesem Thema, die sich an einer Weiterentwicklung der Theorie versuchten. Der vorliegende Beitrag gibt einen Überblick über die Entwicklungsgeschichte der Nachrichtenwertforschung und skizziert, was Forschende heutzutage an der Thematik interessiert.
„Digital gestützte Lehrveranstaltungen“ im Sinne von § 1a Abs. 2 LVV (NRW) – eine erste Annäherung
(2022)
The use of molecular string representations for deep learning in chemistry has been steadily increasing in recent years. The complexity of existing string representations, and the difficulty in creating meaningful tokens from them, lead to the development of new string representations for chemical structures. In this study, the translation of chemical structure depictions in the form of bitmap images to corresponding molecular string representations was examined. An analysis of the recently developed DeepSMILES and SELFIES representations in comparison with the most commonly used SMILES representation is presented where the ability to translate image features into string representations with transformer models was specifically tested. The SMILES representation exhibits the best overall performance whereas SELFIES guarantee valid chemical structures. DeepSMILES perform in between SMILES and SELFIES, InChIs are not appropriate for the learning task. All investigations were performed using publicly available datasets and the code used to train and evaluate the models has been made available to the public.
The translation of images of chemical structures into machine-readable representations of the depicted molecules is known as optical chemical structure recognition (OCSR). There has been a lot of progress over the last three decades in this field, but the development of systems for the recognition of complex hand-drawn structure depictions is still at the beginning. Currently, there is no data for the systematic evaluation of OCSR methods on hand-drawn structures available. Here we present DECIMER — Hand-drawn molecule images, a standardised, openly available benchmark dataset of 5088 hand-drawn depictions of diversely picked chemical structures. Every structure depiction in the dataset is mapped to a machine-readable representation of the underlying molecule. The dataset is openly available and published under the CC-BY 4.0 licence which applies very few limitations. We hope that it will contribute to the further development of the field.
Dieses Buch betrachtet die grundlegenden logistischen Bereiche zur Beschaffung, Produktion, Distribution und Entsorgung und zeigt, welche Themen und Aspekte das Logistikmanagement umfassen. In der Logistik geht es vor allem um die Optimierung des Materialflusses, der Kapazitätsauslastung, der Transportstrecke oder der Maschinenbelegung. Für den Bereich des Supply Chain Management wird die Funktionsweise, Koordination und Resilienz der Supply Chain auch vor dem Hintergrund aktueller Lieferkettenstörungen und der Einführung des Lieferkettensorgfaltspflichtengesetzes beschrieben.
Das Buch ermöglicht, anhand von zahlreichen Anwendungs- und quantitativen Übungsbeispielen, das im Studium benötigte Wissen leicht nachvollziehbar zu erlangen und zu vertiefen.
Das Phänomen des Shareholder Activismbzw. der aktivistischen Investorenwar bis vor wenigen Jahren primär aus demangloamerikanischen Raumbekannt. Seit einiger Zeit sind verstärkt auch europäische und deutscheUnternehmen das Ziel von aktivistischen Aktionären. Der vorliegendeBeitrag zeigt die Zielsetzungen dieser Investorengruppe und die hierbeiverfolgten Strategien bzw. eingesetzten Maßnahmen auf, womit paralleleine Beschreibung des Geschäftsmodells des finanziell geprägten Share-holder Activismvorgelegt wird.
Hintergrund
Während der SARS-CoV-2-Pandemie ist es vorrangig, die Mitarbeiter vor Infektionsrisiken zu schützen und die Geschäftstätigkeit zu sichern. Neue Virusvarianten mit erhöhter Ansteckungsgefahr erfordern eine weiterentwickelte Risikostrategie.
Material und Methoden
Mehrere Standardmaßnahmen wie Tests, Isolierung und Quarantäne werden zu einer neuartigen Risikostrategie kombiniert. Epidemiologische Modellrechnungen und wissenschaftliche Erkenntnisse über den Verlauf der SARS-CoV-2-Infektiosität werden zur Optimierung dieser Strategie herangezogen. Das Verfahren ist in einem einfach zu bedienenden Rechner auf Excel-Basis implementiert.
Aufbau in der Praxis und Ergebnisse
Alternative Maßnahmenkombinationen und praktische Aspekte werden erörtert. Anhand von Beispielrechnungen wird die Wirkung der diskutierten Maßnahmen demonstriert.
Schlussfolgerung
Der aus diesen Grundlagen abgeleitete Quarantäne-Rechner ermöglicht es auch Nicht-Fachleuten, eine differenzierte Risikoanalyse durchzuführen und optimierte Maßnahmen einzuleiten. Gezielte Prüfroutinen und alternative Maßnahmen sichern die Personalverfügbarkeit.
The development of deep learning-based optical chemical structure recognition (OCSR) systems has led to a need for datasets of chemical structure depictions. The diversity of the features in the training data is an important factor for the generation of deep learning systems that generalise well and are not overfit to a specific type of input. In the case of chemical structure depictions, these features are defined by the depiction parameters such as bond length, line thickness, label font style and many others. Here we present RanDepict, a toolkit for the creation of diverse sets of chemical structure depictions. The diversity of the image features is generated by making use of all available depiction parameters in the depiction functionalities of the CDK, RDKit, and Indigo. Furthermore, there is the option to enhance and augment the image with features such as curved arrows, chemical labels around the structure, or other kinds of distortions. Using depiction feature fingerprints, RanDepict ensures diversely picked image features. Here, the depiction and augmentation features are summarised in binary vectors and the MaxMin algorithm is used to pick diverse samples out of all valid options. By making all resources described herein publicly available, we hope to contribute to the development of deep learning-based OCSR systems.
Krankenhäuser in Deutschland befinden sich seit vielen Jahren in einer schwierigen finanziellen Lage, weshalb bei nicht wenigen von ihnen ein konkretes Insolvenzrisiko zu beobachten ist. Diese Entwicklung verstärkt den Druck auf die Krankenhäuser, noch intensiver als bisher eine Verbesserung ihrer Liquiditätssituation zu erreichen. Ein optimiertes Working Capital kann die Verbesserung der Liquidität wirksam unterstützen. Der vorliegende Beitrag zeigt die zentralen Komponenten des Working Capitals bzw. des Cash Conversion Cycle in Krankenhäusern auf, erläutert wichtige Gestaltungsbereiche zur Verbesserung des Working Capitals und zeigt zudem auf der Basis aktueller Untersuchungsergebnisse die Ist-Situation auf.
Planung bzw. Budgetierung bilden ein zentrales Element des Controlling. Aussagekräftige Ergebnisse der Budgetierung sind unverzichtbar für die Steuerung der im Unternehmen verfügbaren Ressourcen. Entsprechend der hohen Bedeutung der Budgetierung ist eine intensive methodische Innovationsbereitschaft bei den Planungsinstrumenten in den letzten Jahren zu beobachten. Zwischenzeitlich werden auch die Einsatzbereiche des Zero-Based-Budgeting wieder intensiver diskutiert (= reloaded), wobei hier die Besonderheit darin besteht, dass dieses Instrument bereits in den 80er Jahren für einige Jahre eine stärkere Beachtung in der betriebswirtschaftlichen Theorie und Praxis gefunden hatte.
Die Ukrainekrise und coronabedingte Lieferkettenprobleme treiben derzeitdie Rohstoff-, Material- und Lebensmittelpreise hoch. Auch die Inflationser-wartungen steigen; es drohen Zweitrundeneffekte imGefolge höhererLohnforderungen und Lohnabschlüsse. Langfristig könnten in der Eurozoneweitere Faktoren die Inflation treiben, z.B. angebotsseitig der Fachkräfte-mangel sowie globale Nahrungsmittelknappheiten und politikseitig diegewollten Effekte der Klimapolitik. Der Beitrag diskutiert vor diesemHinter-grund geldpolitische Implikationen.
Ein größerer Anteil der in den letzten Jahren vorgenommenen Unternehmensakquisitionen wurde maßgeblich mit attraktiven Synergieerwartungen begründet. Bei näherer Betrachtung können diese Synergien oft nur wenig präzise quantifiziert und der Zeitpunkt ihrer Realisierung nur ungenau eingeordnet werden. Der vorliegende Beitrag zeigt die Bedeutung von Synergien in Verbindung mit dem Goodwill, grenzt die Kosten- und Umsatzsynergien inhaltlich ab und befasst sich auf der Basis zahlreicher Studien mit dem aktuellen Erkenntnisstand in Verbindung mit der Vorbereitung und Realisierung von Kosten- und Umsatzsynergien.
Air Handling units (AHU) are designed to guarantee a high indoor air quality for any time and outdoor condition all over the year. To do so, the AHU removes particle matter like dust or pollen and adapts the thermophysical properties of air to the desired, seasonal indoor comfort conditions. AHU have a robust design and thus operate for more than fifteen years, sometimes even for decades. An AHU designed today must consider and anticipate the change of user needs as well as outdoor air conditions for the next twenty years. To anticipate the outdoor air condition of coming decades, scientific models exist, which allow the design of peak performance and capacities of the air treatment components. It is most likely, that the ongoing climate change will lead to higher temperatures as well as higher humidity, while the comfort zone of human beings will remain at today’s values. Next to the impact of global warming with average rise of mean air temperature local effects will influence the operation of AHU. On effect investigated here is the steep temperature increase in city centres called urban heat islands. Heating and cooling capacities as well as water consumption for humidification are investigated for a reference AHU for fifteen regional locations in Germany. These regions represent all climate zones within the country. Additionally, the urban heat island effect was investigated for Berlin Alexanderplatz compared a rural area close by. The AHU was chosen to operate in an intensive care unit of a hospital. The set-up leads to 24/7 operation with 8760 hours per year. The article presents the modelling of current and future weather data as well as the unit set up. The calculated hourly performance and capacity parameters for current (reference year 2012) and future weather data (reference year 2045) yield energy consumption and peak loads of the unit for heating, cooling and humidification. The results are displayed by relative comparisons of each performance value.
Biomimetics is a well-known approach for technical innovation. However, most of its influence remains in the academic field. One option for increasing its application in the practice of technical design is to enhance the use of the biomimetic process with a step-by-step standard, building a bridge to common engineering procedures. This article presents the endeavor of an interdisciplinary expert panel from the fields of biology, engineering science, and industry to develop a standard that links biomimetics to the classical processes of product development and engineering design. This new standard, VDI 6220 Part 2, proposes a process description that is compatible and connectable to classical approaches in engineering design. The standard encompasses both the solution-based and the problem-driven process of biomimetics. It is intended to be used in any product development process for more biomimetic applications in the future.
Robot arms are one of many assistive technologies used by people with motor impairments. Assistive robot arms can allow people to perform activities of daily living (ADL) involving grasping and manipulating objects in their environment without the assistance of caregivers. Suitable input devices (e.g., joysticks) mostly have two Degrees of Freedom (DoF), while most assistive robot arms have six or more. This results in time-consuming and cognitively demanding mode switches to change the mapping of DoFs to control the robot. One option to decrease the difficulty of controlling a high-DoF assistive robot arm using a low-DoF input device is to assign different combinations of movement-DoFs to the device’s input DoFs depending on the current situation (adaptive control). To explore this method of control, we designed two adaptive control methods for a realistic virtual 3D environment. We evaluated our methods against a commonly used non-adaptive control method that requires the user to switch controls manually. This was conducted in a simulated remote study that used Virtual Reality and involved 39 non-disabled participants. Our results show that the number of mode switches necessary to complete a simple pick-and-place task decreases significantl when using an adaptive control type. In contrast, the task completion time and workload stay the same. A thematic analysis of qualitative feedback of our participants suggests that a longer period of training could further improve the performance of adaptive control methods.
Media Brand Management
(2022)
The management of media brands faces challenges. In order to be able to point out possible solutions, this article first explains the concept and the nature of “media brands.” Subsequently, various theoretical approaches to the explanation of media brands and their management are presented. Regardless of theoretical preferences, it is important to keep in mind the brand-strategic complexity of media management that is subsequently described. Due to their specificity, special attention is paid to the basic strategic positioning options and to the communication management of media brands. In this way, the special features of media brand management become clear in comparison with other products and services.
Nowadays, robots are found in a growing number of areas where they collaborate closely with humans. Enabled by lightweight materials and safety sensors, these cobots are gaining increasing popularity in domestic care, where they support people with physical impairments in their everyday lives. However, when cobots perform actions autonomously, it remains challenging for human collaborators to understand and predict their behavior, which is crucial for achieving trust and user acceptance. One significant aspect of predicting cobot behavior is understanding their perception and comprehending how they “see” the world. To tackle this challenge, we compared three different visualization techniques for Spatial Augmented Reality. All of these communicate cobot perception by visually indicating which objects in the cobot’s surrounding have been identified by their sensors. We compared the well-established visualizations Wedge and Halo against our proposed visualization Line in a remote user experiment with participants suffering from physical impairments. In a second remote experiment, we validated these findings with a broader non-specific user base. Our findings show that Line, a lower complexity visualization, results in significantly faster reaction times compared to Halo, and lower task load compared to both Wedge and Halo. Overall, users prefer Line as a more straightforward visualization. In Spatial Augmented Reality, with its known disadvantage of limited projection area size, established off-screen visualizations are not effective in communicating cobot perception and Line presents an easy-to-understand alternative.
This chapter describes a new concept and experiences of a distributed interdisciplinary learning program for students across continents. The aim is to provide students with a truly Global Intercultural Project Experience (GIPE) by working together with peers from around the world and solving real-life client’s problems. We have received seed-funding for four annual projects to engage students from Germany (Europe), Namibia (Africa), Indonesia (Asia), and Peru (South America). In 2020 and 2021, 28 and 44 students from four continents engaged in a one-semester distributed interdisciplinary project for a Namibian and Indonesian client, respectively. Despite Covid-19 they successfully completed the project expressing deep appreciation for the learning opportunities overcoming challenges of working across widespread time zones, cultures, changing requirements, and various technical difficulties. Considering the vast learning benefits, we suggest incorporating such projects in all tertiary education curricula across the globe, while streamlining organizational efforts based on lessons learned.
Fruits (follicles) of Hakea salicifolia and Hakea sericea (Proteaceae) are characterised by pronounced lignification and open via a ventral suture and the dorsal side. The opening along both sides is unique within the Proteaceae. Both serotinous species are obligate seeders, whose spreading benefits from bush fire events. The different tissues and the course of the vascular bundles must allow the opening mechanism. While their 2D-arrangements are known to some extent from light-microscopy images of cross-sections, this work presents their three-dimensional structures and discusses their contribution to the opening of Hakea fruits. For this purpose, 3D greyscale images, reconstructed from µCT-projection data of both fruits are segmented, assisted by a deep learning algorithm (AI algorithm). 3D renderings from these segmentations show strongly interconnected vascular bundles that build a double-dome shaped network in each valve of H. salicifolia and a dome shaped honeycomb-structure in each valve of H. sericea. However, the vascular bundles of both species show no interconnection between the two lateral valves of the fruit but leave gaps for predetermined fracture tissues on the ventral and dorsal side. The opening of the fruits after a fire or after separation from the mother plant can be explained by the anisotropic shrinkage in the two valves of the fruit.
We investigated the formation of Artemia franciscana swarms of freshly hatched instar I nauplii larvae. Nauplii were released into light gradients but then interrupted by light-direction changes, small obstacles, or long barriers. All experiments were carried out horizontally. Each experiment used independent replicates. Freshly produced Artemia broods were harvested from independent incubators thus providing true replicate cohorts of Artemia subjected as replicates to the experimental treatments.
We discovered that Artemia nauplii swarms can: 1. repeatedly react to non-obstructed light gradients that undergo repeated direction-changes and do so in a consistent way, 2. find their way to a light source within maze-like arrangements made from small transparent obstacles, 3. move as a swarm around extended transparent barriers, following a light gradient. This paper focuses on the recognition of whole-swarm behaviors, the description thereof and the recognition of differences in whole-swarm movements comparing non-obstructed swarming with swarms encountering obstacles. Investigations of the within-swarm behaviors of individual Artemia nauplii and their interactions with neighboring nauplii are in progress, e.g. in order to discover the underlying swarming algorithms and differences
thereof comparing non-obstructed vs. obstructed pathways.
The concept of molecular scaffolds as defining core structures of organic molecules is utilised in many areas of chemistry and cheminformatics, e.g. drug design, chemical classification, or the analysis of high-throughput screening data. Here, we present Scaffold Generator, a comprehensive open library for the generation, handling, and display of molecular scaffolds, scaffold trees and networks. The new library is based on the Chemistry Development Kit (CDK) and highly customisable through multiple settings, e.g. five different structural framework definitions are available. For display of scaffold hierarchies, the open GraphStream Java library is utilised. Performance snapshots with natural products (NP) from the COCONUT (COlleCtion of Open Natural prodUcTs) database and drug molecules from DrugBank are reported. The generation of a scaffold network from more than 450,000 NP can be achieved within a single day.