Filtern
Erscheinungsjahr
- 2022 (104) (entfernen)
Dokumenttyp
Schlagworte
- CDK (2)
- Electrodeposition (2)
- Journalismus (2)
- Marketing (2)
- OCSR (2)
- water electrolysis (2)
- AEM-Electrolysis (1)
- Air handling unit (1)
- Arbeitszeit (1)
- Automatisierung (1)
Institut
- Wirtschaftsrecht (31)
- Institut für biologische und chemische Informatik (12)
- Informatik und Kommunikation (9)
- Westfälisches Energieinstitut (8)
- Wirtschaft Gelsenkirchen (8)
- Maschinenbau Bocholt (6)
- Maschinenbau und Facilities Management (6)
- Wirtschaft und Informationstechnik Bocholt (4)
- Institut für Innovationsforschung und -management (1)
- Institute (1)
Gerechter Zufall per Gesetz?
(2022)
Grundkurs C++
(2022)
Das gesamte Grundwissen zu C++ im praktischen Taschenbuchformat – zum Lernen und Nachschlagen. Vom ersten einfachen Programm bis zu komplexen Anwendungen. Übungen am Ende jedes Kapitels helfen Ihnen bei der Lernkontrolle. Sämtliche Grundlagen (Klassen, Vererbung, Polymorphie, Templates usw.) werden kurz und übersichtlich dargestellt. Diese dritte Auflage berücksichtigt aktuelle Standars bis C++20.
Der Datenjournalismus wird gleichermaßen stark in der Nachrichtenbranche beobachtet und in der Journalismusforschung reflektiert. Dieser Beitrag beschreibt das Phänomen zunächst im Kontext des Megatrends der Automatisierung des Journalismus. Anschließend wird die erste Trendstudie zum Da-tenjournalismus in Deutschland vorgestellt: Die Berufsfeldstudie war 2012 und 2019 im Feld. Die ge-wählten Items ermöglichen einen Längsschnitt-Vergleich der Entwicklung des Datenjournalismus. Bei einem Vergleich mit den nationalen Daten der „Worlds of Journalism Study“ werden weitere Gemein-samkeiten und Unterschiede deutlich. Die Ergebnisse zeigen, dass sich der Datenjournalismus in Deutschland zunehmend institutionalisiert hat und Datenjournalist:innen sich stark einem investigati-ven politischen Journalismus verpflichtet fühlen.
Kompensationsgeschäfte sind als Kopplungsgeschäfte medienrechtlich verboten. Laut Berichten von Praktiker*innen sind sie jedoch alltägliches Werkzeug im Austausch zwischen Journalist*innen und Verlagen einerseits sowie PR-Akteur*innen und Werbungtreibenden andererseits. Auf Grundlage kommunikationswissenschaftlicher, medienrechtlicher und betriebswirtschaftlicher Literatur sowie einer Befragung von 37 Expert*innen aus der Kommunikationsbranche wird untersucht, welche Formen von Kompensationsgeschäften in der Praxis existieren und welche Rolle Kompensationsgeschäfte im Wechselverhältnis von Öffentlichkeitsarbeit und Journalismus spielen. In der alltäglichen Berufspraxis mancher Branchen und Redaktionen werden im Ergebnis mit großer Selbstverständlichkeit Kompensationsgeschäfte genutzt. Daher wird nach einem definitorischen Abgleich von Induktionen, Adaptionen und Kompensationen eine Erweiterung des Intereffikationsmodells vorgeschlagen.
Journalismus und Werbung. Zur Trennung von redaktionellen Inhalten und kommerzieller Kommunikation
(2022)
Der Trennungsgrundsatz zwischen redaktionellen Inhalten und kommerzieller Kommunikation schützt sowohl die Demokratie- wie auch die Werbeträgerfunktion von Massenmedien. Dieser Beitrag stellt für die diversen Aspekte des Trennungsgrundsatzes wie die Kennzeichnungspflicht, das Verbot von bezahlten Inhalten und Kopplungsgeschäften sowie die Handhabung zahlreicher Darstellungsformen redaktioneller Werbung alle verfügbaren gesetzlichen und standesrechtlichen Regelungen zusammen. Anschließend wird für die einzelnen Aspekte des Trennungsgrundsatzes der Stand der Forschung insbesondere hinsichtlich Beschreibung und Wirkung referiert. Schließlich werden Lösungsvorschläge für die aktuelle Anwendung und Desiderata zusammengetragen.
Journalism and Advertising. On the Separation of Editorial Content and Commercial Communication
(2022)
The principle of separation between editorial content and commercial communication protects both the democratic and the commercial function of mass media. This article compiles all available statutory and professional regulations in Germany as an example of the various aspects of the principle of separation, such as the labeling obligation, the prohibition of paid content and tying transactions, as well as the handling of numerous forms of presentation of editorial advertising. Subsequently, the state of research is reported for the individual aspects of the principle of separation, in particular with regard to description and effect. Finally, proposed solutions for current application and desiderata are compiled.
Different charge treatment approaches are examined for cyclotide-induced plasma membrane disruption by lipid extraction studied with dissipative particle dynamics. A pure Coulomb approach with truncated forces tuned to avoid individual strong ion pairing still reveals hidden statistical pairing effects that may lead to artificial membrane stabilization or distortion of cyclotide activity depending on the cyclotide’s charge state. While qualitative behavior is not affected in an apparent manner, more sensitive quantitative evaluations can be systematically biased. The findings suggest a charge smearing of point charges by an adequate charge distribution. For large mesoscopic simulation boxes, approximations for the Ewald sum to account for mirror charges due to periodic boundary conditions are of negligible influence.
Wie wählen Nachrichtenmedien aus, worüber sie berichten? Dieser Frage versuchen Nachrichtenwertforschende seit vielen Jahren auf den Grund zu gehen. Die Nachrichtenwertforschung ist eine der traditionsreichsten Forschungsrichtungen der Journalismusforschung, die bis zum heutigen Tag aktuell ist. Begründet wurde sie bereits in den 1920er-Jahren von Walter Lippmann, internationale Bekanntheit erfuhr sie durch Johan Galtung und Mari Holmboe Ruge, die 1965 eine Liste von Nachrichtenfaktoren entwickelten und diese empirisch überprüften. Es folgten unzählige empirische Untersuchungen zu diesem Thema, die sich an einer Weiterentwicklung der Theorie versuchten. Der vorliegende Beitrag gibt einen Überblick über die Entwicklungsgeschichte der Nachrichtenwertforschung und skizziert, was Forschende heutzutage an der Thematik interessiert.
„Digital gestützte Lehrveranstaltungen“ im Sinne von § 1a Abs. 2 LVV (NRW) – eine erste Annäherung
(2022)
The use of molecular string representations for deep learning in chemistry has been steadily increasing in recent years. The complexity of existing string representations, and the difficulty in creating meaningful tokens from them, lead to the development of new string representations for chemical structures. In this study, the translation of chemical structure depictions in the form of bitmap images to corresponding molecular string representations was examined. An analysis of the recently developed DeepSMILES and SELFIES representations in comparison with the most commonly used SMILES representation is presented where the ability to translate image features into string representations with transformer models was specifically tested. The SMILES representation exhibits the best overall performance whereas SELFIES guarantee valid chemical structures. DeepSMILES perform in between SMILES and SELFIES, InChIs are not appropriate for the learning task. All investigations were performed using publicly available datasets and the code used to train and evaluate the models has been made available to the public.
The translation of images of chemical structures into machine-readable representations of the depicted molecules is known as optical chemical structure recognition (OCSR). There has been a lot of progress over the last three decades in this field, but the development of systems for the recognition of complex hand-drawn structure depictions is still at the beginning. Currently, there is no data for the systematic evaluation of OCSR methods on hand-drawn structures available. Here we present DECIMER — Hand-drawn molecule images, a standardised, openly available benchmark dataset of 5088 hand-drawn depictions of diversely picked chemical structures. Every structure depiction in the dataset is mapped to a machine-readable representation of the underlying molecule. The dataset is openly available and published under the CC-BY 4.0 licence which applies very few limitations. We hope that it will contribute to the further development of the field.
Dieses Buch betrachtet die grundlegenden logistischen Bereiche zur Beschaffung, Produktion, Distribution und Entsorgung und zeigt, welche Themen und Aspekte das Logistikmanagement umfassen. In der Logistik geht es vor allem um die Optimierung des Materialflusses, der Kapazitätsauslastung, der Transportstrecke oder der Maschinenbelegung. Für den Bereich des Supply Chain Management wird die Funktionsweise, Koordination und Resilienz der Supply Chain auch vor dem Hintergrund aktueller Lieferkettenstörungen und der Einführung des Lieferkettensorgfaltspflichtengesetzes beschrieben.
Das Buch ermöglicht, anhand von zahlreichen Anwendungs- und quantitativen Übungsbeispielen, das im Studium benötigte Wissen leicht nachvollziehbar zu erlangen und zu vertiefen.
Das Phänomen des Shareholder Activismbzw. der aktivistischen Investorenwar bis vor wenigen Jahren primär aus demangloamerikanischen Raumbekannt. Seit einiger Zeit sind verstärkt auch europäische und deutscheUnternehmen das Ziel von aktivistischen Aktionären. Der vorliegendeBeitrag zeigt die Zielsetzungen dieser Investorengruppe und die hierbeiverfolgten Strategien bzw. eingesetzten Maßnahmen auf, womit paralleleine Beschreibung des Geschäftsmodells des finanziell geprägten Share-holder Activismvorgelegt wird.
Hintergrund
Während der SARS-CoV-2-Pandemie ist es vorrangig, die Mitarbeiter vor Infektionsrisiken zu schützen und die Geschäftstätigkeit zu sichern. Neue Virusvarianten mit erhöhter Ansteckungsgefahr erfordern eine weiterentwickelte Risikostrategie.
Material und Methoden
Mehrere Standardmaßnahmen wie Tests, Isolierung und Quarantäne werden zu einer neuartigen Risikostrategie kombiniert. Epidemiologische Modellrechnungen und wissenschaftliche Erkenntnisse über den Verlauf der SARS-CoV-2-Infektiosität werden zur Optimierung dieser Strategie herangezogen. Das Verfahren ist in einem einfach zu bedienenden Rechner auf Excel-Basis implementiert.
Aufbau in der Praxis und Ergebnisse
Alternative Maßnahmenkombinationen und praktische Aspekte werden erörtert. Anhand von Beispielrechnungen wird die Wirkung der diskutierten Maßnahmen demonstriert.
Schlussfolgerung
Der aus diesen Grundlagen abgeleitete Quarantäne-Rechner ermöglicht es auch Nicht-Fachleuten, eine differenzierte Risikoanalyse durchzuführen und optimierte Maßnahmen einzuleiten. Gezielte Prüfroutinen und alternative Maßnahmen sichern die Personalverfügbarkeit.
The development of deep learning-based optical chemical structure recognition (OCSR) systems has led to a need for datasets of chemical structure depictions. The diversity of the features in the training data is an important factor for the generation of deep learning systems that generalise well and are not overfit to a specific type of input. In the case of chemical structure depictions, these features are defined by the depiction parameters such as bond length, line thickness, label font style and many others. Here we present RanDepict, a toolkit for the creation of diverse sets of chemical structure depictions. The diversity of the image features is generated by making use of all available depiction parameters in the depiction functionalities of the CDK, RDKit, and Indigo. Furthermore, there is the option to enhance and augment the image with features such as curved arrows, chemical labels around the structure, or other kinds of distortions. Using depiction feature fingerprints, RanDepict ensures diversely picked image features. Here, the depiction and augmentation features are summarised in binary vectors and the MaxMin algorithm is used to pick diverse samples out of all valid options. By making all resources described herein publicly available, we hope to contribute to the development of deep learning-based OCSR systems.
Krankenhäuser in Deutschland befinden sich seit vielen Jahren in einer schwierigen finanziellen Lage, weshalb bei nicht wenigen von ihnen ein konkretes Insolvenzrisiko zu beobachten ist. Diese Entwicklung verstärkt den Druck auf die Krankenhäuser, noch intensiver als bisher eine Verbesserung ihrer Liquiditätssituation zu erreichen. Ein optimiertes Working Capital kann die Verbesserung der Liquidität wirksam unterstützen. Der vorliegende Beitrag zeigt die zentralen Komponenten des Working Capitals bzw. des Cash Conversion Cycle in Krankenhäusern auf, erläutert wichtige Gestaltungsbereiche zur Verbesserung des Working Capitals und zeigt zudem auf der Basis aktueller Untersuchungsergebnisse die Ist-Situation auf.
Planung bzw. Budgetierung bilden ein zentrales Element des Controlling. Aussagekräftige Ergebnisse der Budgetierung sind unverzichtbar für die Steuerung der im Unternehmen verfügbaren Ressourcen. Entsprechend der hohen Bedeutung der Budgetierung ist eine intensive methodische Innovationsbereitschaft bei den Planungsinstrumenten in den letzten Jahren zu beobachten. Zwischenzeitlich werden auch die Einsatzbereiche des Zero-Based-Budgeting wieder intensiver diskutiert (= reloaded), wobei hier die Besonderheit darin besteht, dass dieses Instrument bereits in den 80er Jahren für einige Jahre eine stärkere Beachtung in der betriebswirtschaftlichen Theorie und Praxis gefunden hatte.
Die Ukrainekrise und coronabedingte Lieferkettenprobleme treiben derzeitdie Rohstoff-, Material- und Lebensmittelpreise hoch. Auch die Inflationser-wartungen steigen; es drohen Zweitrundeneffekte imGefolge höhererLohnforderungen und Lohnabschlüsse. Langfristig könnten in der Eurozoneweitere Faktoren die Inflation treiben, z.B. angebotsseitig der Fachkräfte-mangel sowie globale Nahrungsmittelknappheiten und politikseitig diegewollten Effekte der Klimapolitik. Der Beitrag diskutiert vor diesemHinter-grund geldpolitische Implikationen.
Ein größerer Anteil der in den letzten Jahren vorgenommenen Unternehmensakquisitionen wurde maßgeblich mit attraktiven Synergieerwartungen begründet. Bei näherer Betrachtung können diese Synergien oft nur wenig präzise quantifiziert und der Zeitpunkt ihrer Realisierung nur ungenau eingeordnet werden. Der vorliegende Beitrag zeigt die Bedeutung von Synergien in Verbindung mit dem Goodwill, grenzt die Kosten- und Umsatzsynergien inhaltlich ab und befasst sich auf der Basis zahlreicher Studien mit dem aktuellen Erkenntnisstand in Verbindung mit der Vorbereitung und Realisierung von Kosten- und Umsatzsynergien.
Air Handling units (AHU) are designed to guarantee a high indoor air quality for any time and outdoor condition all over the year. To do so, the AHU removes particle matter like dust or pollen and adapts the thermophysical properties of air to the desired, seasonal indoor comfort conditions. AHU have a robust design and thus operate for more than fifteen years, sometimes even for decades. An AHU designed today must consider and anticipate the change of user needs as well as outdoor air conditions for the next twenty years. To anticipate the outdoor air condition of coming decades, scientific models exist, which allow the design of peak performance and capacities of the air treatment components. It is most likely, that the ongoing climate change will lead to higher temperatures as well as higher humidity, while the comfort zone of human beings will remain at today’s values. Next to the impact of global warming with average rise of mean air temperature local effects will influence the operation of AHU. On effect investigated here is the steep temperature increase in city centres called urban heat islands. Heating and cooling capacities as well as water consumption for humidification are investigated for a reference AHU for fifteen regional locations in Germany. These regions represent all climate zones within the country. Additionally, the urban heat island effect was investigated for Berlin Alexanderplatz compared a rural area close by. The AHU was chosen to operate in an intensive care unit of a hospital. The set-up leads to 24/7 operation with 8760 hours per year. The article presents the modelling of current and future weather data as well as the unit set up. The calculated hourly performance and capacity parameters for current (reference year 2012) and future weather data (reference year 2045) yield energy consumption and peak loads of the unit for heating, cooling and humidification. The results are displayed by relative comparisons of each performance value.
Biomimetics is a well-known approach for technical innovation. However, most of its influence remains in the academic field. One option for increasing its application in the practice of technical design is to enhance the use of the biomimetic process with a step-by-step standard, building a bridge to common engineering procedures. This article presents the endeavor of an interdisciplinary expert panel from the fields of biology, engineering science, and industry to develop a standard that links biomimetics to the classical processes of product development and engineering design. This new standard, VDI 6220 Part 2, proposes a process description that is compatible and connectable to classical approaches in engineering design. The standard encompasses both the solution-based and the problem-driven process of biomimetics. It is intended to be used in any product development process for more biomimetic applications in the future.
Robot arms are one of many assistive technologies used by people with motor impairments. Assistive robot arms can allow people to perform activities of daily living (ADL) involving grasping and manipulating objects in their environment without the assistance of caregivers. Suitable input devices (e.g., joysticks) mostly have two Degrees of Freedom (DoF), while most assistive robot arms have six or more. This results in time-consuming and cognitively demanding mode switches to change the mapping of DoFs to control the robot. One option to decrease the difficulty of controlling a high-DoF assistive robot arm using a low-DoF input device is to assign different combinations of movement-DoFs to the device’s input DoFs depending on the current situation (adaptive control). To explore this method of control, we designed two adaptive control methods for a realistic virtual 3D environment. We evaluated our methods against a commonly used non-adaptive control method that requires the user to switch controls manually. This was conducted in a simulated remote study that used Virtual Reality and involved 39 non-disabled participants. Our results show that the number of mode switches necessary to complete a simple pick-and-place task decreases significantl when using an adaptive control type. In contrast, the task completion time and workload stay the same. A thematic analysis of qualitative feedback of our participants suggests that a longer period of training could further improve the performance of adaptive control methods.
Media Brand Management
(2022)
The management of media brands faces challenges. In order to be able to point out possible solutions, this article first explains the concept and the nature of “media brands.” Subsequently, various theoretical approaches to the explanation of media brands and their management are presented. Regardless of theoretical preferences, it is important to keep in mind the brand-strategic complexity of media management that is subsequently described. Due to their specificity, special attention is paid to the basic strategic positioning options and to the communication management of media brands. In this way, the special features of media brand management become clear in comparison with other products and services.
Nowadays, robots are found in a growing number of areas where they collaborate closely with humans. Enabled by lightweight materials and safety sensors, these cobots are gaining increasing popularity in domestic care, where they support people with physical impairments in their everyday lives. However, when cobots perform actions autonomously, it remains challenging for human collaborators to understand and predict their behavior, which is crucial for achieving trust and user acceptance. One significant aspect of predicting cobot behavior is understanding their perception and comprehending how they “see” the world. To tackle this challenge, we compared three different visualization techniques for Spatial Augmented Reality. All of these communicate cobot perception by visually indicating which objects in the cobot’s surrounding have been identified by their sensors. We compared the well-established visualizations Wedge and Halo against our proposed visualization Line in a remote user experiment with participants suffering from physical impairments. In a second remote experiment, we validated these findings with a broader non-specific user base. Our findings show that Line, a lower complexity visualization, results in significantly faster reaction times compared to Halo, and lower task load compared to both Wedge and Halo. Overall, users prefer Line as a more straightforward visualization. In Spatial Augmented Reality, with its known disadvantage of limited projection area size, established off-screen visualizations are not effective in communicating cobot perception and Line presents an easy-to-understand alternative.
This chapter describes a new concept and experiences of a distributed interdisciplinary learning program for students across continents. The aim is to provide students with a truly Global Intercultural Project Experience (GIPE) by working together with peers from around the world and solving real-life client’s problems. We have received seed-funding for four annual projects to engage students from Germany (Europe), Namibia (Africa), Indonesia (Asia), and Peru (South America). In 2020 and 2021, 28 and 44 students from four continents engaged in a one-semester distributed interdisciplinary project for a Namibian and Indonesian client, respectively. Despite Covid-19 they successfully completed the project expressing deep appreciation for the learning opportunities overcoming challenges of working across widespread time zones, cultures, changing requirements, and various technical difficulties. Considering the vast learning benefits, we suggest incorporating such projects in all tertiary education curricula across the globe, while streamlining organizational efforts based on lessons learned.
Fruits (follicles) of Hakea salicifolia and Hakea sericea (Proteaceae) are characterised by pronounced lignification and open via a ventral suture and the dorsal side. The opening along both sides is unique within the Proteaceae. Both serotinous species are obligate seeders, whose spreading benefits from bush fire events. The different tissues and the course of the vascular bundles must allow the opening mechanism. While their 2D-arrangements are known to some extent from light-microscopy images of cross-sections, this work presents their three-dimensional structures and discusses their contribution to the opening of Hakea fruits. For this purpose, 3D greyscale images, reconstructed from µCT-projection data of both fruits are segmented, assisted by a deep learning algorithm (AI algorithm). 3D renderings from these segmentations show strongly interconnected vascular bundles that build a double-dome shaped network in each valve of H. salicifolia and a dome shaped honeycomb-structure in each valve of H. sericea. However, the vascular bundles of both species show no interconnection between the two lateral valves of the fruit but leave gaps for predetermined fracture tissues on the ventral and dorsal side. The opening of the fruits after a fire or after separation from the mother plant can be explained by the anisotropic shrinkage in the two valves of the fruit.
We investigated the formation of Artemia franciscana swarms of freshly hatched instar I nauplii larvae. Nauplii were released into light gradients but then interrupted by light-direction changes, small obstacles, or long barriers. All experiments were carried out horizontally. Each experiment used independent replicates. Freshly produced Artemia broods were harvested from independent incubators thus providing true replicate cohorts of Artemia subjected as replicates to the experimental treatments.
We discovered that Artemia nauplii swarms can: 1. repeatedly react to non-obstructed light gradients that undergo repeated direction-changes and do so in a consistent way, 2. find their way to a light source within maze-like arrangements made from small transparent obstacles, 3. move as a swarm around extended transparent barriers, following a light gradient. This paper focuses on the recognition of whole-swarm behaviors, the description thereof and the recognition of differences in whole-swarm movements comparing non-obstructed swarming with swarms encountering obstacles. Investigations of the within-swarm behaviors of individual Artemia nauplii and their interactions with neighboring nauplii are in progress, e.g. in order to discover the underlying swarming algorithms and differences
thereof comparing non-obstructed vs. obstructed pathways.
The concept of molecular scaffolds as defining core structures of organic molecules is utilised in many areas of chemistry and cheminformatics, e.g. drug design, chemical classification, or the analysis of high-throughput screening data. Here, we present Scaffold Generator, a comprehensive open library for the generation, handling, and display of molecular scaffolds, scaffold trees and networks. The new library is based on the Chemistry Development Kit (CDK) and highly customisable through multiple settings, e.g. five different structural framework definitions are available. For display of scaffold hierarchies, the open GraphStream Java library is utilised. Performance snapshots with natural products (NP) from the COCONUT (COlleCtion of Open Natural prodUcTs) database and drug molecules from DrugBank are reported. The generation of a scaffold network from more than 450,000 NP can be achieved within a single day.
Im zweiten Corona-Winter sollen die Schulen offenbleiben. Neben Fenster- und mechanischer Lüftung werden mobile Raumluftreiniger als sinnvolle Maßnahmen angesehen, um das Infektionsrisiko zu reduzieren. Dabei stellt sich die Frage, wie deren sicherer und zuverlässiger Betrieb gestalten sein muss. Gibt es bevorzugte Aufstellpositionen im Raum und wie wirkt sich die Luftbewegung auf die Behaglichkeit aus? Die Datenlage hierzu ist noch unzureichend (vgl. HLH-Interview mit Dr. Gommel, HLH 10/2021). Diese Fragen werden für einen typischen Seminar- und Klassenraum näher beleuchtet.
Zentrale Raumlufttechnische Anlagen (RLT-Anlagen) sind für Betriebszeiten von fünfzehn und mehr Jahren konzipiert. Nicht selten werden die Geräte auch nach 25 Jahren Dank Retrofit weiterbetrieben. Unberücksichtigt bleibt dabei, ob die zukünftigen, klimatischen Bedingungen noch der Auslegung entsprechen. Zur Überprüfung der klimatischen Änderungen können sogenannte Testreferenzjahre (TRY – Test Reference Year) genutzt werden. Diese basieren für die heutige Auslegung auf den lokalen, stündlichen Wetterbedingungen im Bezugsjahr 2012 und zusätzlich auf modellbasierten Wetterdaten für das Bezugsjahr 2045.
Das Zentralluftgerät einer Krankenhaus-Intensivstation wurde für die 15 Wetter¬stationen der VDI 4710, Blatt 3 in Deutschland auf die Leistungsanforderungen von heute und für das Jahr 2045 untersucht. Zusätzlich wurden für den Standort Berlin die aktuellen Wetteraufzeichnungen im Sommer 2020 betrachtet. Daraus lassen sich Rückschlüsse ziehen, wie sich städtische Wärmeinseln (UHI – Urban Heat Islands) zukünftig auf den Energie- und Leistungsbedarf zur Gebäudeklimatisierung auswirken werden.
Die Auswirkungen auf die Wärme- und Kältespitzenleistung sowie der kumulierte Energiebedarf werden genauso analysiert wie der Befeuchtungsbedarf. Hieraus lassen sich die potenziellen Leistungsreserven abschätzen und die Klimaresilienz der Anlagentechnik bewerten.
The development of deep learning-based optical chemical structure recognition (OCSR) systems has led to a need for datasets of chemical structure depictions. The diversity of the features in the training data is an important factor for the generation of deep learning systems that generalise well and are not overfit to a specific type of input. In the case of chemical structure depictions, these features are defined by the depiction parameters such as bond length, line thickness, label font style and many others. Here we present RanDepict, a toolkit for the creation of diverse sets of chemical structure depictions. The diversity of the image features is generated by making use of all available depiction parameters in the depiction functionalities of the CDK, RDKit, and Indigo. Furthermore, there is the option to enhance and augment the image with features such as curved arrows, chemical labels around the structure, or other kinds of distortions. Using depiction feature fingerprints, RanDepict ensures diversely picked image features. Here, the depiction and augmentation features are summarised in binary vectors and the MaxMin algorithm is used to pick diverse samples out of all valid options. By making all resources described herein publicly available, we hope to contribute to the development of deep learning-based OCSR systems.
BIM-Daten sind vielfältig und entstehen an unterschiedlichen Zeitpunkten im Bauprojekt. Das Verständnis und der Umgang mit diesen Daten sind wesentliche Merkmale der BIM-Methodik.
Für den Anwender ist dabei nicht immer sofort klar, wie und in welcher Detailtiefe Bauwerksinformationen – über die reine Geometrie hinaus – bereitgestellt werden müssen.
In diesem Buch werden die Modelle und Formate vor-
gestellt. Dabei werden insbesondere die Attribute und Eigenschaften der BIM-Objekte betrachtet.
Die Nutzung der Daten und das dazugehörige Datenmanagement werden anschaulich erklärt. Praktische Tipps zur richtigen Softwareauswahl schließen das Buch ab.
We study the dynamics of a quantum two-state system driven through an avoided crossing under the influence of a super-Ohmic environment. We determine the Landau–Zener probability employing the numerical exact quasi-adiabatic path integral and a Markovian weak coupling approach. Increasing the driving time in the numerical protocol, we find converged results which shows that super-Ohmic environments only influence the Landau Zener probability within a finite crossing time window. This crossing time is qualitatively determined by the environmental cut-off energy. At weak coupling, we show that the Markovian weak coupling approach provides an accurate description. Since pure dephasing of a super-Ohmic bath is non-Markovian, this highlights that pure dephasing hardly influences the Landau–Zener probability. The finite crossing time window, thus, results from the suppression of relaxation once the energy splitting exceeds the environmental cut-off energy.
A quantum two-level system immersed in a sub-Ohmic bath experiences enhanced low-frequency quantum statistical fluctuations which render the nonequilibrium quantum dynamics highly non-Markovian. Upon using the numerically exact time-evolving matrix product operator approach, we investigate the phase diagram of the polarization dynamics. In addition to the known phases of damped coherent oscillatory dynamics and overdamped decay, we identify a new third region in the phase diagram for strong coupling showing an aperiodic behavior. We determine the corresponding phase boundaries. The dynamics of the quantum two-state system herein is not coherent by itself but slaved to the oscillatory bath dynamics.
We propose a quantum-mechanical model to calculate the nonlinear differential conductance of a single molecular junction immersed in a solvent, either in pure form or as a binary mixture with varying volume fraction. The solvent mixture is captured by a dielectric continuum model for which the resulting spectral density is determined within the Gladstone-Dale approach. The conductance of the molecular junction is calculated by a real-time diagrammatic technique. We find a strong variation of the conductance maximum for varying volume fraction of the solvent mixture. Importantly, the calculated molecular nonlinear conductance shows a very good agreement with experimentally measured data for common molecular junctions in various polar solvent mixtures.
Einleitung und Fragestellung
Zahlreiche empirische Befunden sprechen für die positiven Effekte authentischer Führung. Wir untersuchen ihre Antezedenzien.
Theoretischer Hintergrund
Authentische Führung meint Handeln im Einklang mit moralischen Werten. Aus sozialkognitiver Perspektive bezeichnet moralische Identität eine komplexe Wissensstruktur aus moralischen Werten, Zielen und Verhaltensmustern, welche durch Lebenserfahrungen erworben werden. Darin sehen wir eine Basis für authentische
Führung (H1). Sich trotz sozialer Opposition für moralische Prinzipien einzusetzen, ist bezeichnend für Mut. Dieser zeigt sich in selbstkongruentem Verhalten trotz negativer
Konsequenzen. Dem Identitätsprozessmodell folgend, wird Mut notwendig, wenn Identiätsspannungen Inkongruenz zwischen Selbstkonzept und sozialer Identität hervorrufen. Darin sehen wir ein Aktivierungspotenzial für authentische Führung (H2).
Methode
Wir befragten N = 70 Führungsdyaden eines Industriekonzerns. Mut (WSCS; Howard et al., 2016) und moralische Identität(MIS; Aquino & Reed, 2002) wurden als Selbsteinschätzung der Führungskräfte erhoben (Altersdurchschnitt: 46 Jahre, 59% ♂). Authentische Führung (ALQ, Walumbwa et al., 2008) erfassten wir als Fremdeinschätzung durch Mitarbeitende (Altersdurchschnitt: 37, 47% ♂).
Ergebnisse
Moralische Identität und tatsächliches Verhalten müssen scheinbar nicht notwendigerweise übereinstimmen; etwa wenn hohe Kosten für moralisches Verhalten erwartbar sind. Hier setzt sozialer Mut im Arbeitskontext an. Entsprechend
wird eine mutig agierende Führungskraft als authentisch wahrgenommen, vor allem, wenn dieses Verhalten mögliche negative soziale Konsequenzen beinhaltet.
Diskussion
Mutiges Handeln wird durch Persönlichkeit, Selbstwirksamkeit und aktuelle Emotionen geleitet und kann etwa in der Führungskräfteentwicklung gelernt werden.
Hier bieten sich narrative Formate an, die die Selbstreflexion fördern. Auch bzgl. der Entwicklung authentischer Führung verweisen erste Befunde auf die Bedeutung der persönlichen Reflexion, z.B. über die eigene Lebensgeschichte.
To address the question which neocortical layers and cell types are important for the perception of a sensory stimulus, we performed multielectrode recordings in the barrel cortex of head-fixed mice performing a single-whisker go/no-go detection task with vibrotactile stimuli of differing intensities. We found that behavioral detection probability decreased gradually over the course of each session, which was well explained by a signal detection theory-based model that posits stable psychometric sensitivity and a variable decision criterion updated after each reinforcement, reflecting decreasing motivation. Analysis of multiunit activity demonstrated highest neurometric sensitivity in layer 4, which was achieved within only 30 ms after stimulus onset. At the level of single neurons, we observed substantial heterogeneity of neurometric sensitivity within and across layers, ranging from nonresponsiveness to approaching or even exceeding psychometric sensitivity. In all cortical layers, putative inhibitory interneurons on average proffered higher neurometric sensitivity than putative excitatory neurons. In infragranular layers, neurons increasing firing rate in response to stimulation featured higher sensitivities than neurons decreasing firing rate. Offline machine-learning-based analysis of videos of behavioral sessions showed that mice performed better when not moving, which at the neuronal level, was reflected by increased stimulus-evoked firing rates.
Daten sind heute die Schlüsselkomponente in der Wertschöpfung. Ihre sichere und vertrauenswürdige Verarbeitung sind daher essenziell - auch in Cloud-Infrastrukturen, die per se erst mal nicht vertrauenswürdig sind. Während die Daten und der Code der sie verarbeitenden Anwendung hier in gespeicherter Form und bei der Übertragung in der Regel verschlüsselt sind, liegt beides während der Verarbeitung von Anwendungen in einer Cloud-Infrastruktur im Klartext vor und ist somit angreifbar. Auf der Basis von Sicherheitsfunktionen der CPU sorg Confidential Computing dafür, dass Anwendungen mit Code und Daten auf Cloud-Infrastrukturen in isolierter und verschlüsselter Form in sicheren Enklaven verarbeitet werden. Die Inhalte der Anwendung in einer Enklave werden so vor unbefugten Zugriff durch Systemadministratoren und weiteren Personen, die prinzipiell Zugriff auf die Cloud-Infrastruktur haben, geschützt. Technik unterstützt auf diese Weise die sichere und vertrauenswürdige Umsetzung des Datenschutzes.
Das Internet hat sich als globale Kommunikations-, Informations-, Commerce- und Businessinfrastruktur fest in der Gesellschaft etabliert. Mit jedem Grad Zuwachs bei der Digitalisierung wird das Leben einfacher und schneller - aber auch gefährlicher. Die konkrete Gefährlichkeit bleibt dabei bislang oft ein Mysterium - Strategien für die IT-Sicherheit müssen auf Basis von Annahmen und Erfahrungen entwickelt werden. Internet-Kennzahlen und deren systematische Auswertung sollen nun dabei helfen, Probleme, Risiken und Schwachstellen als Trend zu erkennen, um Sicherheitsstrategien proaktiv fokussierter zu gestalten. Auch der Stand der IT-Sicherheit lässt sich durch Messung der Kennzahlen ermitteln und bewerten. Internet-Kennzahlen werden von lokalen und globalen Anbietern bereitgestellt.
Supply-Chain-Angriffe sind eine akute Bedrohung für jedes Unternehmen. Einen Softwarelieferanten auszunutzen, um eine große Anzahl seiner Kunden zu erreichen, ist eine ausgeklügelte und erfolgreiche Methode aktueller Hacker. Die Spezialisierung der Unternehmen auf ihre Kernkompetenzen, die Globalisierung der Lieferketten (im folgendem wird Supply Chain und Lieferkette synonym verwendet), sowie die Digitalisierung entlang der Wertschöpfungskette sind nur einige Beispiele, wieso Angreifer vermehrt die Vertrauensbeziehung zwischen Kunden und Lieferanten verstärkt für Angriffe ausnutzen. Dieser Artikel erläutert Cyber-Angriffe in Bezug auf eine Supply Chain und zeigt Sicherheitsmechanismen für die erfolgreiche Verteidigung.
Das Gesundheitswesen in Deutschland, Europa, aber auch weltweit steht gerade erst am Beginn eines notwendigen und besonderen Digitalisierungsschubs. Ein wichtiger Schritt im Rahmen dieser Digitalisierung wird es sein, sämtliche medizinische Daten leistungsträgerübergreifend einfach verfügbar zu machen. Dies ermöglicht neue Methoden der Behandlung wie durch KI-Ansätze oder die Vermeidung von Doppelbehandlungen. Zur Erreichung dieser Ziele ist es unabdingbar, dass moderne medizintechnische IT-Geräte miteinander vernetzt werden und die anfallenden Daten sicher verarbeitet und hinterlegt werden. Durch diesen Prozess entstehen aber auch neue Angriffsvektoren und die Risiken steigen erheblich an.
Diese Arbeit beschreibt zunächst grundlegende Cyber-Sicherheitsstrategien, die helfen die vorhandenen Risiken zu minimieren und mit den verbleibenden Risiken umzugehen. Zusätzlich werden konkrete Sicherheitsbedürfnisse- und Anforderungen, die zur Vernetzung von Medizintechnik und zur Verarbeitung von Daten in der Cloud, nötig sind diskutiert. Abschließend wird eine Gesamtarchitektur vorgestellt, die diese Sicherheitsbedürfnisse umsetzt.
Digitale Sprachassistenten wie Alexa, Google, Siri & Co erfreuen sich auch in Deutschland hoher Beliebtheit - Tendenz steigend. Bei allen genannten und vielen weiteren Systemen handelt es sich um cloudbasierte Architekturen - die gesprochenen Befehle werden in Rechenzentren rund um den Globus übertragen und dort interpretiert. Aus Sicht des Datenschutzes und der Privatsphäre ist das problematisch. Auch die Abhängigkeit zu Cloud-Anbietern kann zu Schwierigkeiten führen, z.B. wenn sich die Sprachassistenten oder Smart-Home-Geräte nicht mehr nutzen lassen, weil der Anbieter seinen Dienst einstellt. Im Rahmen eines internen Forschungsprojekts hat das Institut für Internet-Sicherheit nun einen "dezentralen" Sprachassistenten entwickelt, der im Offline-Betrieb operiert und die Sprachdaten lokal auf dem Gerät verarbeitet, ohne sie in eine entfernte Cloud übertragen zu müssen.
Im Prinzip wollen und müssen Menschen auch in der digitalen Welt vertrauen (können) – nicht zuletzt, um grundsätzlich handlungsfähig zu sein. Aber auch, weil teilweise gar keine andere Wahl besteht, als einfach zu vertrauen, da die IT-Technologien mittlerweile nicht nur so allgegenwärtig, sondern auch so komplex geworden sind, dass der Nutzer sie vielfach gar nicht mehr einschätzen kann. Daher ist es – insbesondere im Sinne der Digitalisierung – wichtig und auch notwendig, dass Nutzern verschiedene Alternativen zur Verfügung stehen, anhand derer sie individuell die Vertrauenswürdigkeit von Unternehmen sowie IT-Lösungen – also jeglicher Produkte, Anwendungen und Dienste – beurteilen können. Aufgrund der steigenden Zahl an Sicherheitsvorfällen in der digitalen Welt sollte speziell die Cyber-Sicherheit dabei im Fokus stehen.
In dieser Arbeit wird eine ganzheitliche Bedrohung für Business-Chat-Anwendungen aufgezeigt und bewertet: Chishing – Phishing über Business-Chats. Die Bedrohung hat ihren Ursprung in den Anfängen der heutigen vernetzten Welt und das zugrunde liegende Problem wird als Spoofing in seiner einfachsten Form bezeichnet. In vier von sechs Business-Chat-Tools, die in dieser Arbeit analysiert werden, ist es möglich, Anzeigenamen, Profilbilder und weitere persönliche Informationen erfolgreich zu fälschen. Dies stellt eine Bedrohung für Unternehmen dar, da es Insider-Bedrohungen Vorschub leistet und unter Umständen auch externen Entitäten dazu einlädt, sich als interne Mitarbeiterin auszugeben.
Web measurement studies can shed light on not yet fully understood phenomena and thus are essential for analyzing how the modern Web works. This often requires building new and adjustinng existing crawling setups, which has led to a wide variety of analysis tools for different (but related) aspects. If these efforts are not sufficiently documented, the reproducibility and replicability of the measurements may suffer—two properties that are crucial to sustainable research. In this paper, we survey 117 recent research papers to derive best practices for Web-based measurement studies and specify criteria that need to be met in practice. When applying these criteria to the surveyed papers, we find that the experimental setup and other aspects essential to reproducing and replicating results are often missing. We underline the criticality of this finding by performing a large-scale Web measurement study on 4.5 million pages with 24 different measurement setups to demonstrate the influence of the individual criteria. Our experiments show that slight differences in the experimental setup directly affect the overall results and must be documented accurately and carefully.
Third-party tracking is a common and broadly used technique on the Web. Different defense mechanisms have emerged to counter these practices (e.g. browser vendors that ban all third-party cookies). However, these countermeasures only target third-party trackers and ignore the first party because the narrative is that such monitoring is mostly used to improve the utilized service (e.g. analytical services). In this paper, we present a large-scale measurement study that analyzes tracking performed by the first party but utilized by a third party to circumvent standard tracking preventing techniques. We visit the top 15,000 websites to analyze first-party cookies used to track users and a technique called “DNS CNAME cloaking”, which can be used by a third party to place first-party cookies. Using this data, we show that 76% of sites effectively utilize such tracking techniques. In a long-running analysis, we show that the usage of such cookies increased by more than 50% over 2021.
Aufgrund der zunehmenden IT-Technisierung und damit einhergehend stetigen Veränderung der Lebensbedingungen ist es notwendig, dass Menschen den IT-Lösungen und Unternehmen weiterhin und kontinuierlich vertrauen können. Denn durch den höheren Grad der IT-Technisierung steigt die Komplexität, wodurch es für den Nutzer zunehmend schwieriger wird, einzelne IT-Lösungen und deren Hintergründe zu verstehen sowie zu bewerten. Diese Veränderung hat Auswirkungen: Zum einen macht sie grundsätzlich den Nutzern – den Menschen – Angst, da gewohnte Vorgänge beständig ihre Gültigkeit verlieren. Zum anderen entsteht dadurch sowie durch die Komplexität latent das Gefühl, eine falsche Entscheidung zu treffen, weil nicht alles bedacht werden kann. So fällt dem Aspekt der Interdependenz von Vertrauen und Vertrauenswürdigkeit für deutsche und europäische Unternehmen eine hohe Bedeutung zu, insbesondere auch da sich internationale Tech-Unternehmen zunehmend weniger vertrauenswürdig im komplexen Cyber-Raum verhalten. Dies eröffnet die Möglichkeit, sich über den Aufbau von Vertrauen weltweit gegen internationale Unternehmen nachhaltig zu profilieren und positionieren. Um dieses Ziel zu realisieren, bedarf es einer strategischen Vorgehensweise – zum Beispiel auf Basis des Vertrauenswürdigkeitsmodells.
Damit die medizinische Versorgung weiterhin flächendeckend gewährleistet werden kann und den explodierenden Kosten Einhalt geboten wird, muss ein Gesundheitswesen der Zukunft auf digitalen Technologien basieren. Die Kritikalität der entsprechenden Health-Services ruft Cyber-Sicherheit auf den Plan – die Sensibilität der im Gesundheitswesen verarbeiteten Daten den Datenschutz. Ein zukunftsfähiges Gesundheitswesen braucht einen stringenten Rechtsrahmen, eine moderne cloudbasierte Telematikinfrastruktur, die je nach Sicherheitsbedarf in verschiedenen Modellen umgesetzt werden kann, einen restriktiven Umgang mit globalen Public-Cloud-Providern, eine besonders gesicherte, leistungsstarke Forschungsdateninfrastruktur – etwa zur Optimierung von KI-Fähigkeiten, sichere Gesundheitsanwendungen und einiges mehr. Hier ein Ausblick.
Die ehemals vom Grundsatz her separierten Welten der Information Technology (IT) und Operational Technology (OT) wachsen im Zuge der Digitalisierung vermehrt zusammen. Doch was ist dabei aus Sicht der IT/IT-Sicherheit zu berücksichtigen und wem kann oder muss die letztendliche Verantwortung für eine durchgängige IT-Sicherheit des Unternehmens obliegen?
Eine nicht ganz leicht zu klärende Aufgabenstellung – insbesondere mit Blick auf den Aspekt, dass die Schutzziele der beiden Unternehmensbereiche nicht einheitlich sind.
Keine Landesgesetzgebungskompetenz für ausnahmsloses Verbot von Windenergieanlagen in Waldgebieten
(2022)
Der Aufsatz untersucht die Frage des Vorrangverhältnisses zwischen Europäischem und nationalem Recht sowie daraus folgend der Kontrolle der Kompetenzausübung der Union durch nationale Gerichte anhand der unterschiedlichen Auffassungen des BVerfG und des EuGH und diskutiert den Lösungsansatz durch ein Kompetenzgericht
Die Ergebnispublikation aus dem Projekt Next Level Sports zeigt anhand der im Forschungsprojekt entwickelter Software-Konzepte auf, wie der Einsatz immersiver, digitaler Technologien zu einer aktiveren und gesünderen Lebensweise beitragen kann.
Durch ihre soziale Integrationskraft und ihre positive Wirkung auf Gesundheit und Wohlbefinden stellen Sport und Bewegung wichtige Handlungsfelder der kommunalen Daseinsvorsorge dar. Dabei nimmt die Bereitschaft, sich ausreichend zu bewegen, in den letzten Jahren in Deutschland geradezu dramatisch ab. Für die Sportförderung von Städten und Gemeinden bedeutet das, sich neuen Entwicklungen offensiv zu stellen und dabei auch die Chancen der Digitalisierung zu erschließen, um schließlich eine Trendumkehr gegen den Bewegungsmangel einleiten zu können.
In Rahmen des Forschungsprojektes Next Level Sports wurden vielfältige Ansätze identifiziert, wie immersive XR-Technologien (Virtuelle und Erweiterte Realität) eingesetzt werden können, um sportliche Aktivitäten anzuregen, Gesundheitsvorsorge zu fördern und damit die Aktivität und das Wohlbefinden zu steigern. Die entwickelten Konzepte werden in der Broschüre steckbriefartig vorgestellt und erlauben eine vertiefende Diskussion um die die Einsatzmöglichkeiten von XR-Bewegungsangeboten im kommunalen Kontext.
Die im Projekt entwickelten Software-Komponenten stehen als Open-Source-Ressourcen über GitHub zur Verfügung und können über QR-Codes in der Broschüre abgerufen werden.
The concept of molecular scaffolds as defining core structures of organic molecules is utilised in many areas of chemistry and cheminformatics, e.g. drug design, chemical classification, or the analysis of high-throughput screening data. Here, we present Scaffold Generator, a comprehensive open library for the generation, handling, and display of molecular scaffolds, scaffold trees and networks. The new library is based on the Chemistry Development Kit (CDK) and highly customisable through multiple settings, e.g. five different structural framework definitions are available. For display of scaffold hierarchies, the open GraphStream Java library is utilised. Performance snapshots with natural products (NP) from the COCONUT database and drug molecules from DrugBank are reported. The generation of a scaffold network from more than 450,000 NP can be achieved within a single day.
The translation of images of chemical structures into machine-readable representations of the depicted molecules is known as optical chemical structure recognition (OCSR). There has been a lot of progress over the last three decades in this field, but the development of systems for the recognition of complex hand-drawn structure depictions is still at the beginning. Currently, there is no data for the systematic evaluation of OCSR methods on hand-drawn structures available. Here we present DECIMER - Hand-drawn molecule images, a standardised, openly available benchmark dataset of 5088 hand-drawn depictions of diversely picked chemical structures. Every structure depiction in the dataset is mapped to a machine-readable representation of the underlying molecule. The dataset is openly available and published under the CC-BY 4.0 licence which applies very few limitations. We hope that it will contribute to the further development of the field.
Short Selling
(2022)
For proton exchange membrane water electrolysis (PEMWE) to become competitive, the cost of stack components, such as bipolar plates (BPP), needs to be reduced. This can be achieved by using coated low-cost materials, such as copper as alternative to titanium. Herein we report on highly corrosion-resistant copper BPP coated with niobium. All investigated samples showed excellent corrosion resistance properties, with corrosion currents lower than 0.1 µA cm−2 in a simulated PEM electrolyzer environment at two different pH values. The physico-chemical properties of the Nb coatings are thoroughly characterized by scanning electron microscopy (SEM), electrochemical impedance spectroscopy (EIS), X-ray photoelectron spectroscopy (XPS), and atomic force microscopy (AFM). A 30 µm thick Nb coating fully protects the Cu against corrosion due to the formation of a passive oxide layer on its surface, predominantly composed of Nb2O5. The thickness of the passive oxide layer determined by both EIS and XPS is in the range of 10 nm. The results reported here demonstrate the effectiveness of Nb for protecting Cu against corrosion, opening the possibility to use it for the manufacturing of BPP for PEMWE. The latter was confirmed by its successful implementation in a single cell PEMWE based on hydraulic compression technology.
The present paper presents one- and two-step approaches for electrochemical Pt and Ir deposition on a porous Ti-substrate to obtain a bifunctional oxygen electrode. Surface pre-treatment of the fiber-based Ti-substrate with oxalic acid provides an alternative to plasma treatment for partially stripping TiO2 from the electrode surface and roughening the topography. Electrochemical catalyst deposition performed directly onto the pretreated Ti-substrates bypasses unnecessary preparation and processing of catalyst support structures. A single Pt constant potential deposition (CPD), directly followed by pulsed electrodeposition (PED), created nanosized noble agglomerates. Subsequently, Ir was deposited via PED onto the Pt sub-structure to obtain a successively deposited PtIr catalyst layer. For the co-deposition of PtIr, a binary PtIr-alloy electrolyte was used applying PED. Micrographically, areal micro- and nano-scaled Pt sub-structure were observed, supplemented by homogenously distributed, nanosized Ir agglomerates for the successive PtIr deposition. In contrast, the PtIr co-deposition led to spherical, nanosized PtIr agglomerates. The electrochemical ORR and OER activity showed increased hydrogen desorption peaks for the Pt-deposited substrate, as well as broadening and flattening of the hydrogen desorption peaks for PtIr deposited substrates. The anodic kinetic parameters for the prepared electrodes were found to be higher than those of a polished Ir-disc.
Various aqueous citrate electrolyte compositions for the Ni-Mo electrodeposition are explored in order to deposit Ni-Mo alloys with Mo-content ranging from 40 wt% to 65 wt% to find an alloy composition with superior catalytic activity towards the hydrogen evolution reaction (HER). The depositions were performed on copper substrates mounted onto a rotating disc electrode (RDE) and were investigated via scanning electron microscopy (SEM), X-ray fluorescence (XRF) and X-ray diffraction (XRD) methods as well as linear sweep voltammetry (LSV) and impedance spectroscopy. Kinetic parameters were calculated via Tafel analysis. Partial deposition current densities and current efficiencies were determined by correlating XRF measurements with gravimetric results. The variation of the electrolyte composition and deposition parameters enabled the deposition of alloys with Mo-content over the range of 40-65 wt%. An increase in Mo-content in deposited alloys was recorded with an increase in rotation speed of the RDE. Current efficiency of the deposition was in the magnitude of <1%, which is characteristic for the deposition of alloys with high Mo-content. The calculated kinetic parameters were used to determine the Mo-content with the highest catalytic activity for use in the HER.
Flame-sprayed NiCrBSi/WC-12Co composite coatings were deposited in different ratios on the surface of stainless steel. Oxyacetylene flame remelting treatment was applied to surfaces for refinement of the morphology of the layers and improvement of the coating/substrate adhesion.
The performance of the coated specimens to cavitation erosion and electrochemical corrosion was evaluated by an ultrasonic vibratory method and, respectively, by polarization measurements. The microstructure was investigated by means of scanning electron microscopy (SEM) combined with energy dispersive X-ray analysis (EDX). The obtained results demonstrated that the addition of 15 wt.% WC-12Co to the self-fluxing alloy improves the resistance to cavitation erosion (the terminal erosion rate (Vs) decreased with 15% related to that of the NiCrBSi coating) without influencing the good corrosion resistance in NaCl solution. However, a further increase in WC-Co content led to a deterioration of these coating properties (the Vs has doubled related to that of the NiCrBSi coating).
Moreover, the corrosion behavior of the latter composite coating was negatively influenced, a fact confirmed by increased values for the corrosion current density (icorr). Based on the achieved experimental results, one may summarize that NiCrBSi/WC-Co composite coatings are able to increase the life cycle of expensive, high-performance components exposed to severe cavitation conditions.
The printing variable least addressed in previous research aiming to reveal the effect of the FFF process parameters on the printed PLA part’s quality and properties is the filament color. Moreover, the color of the PLA, as well as its manufacturer, are rarely mentioned when the experimental conditions for the printing of the samples are described, although current existing data reveal that their influence on the final characteristics of the print should not be neglected. In order to point out the importance of this influential parameter, a natural and a black-colored PLA filament, produced by the same manufacturer, were selected. The dimensional accuracy, tensile strength, and friction properties of the samples were analyzed and compared for printing temperatures ranging from 200 C up to 240 C. The experimental results clearly showed different characteristics depending on the polymer color of samples printed under the same conditions. Therefore, the optimization of the FFF process parameters for the 3D-printing of PLA should always start with the proper selection of the type of the PLA material, regarding both its color and the fabricant.
Tape brazing constitutes a cost-effective alternative surface protection technology for complex-shaped surfaces. The study explores the characteristics of high-temperature brazed coatings using a cobalt-based powder deposited on a stainless-steel substrate in order to protect parts subjected to hot temperatures in a wear-exposed environment. Microstructural imaging corroborated with x-ray diffraction analysis showed a complex phased structure consisting of intermetallic Cr-Ni, C-Co-W Laves type, and chromium carbide phases. The surface properties of the coatings, targeting hot corrosion behavior, erosion, wear resistance, and microhardness, were evaluated. The high-temperature corrosion test was performed for 100 h at 750 C in a salt mixture consisting of 25 wt.% NaCl + 75 wt.% Na2SO4. The degree of corrosion attack was closely connected with the exposure temperature, and the degradation of the material corresponding to the mechanisms of low-temperature hot corrosion. The erosion tests were carried out using alumina particles at a 90 impingement angle. The results, correlated with the microhardness measurements, have shown that Co-based coatings exhibited approximately 40% lower material loss compared to that of the steel substrate.