Filtern
Erscheinungsjahr
- 2017 (117)
- 2018 (81)
- 2022 (67)
- 2016 (64)
- 2021 (59)
- 2020 (52)
- 2019 (50)
- 2015 (48)
- 2023 (46)
- 2013 (40)
- 2006 (39)
- 2007 (33)
- 2008 (31)
- 2014 (31)
- 2010 (29)
- 2005 (27)
- 2012 (25)
- 2003 (22)
- 2011 (22)
- 2002 (19)
- 2004 (18)
- 2009 (18)
- 2001 (17)
- 2000 (15)
- 1996 (9)
- 1999 (9)
- 1998 (7)
- 1995 (6)
- 2024 (5)
- 1997 (4)
- 1983 (1)
- 1987 (1)
- 1988 (1)
- 1992 (1)
- 1994 (1)
Dokumenttyp
- Wissenschaftlicher Artikel (1015) (entfernen)
Sprache
- Deutsch (790)
- Englisch (223)
- Französisch (1)
- Spanisch (1)
Volltext vorhanden
- nein (1015) (entfernen)
Schlagworte
- Geldpolitik (6)
- Building Information Modeling (4)
- Kühllastberechnung (4)
- Qualitätsplan (3)
- Reinraumtechnik (3)
- VDI 2078 (3)
- CDK (2)
- Deutschlandwetter (2)
- Energiepolitik (2)
- Industry Foundation Classes (2)
Institut
- Wirtschaftsrecht (382)
- Institut für Internetsicherheit (160)
- Wirtschaft und Informationstechnik Bocholt (68)
- Institut für Innovationsforschung und -management (55)
- Westfälisches Energieinstitut (55)
- Westfälisches Institut für Gesundheit (47)
- Wirtschaft Gelsenkirchen (35)
- Elektrotechnik und angewandte Naturwissenschaften (33)
- Wirtschaftsingenieurwesen (23)
- Informatik und Kommunikation (20)
Ni-based alloys are among the materials of choice in developing high-quality coatings for ambient and high temperature applications that require protection against intense wear and corrosion. The current study aims to develop and characterize NiCrBSi coatings with high wear resistance and improved adhesion to the substrate. Starting with nickel-based feedstock powders, thermally sprayed coatings were initially fabricated. Prior to deposition, the powders were characterized in terms of microstructure, particle size, chemical composition, flowability, and density. For comparison, three types of powders with different chemical compositions and characteristics were deposited onto a 1.7227 tempered steel substrate using oxyacetylene flame spraying, and subsequently, the coatings were inductively remelted. Ball-on-disc sliding wear testing was chosen to investigate the tribological properties of both the as-sprayed and induction-remelted coatings. The results reveal that, in the case of as-sprayed coatings, the main wear mechanisms were abrasive, independent of powder chemical composition, and correlated with intense wear losses due to the poor intersplat cohesion typical of flame-sprayed coatings. The remelting treatment improved the performance of the coatings in terms of wear compared to that of the as-sprayed ones, and the density and lower porosity achieved during the induction post-treatment had a significant positive role in this behavior.
Without proper post-processing (often using flame, furnace, laser remelting, and induction) or reinforcements’ addition, Ni-based flame-sprayed coatings generally manifest moderate adhesion to the substrate, high porosity, unmelted particles, undesirable oxides, or weak wear resistance and mechanical properties. The current research aimed to investigate the addition of ZrO2 as reinforcement to the self-fluxing alloy coatings. Mechanically mixed NiCrBSi-ZrO2 powders were thermally sprayed onto an industrially relevant high-grade steel. After thermal spraying, the samples were differently post-processed with a flame gun and with a vacuum furnace, respectively. Scanning electron microscopy showed a porosity reduction for the vacuum-heat-treated samples compared to that of the flame-post-processed ones. X-ray diffraction measurements showed differences in the main peaks of the patterns for the thermal processed samples compared to the as-sprayed ones, these having a direct influence on the mechanical behavior of the coatings. Although a slight microhardness decrease was observed in the case of vacuum-remelted samples, the overall low porosity and the phase differences helped the coating to perform better during wear-resistance testing, realized using a ball-on-disk arrangement, compared to the as-sprayed reference samples.
Among the FDM process variables, one of the less addressed in previous research is the filament color. Moreover, if not explicitly targeted, the filament color is usually not even mentioned.
Aiming to point out if, and to what extent, the color of the PLA filaments influences the dimensional precision and the mechanical strength of FDM prints, the authors of the present research carried out experiments on tensile specimens. The variable parameters were the layer height (0.05 mm, 0.10 mm, 0.15 mm, 0.20 mm) and the material color (natural, black, red, grey). The experimental results clearly showed that the filament color is an influential factor for the dimensional accuracy as well as for the tensile strength of the FDM printed PLA parts. Moreover, the two way ANOVA test performed revealed that the strongest effect on the tensile strength was exerted by the PLA color (2 = 97.3%), followed by the layer height (2 = 85.5%) and the interaction between the PLA color and the layer height (2 = 80.0%). Under the same printing conditions, the best dimensional accuracy was ensured by the black PLA (0.17% width deviations, respectively 5.48% height deviations), whilst the grey PLA showed the highest ultimate tensile strength values (between 57.10 MPa and 59.82 MPa).
Impact of cobalt content and grain growth inhibitors in laser-based powder bed fusion of WC-Co
(2022)
Processing of tungsten carbide‑cobalt (WC-Co) by laser-based powder bed fusion (PBF-LB) can result in characteristic microstructure defects such as cracks, pores, undesired phases and tungsten carbide (WC) grain growth, due to the heterogeneous energy input and the high thermal gradients. Besides the processing conditions, the material properties are affected by the initial powder characteristics. In this paper, the impact of powder composition on microstructure, phase formation and mechanical properties in PBF-LB of WC-Co is studied.
Powders with different cobalt contents from 12 wt.-% to 25 wt.-% are tested under variation of the laser parameters.
Furthermore, the impact of vanadium carbide (VC) and chromium (Cr) additives is investigated. Both are known as grain growth inhibitors for conventional sintering processes. The experiments are conducted at a pre-heating temperature of around 800 ◦C to prevent crack formation in the samples. Increasing laser energy input reduces porosity but leads to severe embrittlement for low cobalt content and to abnormal WC grain growth for high cobalt content. It is found that interparticular porosity at low laser energy is more severe for low cobalt content due to poor wetting of the liquid phase. Maximum bending strength of σB > 1200 MPa and Vickers hardness of approx. 1000 HV3 can be measured for samples generated from WC-Co 83/17 powder with medium laser energy input. The addition of V and Cr leads to increased formation of additional phases such as Co3W3C, Co3V and Cr23C6 and to increased lateral and multi-laminar growth of the WC grains. In contrast to conventional sintering, a grain growth inhibiting effect of V and Cr in the laser molten microstructure is not achieved.
Among all additive manufacturing processes, Directed Energy Deposition-Arc (DED-Arc) shows significantly shorter production times and is particularly suitable for large-volume components of simple to medium complexity. To exploit the full potential of this process, the microstructural, mechanical and corrosion behavior have to be studied. High stickout distances lead to a large offset, which leads to an instable electric arc and thus defects such as lack of fusion. Since corrosion preferentially occurs at such defects, the main objective of this work is to investigate the influence of the stickout distance on the corrosion
behavior and microstructure of stainless steel manufactured by DED-Arc.
Within the heterogenous structure of the manufactured samples lack of fusion defects were detected. The quantity of such defects was reduced by applying a shorter stickout distance. The corrosion behavior of the additively manufactured specimens was investigated by means of potentiodynamic polarization measurements. The semi-logarithmic current density potential curves showed a similar course and thus similar corrosion resistance like that of the conventionally forged sample. The polarization curve of the reference material shows numerous current peaks, both in the anodic and cathodic regions. This metastable behavior is induced by the presence of manganese sulfides. On the sample surface a local attack by pitting corrosion was identified.
In this study, the characteristics of HVOF sprayed WC/Co-Cr and WC/Cr3C2/Ni coatings were investigated in correlation with the variation of the powder feed rate. For this purpose, the mass flow was adjusted to four different levels. The other process parameters were all kept constant. The morphological and mechanical properties as well as the electrochemical corrosion behaviour were investigated and associated with the achieved microstructure.
Both scanning electron microscopy and confocal laser scanning microscopical images of the cross sections demonstrated a good correlation between the selected powder feed rate and the degree of internal porosity produced, which can be attributed to the deposition process. The coatings which fulfilled the requirements of the pre-qualification step were selected for further hardness measurements, tribological tests and electrochemical corrosion measurements in a 3.5 wt% NaCl aqueous solution.
It was found that the powder feed rate strongly influenced the characteristics of the HVOF-sprayed cermet coatings. The tendency to crack formation, especially at the interface coating/substrate, was lower for the samples coated with a lower mass flow rate. These studies have shown that the applied powder feed rates had an important influence on the coatings microstructure and implicitly on the sliding wear behavior respectively on the electrochemical corrosion resistance of the investigated cermet coatings.
Even though we live in a period when the word digitization is prevalent in many social areas, the COVID-19 pandemic has divided mankind into two main categories: some people have seen this crisis as an opportunity to move the activities online and, furthermore, to accelerate digitization in as many areas as possible, while others have been reluctant, keeping their preferences for face-to-face activities. The current work presents the results of an analysis on 249 students from 11 engineering faculties. The study aims to identify the impact of the COVID-19 pandemic on students’ educational experiences when switching from face-to-face to online education during a public health emergency or COVID 19-related state of alert. The overall conclusion was that, although the pandemic has brought adverse consequences on the health and life quality of many people, the challenges that humankind has been subjected to have led to personal and professional development and have opened up new perspectives for carrying out the everyday activities.
Tape brazing constitutes a cost-effective alternative surface protection technology for complex-shaped surfaces. The study explores the characteristics of high-temperature brazed coatings using a cobalt-based powder deposited on a stainless-steel substrate in order to protect parts subjected to hot temperatures in a wear-exposed environment. Microstructural imaging corroborated with x-ray diffraction analysis showed a complex phased structure consisting of intermetallic Cr-Ni, C-Co-W Laves type, and chromium carbide phases. The surface properties of the coatings, targeting hot corrosion behavior, erosion, wear resistance, and microhardness, were evaluated. The high-temperature corrosion test was performed for 100 h at 750 C in a salt mixture consisting of 25 wt.% NaCl + 75 wt.% Na2SO4. The degree of corrosion attack was closely connected with the exposure temperature, and the degradation of the material corresponding to the mechanisms of low-temperature hot corrosion. The erosion tests were carried out using alumina particles at a 90 impingement angle. The results, correlated with the microhardness measurements, have shown that Co-based coatings exhibited approximately 40% lower material loss compared to that of the steel substrate.
The printing variable least addressed in previous research aiming to reveal the effect of the FFF process parameters on the printed PLA part’s quality and properties is the filament color. Moreover, the color of the PLA, as well as its manufacturer, are rarely mentioned when the experimental conditions for the printing of the samples are described, although current existing data reveal that their influence on the final characteristics of the print should not be neglected. In order to point out the importance of this influential parameter, a natural and a black-colored PLA filament, produced by the same manufacturer, were selected. The dimensional accuracy, tensile strength, and friction properties of the samples were analyzed and compared for printing temperatures ranging from 200 C up to 240 C. The experimental results clearly showed different characteristics depending on the polymer color of samples printed under the same conditions. Therefore, the optimization of the FFF process parameters for the 3D-printing of PLA should always start with the proper selection of the type of the PLA material, regarding both its color and the fabricant.
Flame-sprayed NiCrBSi/WC-12Co composite coatings were deposited in different ratios on the surface of stainless steel. Oxyacetylene flame remelting treatment was applied to surfaces for refinement of the morphology of the layers and improvement of the coating/substrate adhesion.
The performance of the coated specimens to cavitation erosion and electrochemical corrosion was evaluated by an ultrasonic vibratory method and, respectively, by polarization measurements. The microstructure was investigated by means of scanning electron microscopy (SEM) combined with energy dispersive X-ray analysis (EDX). The obtained results demonstrated that the addition of 15 wt.% WC-12Co to the self-fluxing alloy improves the resistance to cavitation erosion (the terminal erosion rate (Vs) decreased with 15% related to that of the NiCrBSi coating) without influencing the good corrosion resistance in NaCl solution. However, a further increase in WC-Co content led to a deterioration of these coating properties (the Vs has doubled related to that of the NiCrBSi coating).
Moreover, the corrosion behavior of the latter composite coating was negatively influenced, a fact confirmed by increased values for the corrosion current density (icorr). Based on the achieved experimental results, one may summarize that NiCrBSi/WC-Co composite coatings are able to increase the life cycle of expensive, high-performance components exposed to severe cavitation conditions.
Hydrogen produced via water electrolysis powered by renewable electricity or green H2 offers new decarbonization pathways. Proton exchange membrane water electrolysis (PEMWE) is a promising technology although the current density, temperature, and H2 pressure of the PEMWE will have to be increased substantially to curtail the cost of green H2. Here, a porous transport layer for PEMWE is reported, that enables operation at up to 6 A cm−2, 90 °C, and 90 bar H2 output pressure. It consists of a Ti porous sintered layer (PSL) on a low‐cost Ti mesh (PSL/mesh‐PTL) by diffusion bonding. This novel approach does not require a flow field in the bipolar plate. When using the mesh‐PTL without PSL, the cell potential increases significantly due to mass transport losses reaching ca. 2.5 V at 2 A cm−2 and 90 °C.
In this work, a novel polymer electrolyte membrane water electrolyzer (PEMWE) test cell based on hydraulic single-cell compression is described. In this test cell, the current density distribution is almost homogeneous over the active cell area due to hydraulic cell clamping. As the hydraulic medium entirely surrounds the active cell components, it is also used to control cell temperature resulting in even temperature distribution. The PEMWE single-cell test system based on hydraulic compression offers a 25 cm2 active surface area (5.0 × 5.0 cm) and can be operated up to 80°C and 6.0 A/cm2. Construction details and material selection for the designed test cell are given in this document. Furthermore, findings related to pressure distribution analyzed by utilizing a pressure-sensitive foil, the cell performance indicated by polarization curves, and the reproducibility of results are described. Experimental data indicate the applicability of the presented testing device for relevant PEMWE component testing and material analysis.
The present paper presents one- and two-step approaches for electrochemical Pt and Ir deposition on a porous Ti-substrate to obtain a bifunctional oxygen electrode. Surface pre-treatment of the fiber-based Ti-substrate with oxalic acid provides an alternative to plasma treatment for partially stripping TiO2 from the electrode surface and roughening the topography. Electrochemical catalyst deposition performed directly onto the pretreated Ti-substrates bypasses unnecessary preparation and processing of catalyst support structures. A single Pt constant potential deposition (CPD), directly followed by pulsed electrodeposition (PED), created nanosized noble agglomerates. Subsequently, Ir was deposited via PED onto the Pt sub-structure to obtain a successively deposited PtIr catalyst layer. For the co-deposition of PtIr, a binary PtIr-alloy electrolyte was used applying PED. Micrographically, areal micro- and nano-scaled Pt sub-structure were observed, supplemented by homogenously distributed, nanosized Ir agglomerates for the successive PtIr deposition. In contrast, the PtIr co-deposition led to spherical, nanosized PtIr agglomerates. The electrochemical ORR and OER activity showed increased hydrogen desorption peaks for the Pt-deposited substrate, as well as broadening and flattening of the hydrogen desorption peaks for PtIr deposited substrates. The anodic kinetic parameters for the prepared electrodes were found to be higher than those of a polished Ir-disc.
For proton exchange membrane water electrolysis (PEMWE) to become competitive, the cost of stack components, such as bipolar plates (BPP), needs to be reduced. This can be achieved by using coated low-cost materials, such as copper as alternative to titanium. Herein we report on highly corrosion-resistant copper BPP coated with niobium. All investigated samples showed excellent corrosion resistance properties, with corrosion currents lower than 0.1 µA cm−2 in a simulated PEM electrolyzer environment at two different pH values. The physico-chemical properties of the Nb coatings are thoroughly characterized by scanning electron microscopy (SEM), electrochemical impedance spectroscopy (EIS), X-ray photoelectron spectroscopy (XPS), and atomic force microscopy (AFM). A 30 µm thick Nb coating fully protects the Cu against corrosion due to the formation of a passive oxide layer on its surface, predominantly composed of Nb2O5. The thickness of the passive oxide layer determined by both EIS and XPS is in the range of 10 nm. The results reported here demonstrate the effectiveness of Nb for protecting Cu against corrosion, opening the possibility to use it for the manufacturing of BPP for PEMWE. The latter was confirmed by its successful implementation in a single cell PEMWE based on hydraulic compression technology.
Unsupervised physics-informed deep learning can be used to solve computational physics problems by training neural networks to satisfy the underlying equations and boundary conditions without labeled data. Parameters such as network architecture and training method determine the training success. However, the best choice is unknown a priori as it is case specific. Here, we investigated network shapes, sizes, and types for unsupervised physics-informed deep learning of the two-dimensional Reynolds averaged flow around cylinders. We trained mixed-variable networks and compared them to traditional models. Several network architectures with different shape factors and sizes were evaluated. The models were trained to solve the Reynolds averaged Navier-Stokes equations incorporating Prandtl’s mixing length turbulence model. No training data were deployed to train the models. The superiority of the mixed-variable approach was confirmed for the investigated high Reynolds number flow. The mixed-variable models were sensitive to the network shape. For the two cylinders, differently deep networks showed superior performance. The best fitting models were able to capture important flow phenomena such as stagnation regions, boundary layers, flow separation, and recirculation. We also encountered difficulties when predicting high Reynolds number flows without training data.
Advancements in hand-drawn chemical structure recognition through an enhanced DECIMER architecture
(2024)
Accurate recognition of hand-drawn chemical structures is crucial for digitising hand-written chemical information in traditional laboratory notebooks or facilitating stylus-based structure entry on tablets or smartphones. However, the inherent variability in hand-drawn structures poses challenges for existing Optical Chemical Structure Recognition (OCSR) software. To address this, we present an enhanced Deep lEarning for Chemical ImagE Recognition (DECIMER) architecture that leverages a combination of Convolutional Neural Networks (CNNs) and Transformers to improve the recognition of hand-drawn chemical structures. The model incorporates an EfficientNetV2 CNN encoder that extracts features from hand-drawn images, followed by a Transformer decoder that converts the extracted features into Simplified Molecular Input Line Entry System (SMILES) strings. Our models were trained using synthetic hand-drawn images generated by RanDepict, a tool for depicting chemical structures with different style elements. A benchmark was performed using a real-world dataset of hand-drawn chemical structures to evaluate the model's performance. The results indicate that our improved DECIMER architecture exhibits a significantly enhanced recognition accuracy compared to other approaches.
An Augmented Multiphase Rail Launcher With a Modular Design: Extended Setup and Muzzle Fed Operation
(2024)
With ongoing developments in the field of smart cities and digitalization in general, data is becoming a driving factor and value stream for new and existing economies alike. However, there exists an increasing centralization and monopolization of data holders and service providers, especially in the form of the big US-based technology companies in the western world and central technology providers with close ties to the government in the Asian regions. Self Sovereign Identity (SSI) provides the technical building blocks to create decentralized data-driven systems, which bring data autonomy back to the users. In this paper we propose a system in which the combination of SSI and token economy based incentivisation strategies makes it possible to unlock the potential value of data-pools without compromising the data autonomy of the users.
The European General Data Protection Regulation (GDPR), which went into effect in May 2018, brought new rules for the processing of personal data that affect many business models, including online advertising. The regulation’s definition of personal data applies to every company that collects data from European Internet users. This includes tracking services that, until then, argued that they were collecting anonymous information and data protection requirements would not apply to their businesses.
Previous studies have analyzed the impact of the GDPR on the prevalence of online tracking, with mixed results. In this paper, we go beyond the analysis of the number of third parties and focus on the underlying information sharing networks between online advertising companies in terms of client-side cookie syncing. Using graph analysis, our measurement shows that the number of ID syncing connections decreased by around 40 % around the time the GDPR went into effect, but a long-term analysis shows a slight rebound since then. While we can show a decrease in information sharing between third parties, which is likely related to the legislation, the data also shows that the amount of tracking, as well as the general structure of cooperation, was not affected. Consolidation in the ecosystem led to a more centralized infrastructure that might actually have negative effects on user privacy, as fewer companies perform tracking on more sites.
In the modern Web, service providers often rely heavily on third parties to run their services. For example, they make use of ad networks to finance their services, externally hosted libraries to develop features quickly, and analytics providers to gain insights into visitor behavior.
For security and privacy, website owners need to be aware of the content they provide their users. However, in reality, they often do not know which third parties are embedded, for example, when these third parties request additional content as it is common in real-time ad auctions.
In this paper, we present a large-scale measurement study to analyze the magnitude of these new challenges. To better reflect the connectedness of third parties, we measured their relations in a model we call third party trees, which reflects an approximation of the loading dependencies of all third parties embedded into a given website. Using this concept, we show that including a single third party can lead to subsequent requests from up to eight additional services. Furthermore, our findings indicate that the third parties embedded on a page load are not always deterministic, as 50 % of the branches in the third party trees change between repeated visits. In addition, we found that 93 % of the analyzed websites embedded third parties that are located in regions that might not be in line with the current legal framework. Our study also replicates previous work that mostly focused on landing pages of websites. We show that this method is only able to measure a lower bound as subsites show a significant increase of privacy-invasive techniques. For example, our results show an increase of used cookies by about 36 % when crawling websites more deeply.
Advanced Persistent Threats (APTs) are one of the main challenges in modern computer security. They are planned and performed by well-funded, highly-trained and often state-based actors. The first step of such an attack is the reconnaissance of the target. In this phase, the adversary tries to gather as much intelligence on the victim as possible to prepare further actions. An essential part of this initial data collection phase is the identification of possible gateways to intrude the target.
In this paper, we aim to analyze the data that threat actors can use to plan their attacks. To do so, we analyze in a first step 93 APT reports and find that most (80 %) of them begin by sending phishing emails to their victims. Based on this analysis, we measure the extent of data openly available of 30 entities to understand if and how much data they leak that can potentially be used by an adversary to craft sophisticated spear phishing emails. We then use this data to quantify how many employees are potential targets for such attacks. We show that 83 % of the analyzed entities leak several attributes of uses, which can all be used to craft sophisticated phishing emails.
The set of transactions that occurs on the public ledger of an Ethereum network in a specific time frame can be represented as a directed graph, with vertices representing addresses and an edge indicating the interaction between two addresses.
While there exists preliminary research on analyzing an Ethereum network by the means of graph analysis, most existing work is focused on either the public Ethereum Mainnet or on analyzing the different semantic transaction layers using static graph analysis in order to carve out the different network properties (such as interconnectivity, degrees of centrality, etc.) needed to characterize a blockchain network. By analyzing the consortium-run bloxberg Proof-of-Authority (PoA) Ethereum network, we show that we can identify suspicious and potentially malicious behaviour of network participants by employing statistical graph analysis. We thereby show that it is possible to identify the potentially malicious
exploitation of an unmetered and weakly secured blockchain network resource. In addition, we show that Temporal Network Analysis is a promising technique to identify the occurrence of anomalies in a PoA Ethereum network.
This paper analyses the status quo of large-scale decision making combined with the possibility of blockchain as an underlying decentralized architecture to govern common pool resources in a collective manner and evaluates them according to their requirements and features (technical and non-technical). Due to an increasing trend in the distribution of knowledge and an increasing amount of information, the combination of these decentralized technologies and approaches, can not only be beneficial for consortial governance using blockchain but can also help communities to govern common goods and resources. Blockchain and its trust-enhancing properties can potenitally be a catalysator for more collaborative behavior among participants and may lead to new insights about collective action and CPRs.
Software updates take an essential role in keeping IT environments secure. If service providers delay or do not install updates, it can cause unwanted security implications for their environments. This paper conducts a large-scale measurement study of the update behavior of websites and their utilized software stacks. Across 18 months, we analyze over 5.6M websites and 246 distinct client- and server-side software distributions. We found that almost all analyzed sites use outdated software. To understand the possible security implications of outdated software, we analyze the potential vulnerabilities that affect the utilized software. We show that software components are getting older and more vulnerable because they are not updated. We find that 95 % of the analyzed websites use at least one product for which a vulnerability existed.
A Crypto-Token Based Charging Incentivization
Scheme for Sustainable Light Electric Vehicle
Sharing
(2021)
The ecological impact of shared light electric vehicles (LEV) such as kick scooters is still widely discussed. Especially the fact that the vehicles and batteries are collected using diesel vans in order to charge empty batteries with electricity of unclear origin is perceived as unsustainable. A better option could be to let the users charge the vehicles themselves whenever it is necessary. For this, a decentralized,flexible and easy to install network of off-grid solar charging stations could bring renewable electricity where it is needed without sacrificing the convenience of a free float sharing system. Since the charging stations are powered by solar energy the most efficient way to utilize them would be to charge the vehicles when the sun is shining. In order to make users charge the vehicle it is necessary to provide some form of benefit for
them doing so. This could be either a discount or free rides. A
particularly robust and well-established mechanism is controlling incentives via means of blockchain-based cryptotokens. This paper demonstrates a crypto-token based scheme for incentivizing users to charge sharing vehicles during times of considerable solar irradiation in order to contribute to more sustainable mobility services.
Self-Sovereign Identity (SSI) sorgt für eine sichere und vertrauenswürdige Digitalisierung. Nutzer können selbstbestimmt ihre digitale Identität und Nachweise wie Ausweis oder Bescheinigungen an Anwendungen weitergeben. Das europäische SSI-Ökosystem löst Abhängigkeiten von Monopolisten und gibt uns die Freiheit, die digitale Zukunft souverän und zügig zu gestalten.
Third-party tracking is a common and broadly used technique on the Web. Different defense mechanisms have emerged to counter these practices (e.g. browser vendors that ban all third-party cookies). However, these countermeasures only target third-party trackers and ignore the first party because the narrative is that such monitoring is mostly used to improve the utilized service (e.g. analytical services). In this paper, we present a large-scale measurement study that analyzes tracking performed by the first party but utilized by a third party to circumvent standard tracking preventing techniques. We visit the top 15,000 websites to analyze first-party cookies used to track users and a technique called “DNS CNAME cloaking”, which can be used by a third party to place first-party cookies. Using this data, we show that 76% of sites effectively utilize such tracking techniques. In a long-running analysis, we show that the usage of such cookies increased by more than 50% over 2021.
Web measurement studies can shed light on not yet fully understood phenomena and thus are essential for analyzing how the modern Web works. This often requires building new and adjustinng existing crawling setups, which has led to a wide variety of analysis tools for different (but related) aspects. If these efforts are not sufficiently documented, the reproducibility and replicability of the measurements may suffer—two properties that are crucial to sustainable research. In this paper, we survey 117 recent research papers to derive best practices for Web-based measurement studies and specify criteria that need to be met in practice. When applying these criteria to the surveyed papers, we find that the experimental setup and other aspects essential to reproducing and replicating results are often missing. We underline the criticality of this finding by performing a large-scale Web measurement study on 4.5 million pages with 24 different measurement setups to demonstrate the influence of the individual criteria. Our experiments show that slight differences in the experimental setup directly affect the overall results and must be documented accurately and carefully.
Momentan ist der Tenor der meisten Artikel zum Thema Künstliche Intelligenz (KI) relativ konformistisch – unverzüglich wird der Leser dahingehend sensibilisiert, dass sich hierdurch enorme Chancen auftun, die nicht ungenutzt bleiben dürfen, um international nicht abgehängt zu werden. Eher nebenbei erwähnt wird, dass trotz aller Euphorie auch die Risiken in Betracht zu ziehen seien. Da aus diesen jedoch Implikationen für die gesamte Gesellschaft resultieren können, ist es nicht nur ratsam, sondern erforderlich den Einsatz von KI in allen Bereichen – sogar im Kontext der IT-Sicherheit – unter ethischen Aspekten zu bewerten.
Als Identifikations- und Authentisierungsverfahren gewinnen biometrische Systeme immer mehr an Bedeutung. Waren sie bisher eher nur aus Filmen bekannt, wo sie für einen kleinen Mitarbeiterkreis als Zugangskontrolle zu wichtigen Räumen oder Tresoren mit kostbaren Inhalten dienten, finden biometrische Systeme immer mehr Einzug in unseren Alltag. Im elektronischem Pass ist die Speicherung biometrischer Daten bereits Pflicht. Im öffentlichen und kommerziellen Bereich werden biometrische Systeme immer mehr als zusätzliche Option angeboten, um den Zugriff auf Daten, Dienste und den Zutritt zu Räumen zu kontrollieren. Mit der Entsperrung des Smartphones sind biometrische Systeme auch im privaten Bereich angekommen. Erschwingliche Sensoren machen es sogar möglich, privat biometrische Systeme zu entwickeln.
In dieser Arbeit wird eine ganzheitliche Bedrohung für Business-Chat-Anwendungen aufgezeigt und bewertet: Chishing – Phishing über Business-Chats. Die Bedrohung hat ihren Ursprung in den Anfängen der heutigen vernetzten Welt und das zugrunde liegende Problem wird als Spoofing in seiner einfachsten Form bezeichnet. In vier von sechs Business-Chat-Tools, die in dieser Arbeit analysiert werden, ist es möglich, Anzeigenamen, Profilbilder und weitere persönliche Informationen erfolgreich zu fälschen. Dies stellt eine Bedrohung für Unternehmen dar, da es Insider-Bedrohungen Vorschub leistet und unter Umständen auch externen Entitäten dazu einlädt, sich als interne Mitarbeiterin auszugeben.
Aufgrund der zunehmenden IT-Technisierung und damit einhergehend stetigen Veränderung der Lebensbedingungen ist es notwendig, dass Menschen den IT-Lösungen und Unternehmen weiterhin und kontinuierlich vertrauen können. Denn durch den höheren Grad der IT-Technisierung steigt die Komplexität, wodurch es für den Nutzer zunehmend schwieriger wird, einzelne IT-Lösungen und deren Hintergründe zu verstehen sowie zu bewerten. Diese Veränderung hat Auswirkungen: Zum einen macht sie grundsätzlich den Nutzern – den Menschen – Angst, da gewohnte Vorgänge beständig ihre Gültigkeit verlieren. Zum anderen entsteht dadurch sowie durch die Komplexität latent das Gefühl, eine falsche Entscheidung zu treffen, weil nicht alles bedacht werden kann. So fällt dem Aspekt der Interdependenz von Vertrauen und Vertrauenswürdigkeit für deutsche und europäische Unternehmen eine hohe Bedeutung zu, insbesondere auch da sich internationale Tech-Unternehmen zunehmend weniger vertrauenswürdig im komplexen Cyber-Raum verhalten. Dies eröffnet die Möglichkeit, sich über den Aufbau von Vertrauen weltweit gegen internationale Unternehmen nachhaltig zu profilieren und positionieren. Um dieses Ziel zu realisieren, bedarf es einer strategischen Vorgehensweise – zum Beispiel auf Basis des Vertrauenswürdigkeitsmodells.
Der Plan ist klar nachvollziehbar und notwendig: Unrechtmäßig genutzte, urheberrechtlich geschützte oder gar illegale Inhalte dürfen im Internet keine Plattform zur Verbreitung finden. Bisher geschieht das durch Analyse bereits hochgeladener Inhalte. Die Europäische Union möchte aber am liebsten verhindern, dass entsprechendes Material überhaupt ins Netz gelangt. Das ruft sogenannte Upload-Filter auf den Plan, die bereits beim Versuch des Hochladens eine Blockade setzen. So weit, so gut, jedoch lassen sich durch solche Filter zu leicht auch „unliebsame“ Inhalte blockieren – Kritikern solcher Pläne scheint ein Machtmissbrauch durch Kontrolle der zur Veröffentlichung freigegebenen Inhalte vorprogrammiert. Vor diesem Hintergrund beleuchtet folgender Beitrag den Sinn, die technische Umsetzung und Machbarkeit sowie die Risiken von Upload-Filtern.
Das Internet als weltweites Netzwerk von Servern dient schon lange nicht mehr rein der Beschaffung von Informationen oder der persönlichen Kommunikation. Es werden vermehrt mediale Inhalte (Bilder, Audio- und Videodateien) in sozialen Netzwerken gepostet. Ein Großteil dieser Inhalte dient der Selbstdarstellung des Nutzers in Chroniken, Timelines, Stories etc. Allein auf Facebook werden pro Tag etwa 350 Millionen Bilder und 100 Millionen Stunden Videomaterial von Nutzern hochgeladen. Bei YouTube sind es sogar 400 Stunden Videomaterial pro Minute.
In dieser Masse von Daten sind auch unrechtmäßig genutzte, urheberrechtlich geschützte oder illegale Inhalte vorhanden. Diese unerwünschten Inhalte können mit voller Absicht oder aus Versehen und ohne kriminellen Hintergedanken hochgeladen werden. Doch egal aus welchem Grund, solche Inhalte müssen so früh wie möglich entdeckt und gelöscht werden oder sollten gar nicht erst hochgeladen werden können. Aktuelle Lösungen basieren auf einer nachträglichen Erkennung bereits hochgeladener Inhalte durch Erkennungswerkzeuge oder den Menschen.
Dieses Vorgehen ist bereits etabliert und allseits anerkannt. Eine Erweiterung durch gesetzliche Vorgaben, die das Melden, Deaktivieren und Prüfen vereinfacht und beschleunigt, wäre hier ein logischer nächster Schritt. Doch eine Prüfung und Bewertung aller Inhalte von Uploads während des Upload-Prozesses in Echtzeit wird zurzeit favorisiert und stellt eine neue, besondere Herausforderung dar.
Daher könnten in Zukunft Upload-Filter weltweit zum Einsatz kommen. Bild 1 zeigt schematisch den Unterschied zwischen einem Upload ohne Upload-Filter – links unten – und einem Upload mit Upload-Filter – links oben. Hierbei ist die Verbindung des Upload-Filters mit dem Internet nicht obligatorisch.
Ein Upload-Filter wird als eigenständige, unumgängliche Instanz in den Upload-Prozesses integriert. Seine Aufgabe besteht in der Klassifizierung der Inhalte von Uploads.
Kriterien hierfür sind vor allem das Bestehen eines Urheberschutzes für den Upload von Musik, Bildern oder Filmen, und ein eventueller Konflikt mit dem Strafrecht – zum Beispiel Kinderpornografie oder Rassismus.
Vorangetrieben wurde das Thema von der EU – genauer durch die Richtlinie (EU) 2019/790. Der hierin enthaltene Artikel 17 sieht vor, die Plattformen zu verpflichten, Lizenzverträge mit den Inhabern von Urheberrechten zu schließen. Kommen diese nicht zustande, muss die Plattform dafür sorgen, dass entsprechende Inhalte nicht hochgeladen und veröffentlicht werden können. Dieser Artikel war und ist immer noch hoch umstritten. Die EU will damit die unerlaubte Nutzung urheberrechtlich geschützter Werke auf Webseiten verhindern.
Kritiker sehen darin das freie Internet durch eine Zensurmöglichkeit in Gefahr, sollte eine diktatorische Regierung Einfluss aufdie Upload-Filter haben.
Digitalisierung gilt als die Basis für das Wohlergehen der modernen und globalen Informations- und Wissensgesellschaft. Während sie immer mehr Fahrt aufnimmt, zeigt sie gleichzeitig immer deutlicher auch ihre Kehrseite: Altbewährte Verteidigungssysteme gegen Cyberangriffe versagen zunehmend. Die Ursachen werden inzwischen sehr klar: Der klassische Perimeter löst sich dank Cloud und Mobility auf, die Angriffsflächen werden dank unzähliger neu im Netz hinzugekommener Dinge exponentiell größer, und Abwehrmaßnahmen auf herkömmliche Weise dank einer zerklüfteten, kaum integrierten Security-Landschaft immer komplexer. Zeit, die Erfolgsfaktoren der Digitalisierung zu erkennen und für das eigene Unternehmen umzusetzen. Dabei helfen vier grundsätzliche Cybersicherheitsstrategien.
Ein professionelles Digital-Risk-Management-System scannt das Clearnet, Deep Net und Darknet nach auffälligen, potenziell sensiblen Dokumenten und Informationen, um Hinweise für technische oder menschliche Sicherheitsrisiken identifizieren zu können. Die Prävention von Cyberangriffen ist nach wie vor eine entscheidend wichtige Säule, um die Digitalisierung zu meistern, Geschäftswerte langfristig zu schützen und die Anzahl an kritischen Sicherheitslücken im Unternehmen gering zu halten. Im Rahmen eines Master-Projekts hat sich das Institut für Internet-Sicherheit – if(is) mit dem Thema DRM auseinander gesetzt und insbesondere das Tool RISKREX exemplarisch analysiert.
Die Notwendigkeit von Nachweisen findet sich in sehr vielen Bereichen unseres Lebens. Zertifikate, Zeugnisse, Abnahmen, Rechnungen, Quittungen, Urkunden und Bescheinigungen über Fortbildungen sind nur einige Beispiele dafür. Durch die Digitalisierung, die mittlerweile so gut wie überall Einzug gehalten hat, und durch die Corona-Krise einen besonderen Schub erfahren hat, wird die Umsetzung solcher Nachweise heutzutage immer öfters digital statt auf Papier verwirklicht. Digitale Nachweise bieten viel Raum für die Optimierung von Prozessen und liefern gleichzeitig einige Schwachstellen, die zum Betrügen genutzt werden können.
Hier gilt es in der aktuellen Forschung und Entwicklung Lösungen zu finden, die die Sicherheit erhöhen, um somit die Vertrauenswürdigkeit der digitalen Nachweise zu steigern. Ob wir je komplett auf Papier verzichten werden können ist fraglich, jedoch kein unmögliches Ziel. Wer dieses Ziel verfolgt, muss nach und nach die Schwachstellen und Probleme der digitalen Nachweise ausmerzen.
Mit den Reisebeschränkungen in der Corona-Krise ist der Bedarf an einfach zu handhabenden Videokonferenzsystemen sprunghaft gestiegen. Krisengewinner war dabei ohne Zweifel der amerikanische Hersteller Zoom Video Communications.
Mit seinem „Zoom Meeting“-Dienst preschte das junge Unternehmen an bisherigen Branchenlieblingen vorbei. Derzeit gilt Zoom als populärstes Konferenzsystem auf dem Markt. Mitten im Aufstieg ist Zoom jedoch auch heftig in Kritik geraten: Schlechte Umsetzung des Datenschutzes, hohe Angreifbarkeit durch klaffende Schwachstellen und unzureichende Verschlüsselung lauteten die Vorwürfe. Der Hersteller zeigte sich bei der Behebung der Schwachstellen kooperativ. Doch ist jetzt alles sicher und vertrauenswürdig?
Dank der neuen Datenschutzgrundverordnung zum Schutz der Privatsphäre konnte der Sammelwahn einiger Dienstleister bereits abgemildert werden. Dennoch zeichnet sich eine immer stärkere Zentralisierung und Monopolisierung von Datenhaltern und Dienstleistern ab, vor allem in Form großer USA- oder Asien-basierter Technologieunternehmen. Im Umgang mit den eigenen Daten schreiten nur wenige Menschen bewusst zur Tat, sehen meist nur den angepriesenen Vorteil und nicht die möglichen negativen Konsequenzen für ihre Privatsphäre. Eine Self-Sovereign Identity (SSI) könnte Basis für einen fairen Datenaustausch innerhalb der Smart Economy sein und die Integration auch kleinerer Unternehmen in eine offene Infrastruktur unterstützen.
Unternehmen setzen zunehmend auf KI oder planen, dies künftig zu tun. Doch die große Euphorie bleibt in der Industrie aus guten Gründen noch aus. Zum einen fehlt die kritische Masse an Einsatzszenarien, weswegen Unsicherheit besteht, welche Handlungsfelder nachhaltige Erfolge versprechen. Zum anderen ist die Frage der Zuverlässigkeit zu klären, also wie valide KI-generierte Ergebnisse wirklich sind. Im Folgenden geht es um die Mechanismen, die gute Ergebnisse sicherstellen helfen.
2018 wurde das „DNS over HTTPS (DoH)“-Protokoll vorgestellt. Der Vorteil von DoH besteht darin, dass sich die Manipulation von DNS-Anfragen für missbräuchliche Zwecke verhindern lässt. Aus diesem Grund haben Apple, Google, Microsoft und weitere Internetfirmen DoH bereits eingebunden oder haben vor dies zu tun. Doch wie genau funktioniert die Verbesserung beim Schutz der Privatsphäre und bei der Sicherheit auf Protokollebene? Und gibt es auch Nachteile?
Die Art und Weise wie wir leben und wohnen hat sich in den vergangenen Jahren stark verändert, daraus haben sich einige neue Trends für den häuslichen Alltag ergeben. Dies ist unter anderem darauf zurückzuführen, dass das steigende Umweltbewusstsein viele Handlungsentscheidungen beeinflusst. Zudem bedingt die demografische Entwicklung, dass nach neuen Lösungsansätzen für ein eigenständiges Leben im Alter gesucht werden muss. Mittlerweile ist auch das Homeoffice so etabliert, dass daraus neue Gegebenheiten für das heutige und künftige Arbeiten von Zuhause resultieren, die technologische Veränderungen notwendig machen. Insgesamt wird ein Wandel hin zum smarten Zuhause als Chance gesehen, diesen aktuellen Herausforderungen zu begegnen. Aber was
bedeutet Smart Home tatsächlich im täglichen Leben und wie wird dieses in der Zukunft gestaltet werden? Für die Einschätzung hier gilt es, die Vorteile von Smart Home ebenso zu betrachten, wie mögliche Risiken und was berücksichtigt werden muss, um Schäden zu vermeiden. Denn nur so lässt sich eine Akzeptanz in der digitalen Zukunft zu erzielen.
Die digitale Evolution schreitet unaufhaltsam voran. Das führt auch zu der Konsequenz, dass die innovativen Technologien und somit die gesamte Internet-/IT-Infrastruktur nicht nur zunehmend vielschichtig, sondern auch intransparent wird. Daraus resultiert ein gravierendes Dilemma: gegenläufig zu dem steigenden Einsatz sinkt das Wissen über deren Hintergründe und Zusammenhänge. Dies könnte im Weiteren zu folgender Handlungsalternative führen – entweder unverhältnismäßige Ablehnung der Technologie und entsprechender Dienste oder blindes Vertrauen. Beides verhindert eine sinnvolle Nutzung neuer Anwendungen oder innovativer Dienste – auch wenn Vertrauen, im Sinne des Soziologen Niklas Luhmann, grundsätzlich positiv konnotiert ist. Denn gemäß seiner Definition ist Vertrauen ein Mechanismus der Komplexitätsreduktion – also etwas, wodurch sich das Leben leichter gestalten lässt. Doch sollte hier die Interpretation im Sinne des Philosophen und Soziologen Georg Simmel weiter präzisiert werden. Dieser sieht „Vertrauen als einen Zustand zwischen Wissen und Nicht-Wissen, als eine Hypothese künftigen Verhaltens“, auf die Menschen ihr konkretes Handeln gründen. Das zeigt die Relevanz von Vertrauen beim Einsatz innovativer Technologien und unterstreicht gleichzeitig die Notwendigkeit, dass Unternehmen vertrauenswürdig agieren müssen, damit dieses auch gerechtfertigt ist.
Serviceangebote aus der Public Cloud schießen derzeit förmlich durch die Decke. Obwohl Coroana in einzelnen Bereichen Cloud-Projekte verzögert, gehören die Digitalisierung und damit auch Cloud Services zu den eindeutigen Gewinnersn in der Krise: Doch mit der Auslagerung von IT-Services im großen Maßstab in die Cloud, nehmen auch Cyberkriminelle dieses Umfeld mehr und mehr ins Visier. Cloud Service Provider sind zwar in der Regel sicherheitstechnisch immer auf dem neuesten Stand - aber auch sie sind angreifbar. Damit Cyberkriminelle in Cloud-Umgebungen keine Chance haben, den Blicken von Unternehemen und Strafverfolgungsbehörden zu entgehen, ist eine umfassende digitale Forensik erforderlich. In der Praxis bestehen dafür jedoch große Hürden. Deshalb müssen hier jetzt schnell neue, kreative Ansätze gefunden werden.
Im Sinne der Gesellschaft : Wissenschaft als Helfer für angewandte Ethik in der KI-unterstützten IT
(2021)
Im Kontext der Digitalisierung, und insbesondere vor dem Hintergrund der dadurch prädizierten Effizienzsteigerung, wird der Künstlichen Intelligenz (KI) eine hohe Bedeutung beigemessen. Ebenso in Bezug auf die IT-Sicherheit gehen Experten davon aus, dass KI entscheidend dazu beitragen wird, die strategische Abwehr von Cyber-Angriffen zu optimieren. Doch trotz aller Euphorie sollten hier neben den Chancen auch die daraus potenziell resultierenden Risiken in Betracht gezogen werden. Denn der Einsatz von KI ist mit Implikationen verbunden, die auf die gesamte Gesellschaft wirken, von daher ist es nicht nur ratsam, sondern sogar erforderlich Anwendungen – auch im Bereich IT-Sicherheit – unter ethischen Aspekten zu analysieren und bewerten.
Sicheres und vertauenswürdiges Arbeiten im Homeoffice : aktuelle Situation der Cybersicherheitslage
(2021)
Durch die fortschreitende Digitalisierung bekommt die IT einen immer größeren Stellenwert in allen Bereichen. Dadurch steigt die Abhängigkeit von der IT und damit auch das Schadenspotenzial durch Cyberangriffe. Besonders durch die Zunahme des Arbeitsform Homeoffice sowie de Ad-hoc-Verlagerung von Beschäftigten und Geschäftsprozessen in das Homeoffice entstehen durch bisher unzureichende infrastrukturelle Sicherheitsvorkehrungen höhere Risiken. Anbieter von Video-Konferenz- und anderen Kollaborationstools haben durch den enormen Digitalisierungsschub nicht genug Zeit gehabt, ihre Systeme angemessen zu schützen. Dazu kommt, dass die Nutzung von unsicheren oder nicht ausreichend datenschutzkonformen Lösungen, wie Messenger oder sozialen Netzwerken, weitere Risiken für Unternehmen darstellen können. Welche technischen, personellen und organisatorischen Maßnahmen sind also erforderlich, um in der angespannten Lage ein sicheres Homeoffice einzurichten?
Cyber-Sicherheit spielt für unsere digitale Zukunft, sowohl im Alltag, als auch im Berufsleben, eine zentrale Rolle. Aus diesem Grund wird es immer wichtiger, dass wir ausreichend Cyber-Sicherheitsexperten haben, um die Zukunft für unsere Gesellschaft sicher und vertrauenswürdig zu gestalten. Vor diesem Hintergrund wird im folgenden Beitrag die Wichtigkeit der Cyber-Sicherheit aus verschiedenen Blickwinkeln diskutiert und die Möglichkeit der Aus- und Weiterbildung dargestellt.
Social Media Scraper im Einsatz : wie Kriminelle hoch personalisierte Phishing-Attacken vorbereiten
(2021)
Social Engineering ist ein zunehmend beliebter Angriffsvektor, der von Kriminellen verwendet wird, um erfolgreich Menschen zu manipulieren. Das Ziel ist es vordergründig Personen anzugreifen und nicht die IT-Systeme, die sie nutzen. Dazu sammeln die Kriminellen so viele Informationen wie möglich über ihre menschlichen Vorlieben und Interessen. Social-Media-Portale sind dazu eine gute Informationsquelle. In diesem Projekt wird die Vorgehensweise einer entwickelten Software beschrieben, die automatisch einen Link einer Person von offiziellen und seriösen LinkedIn-Profilen zu den privaten Accounts auf Instagram findet. Durch diese Automatisierung und die Analyse der veröffentlichten Inhalte kann eine Risikoeinschätzung gegeben werden, wie viele berufliche und persönliche Informationen für einen erfolgreicheren Social-Engineering-Angriff genutzt werden könnten.
Derzeit dominieren im Cyber-Raum zentralisierte ID-Provider, wie Google, Facebook und Apple die Verwaltung von Identitätsdaten bei sehr vielen IT-Diensten weltweit. Diese Situation schafft eine große Abhängigkeit der Gesellschaft, der Unternehmen und Nutzer in Bezug auf die Entwicklung der Digitalisierung. Außerdem nutzen die monopolistischen ID-Provider die sensiblen personenbezogenen Daten ihrer Nutzer für eigene Werbezwecke oder verkaufen sie aus ökonomischen Interessen an weitere Unternehmen. Das schwächt die Privatsphäre der Nutzer und hat Folgen bezüglich der Akzeptanz unserer digitalen Zukunft. Self-Sovereign Identity (SSI) ist ein Konzept, das die Souveränität und den Schutz der Privatsphäre der Nutzer fokussiert – dabei aber gleichzeitig deutlich einfacher und nutzerfreundlicher umgesetzt werden kann, als das bei aktuellen Identity Lösungen der Fall ist. Folgender Beitrag erklärt die Architektur, die Akteure, die Sicherheitsmechanismen und die Prinzipien von SSI.
Digitale Werte benötigen ein weitaus höheres und vor allem spezifisches Schutzniveau. Da es für Anwender mittlerweile nicht mehr einfach ist, dieses effektiv nachzuprüfen, müssen sie darauf vertrauen, dass die Hersteller alles tun, um den Anforderungen gerecht zu werden. Andererseits sind die Hersteller darauf angewiesen, dass Anwender ihnen Vertrauen gewähren und ihre IT-/Sicherheits-Lösungen tatsächlich nutzen. Um eine hohe Vertrauenswürdigkeit zu erreichen können, müssen Unternehmen Vorgehensweisen wählen, die einigen bestimmten Kriterien erfüllen.
Im Prinzip wollen und müssen Menschen auch in der digitalen Welt vertrauen (können) – nicht zuletzt, um grundsätzlich handlungsfähig zu sein. Aber auch, weil teilweise gar keine andere Wahl besteht, als einfach zu vertrauen, da die IT-Technologien mittlerweile nicht nur so allgegenwärtig, sondern auch so komplex geworden sind, dass der Nutzer sie vielfach gar nicht mehr einschätzen kann. Daher ist es – insbesondere im Sinne der Digitalisierung – wichtig und auch notwendig, dass Nutzern verschiedene Alternativen zur Verfügung stehen, anhand derer sie individuell die Vertrauenswürdigkeit von Unternehmen sowie IT-Lösungen – also jeglicher Produkte, Anwendungen und Dienste – beurteilen können. Aufgrund der steigenden Zahl an Sicherheitsvorfällen in der digitalen Welt sollte speziell die Cyber-Sicherheit dabei im Fokus stehen.
Digitale Sprachassistenten wie Alexa, Google, Siri & Co erfreuen sich auch in Deutschland hoher Beliebtheit - Tendenz steigend. Bei allen genannten und vielen weiteren Systemen handelt es sich um cloudbasierte Architekturen - die gesprochenen Befehle werden in Rechenzentren rund um den Globus übertragen und dort interpretiert. Aus Sicht des Datenschutzes und der Privatsphäre ist das problematisch. Auch die Abhängigkeit zu Cloud-Anbietern kann zu Schwierigkeiten führen, z.B. wenn sich die Sprachassistenten oder Smart-Home-Geräte nicht mehr nutzen lassen, weil der Anbieter seinen Dienst einstellt. Im Rahmen eines internen Forschungsprojekts hat das Institut für Internet-Sicherheit nun einen "dezentralen" Sprachassistenten entwickelt, der im Offline-Betrieb operiert und die Sprachdaten lokal auf dem Gerät verarbeitet, ohne sie in eine entfernte Cloud übertragen zu müssen.
Supply-Chain-Angriffe sind eine akute Bedrohung für jedes Unternehmen. Einen Softwarelieferanten auszunutzen, um eine große Anzahl seiner Kunden zu erreichen, ist eine ausgeklügelte und erfolgreiche Methode aktueller Hacker. Die Spezialisierung der Unternehmen auf ihre Kernkompetenzen, die Globalisierung der Lieferketten (im folgendem wird Supply Chain und Lieferkette synonym verwendet), sowie die Digitalisierung entlang der Wertschöpfungskette sind nur einige Beispiele, wieso Angreifer vermehrt die Vertrauensbeziehung zwischen Kunden und Lieferanten verstärkt für Angriffe ausnutzen. Dieser Artikel erläutert Cyber-Angriffe in Bezug auf eine Supply Chain und zeigt Sicherheitsmechanismen für die erfolgreiche Verteidigung.
Daten sind heute die Schlüsselkomponente in der Wertschöpfung. Ihre sichere und vertrauenswürdige Verarbeitung sind daher essenziell - auch in Cloud-Infrastrukturen, die per se erst mal nicht vertrauenswürdig sind. Während die Daten und der Code der sie verarbeitenden Anwendung hier in gespeicherter Form und bei der Übertragung in der Regel verschlüsselt sind, liegt beides während der Verarbeitung von Anwendungen in einer Cloud-Infrastruktur im Klartext vor und ist somit angreifbar. Auf der Basis von Sicherheitsfunktionen der CPU sorg Confidential Computing dafür, dass Anwendungen mit Code und Daten auf Cloud-Infrastrukturen in isolierter und verschlüsselter Form in sicheren Enklaven verarbeitet werden. Die Inhalte der Anwendung in einer Enklave werden so vor unbefugten Zugriff durch Systemadministratoren und weiteren Personen, die prinzipiell Zugriff auf die Cloud-Infrastruktur haben, geschützt. Technik unterstützt auf diese Weise die sichere und vertrauenswürdige Umsetzung des Datenschutzes.
Das Internet hat sich als globale Kommunikations-, Informations-, Commerce- und Businessinfrastruktur fest in der Gesellschaft etabliert. Mit jedem Grad Zuwachs bei der Digitalisierung wird das Leben einfacher und schneller - aber auch gefährlicher. Die konkrete Gefährlichkeit bleibt dabei bislang oft ein Mysterium - Strategien für die IT-Sicherheit müssen auf Basis von Annahmen und Erfahrungen entwickelt werden. Internet-Kennzahlen und deren systematische Auswertung sollen nun dabei helfen, Probleme, Risiken und Schwachstellen als Trend zu erkennen, um Sicherheitsstrategien proaktiv fokussierter zu gestalten. Auch der Stand der IT-Sicherheit lässt sich durch Messung der Kennzahlen ermitteln und bewerten. Internet-Kennzahlen werden von lokalen und globalen Anbietern bereitgestellt.
Die ehemals vom Grundsatz her separierten Welten der Information Technology (IT) und Operational Technology (OT) wachsen im Zuge der Digitalisierung vermehrt zusammen. Doch was ist dabei aus Sicht der IT/IT-Sicherheit zu berücksichtigen und wem kann oder muss die letztendliche Verantwortung für eine durchgängige IT-Sicherheit des Unternehmens obliegen?
Eine nicht ganz leicht zu klärende Aufgabenstellung – insbesondere mit Blick auf den Aspekt, dass die Schutzziele der beiden Unternehmensbereiche nicht einheitlich sind.
Damit die medizinische Versorgung weiterhin flächendeckend gewährleistet werden kann und den explodierenden Kosten Einhalt geboten wird, muss ein Gesundheitswesen der Zukunft auf digitalen Technologien basieren. Die Kritikalität der entsprechenden Health-Services ruft Cyber-Sicherheit auf den Plan – die Sensibilität der im Gesundheitswesen verarbeiteten Daten den Datenschutz. Ein zukunftsfähiges Gesundheitswesen braucht einen stringenten Rechtsrahmen, eine moderne cloudbasierte Telematikinfrastruktur, die je nach Sicherheitsbedarf in verschiedenen Modellen umgesetzt werden kann, einen restriktiven Umgang mit globalen Public-Cloud-Providern, eine besonders gesicherte, leistungsstarke Forschungsdateninfrastruktur – etwa zur Optimierung von KI-Fähigkeiten, sichere Gesundheitsanwendungen und einiges mehr. Hier ein Ausblick.
Künstliche Intelligenz (KI) ermöglicht es, komplexe Zusammenhänge und Muster aus großen Datenmengen zu extrahieren und in einem statistischen Modell zu erfassen. Dieses KI-Modell kann anschließend Aussagen über zukünftig auftretende Daten treffen. Mit dem zunehmenden Einsatz von Künstlicher Intelligenz rücken solche Systeme auch immer mehr ins Visier von Cyberkriminellen. Der Artikel beschreibt umfassend Angriffsszenarien und mögliche Abwehrmaßnahmen.
Die Beschaffung von IT-Sicherheitslösungen ist für Unternehmen oft eine Herausforderung. So führt die Komplexität der Systeme dazu, dass die für eine Kaufentscheidung erforderlichen Kompetenzen und Informationen nicht immer vorhanden sind. Grundvoraussetzung für eine erfolgreiche Geschäftsbeziehung ist deswegen ein valides Vertrauensverhältnis zwischen Anwender- und Herstellerunternehmen. Das setzt jedoch voraus, dass die Herstellerunternehmen vertrauenswürdig auftreten und im Interesse ihrer Kunden handeln. Eine Studie der Westfälischen Hochschule Gelsenkirchen hat untersucht, welche Vertrauenskriterien Kunden bei Herstellern und deren Produkten wichtig sind. So ist zum Beispiel ein Hersteller bei den Kunden unten durch, wenn er zu viele Buzzwords nutzt.
Vor vier Jahren betrat die Datenschutz-Grundverordnung (DS-GVO) die Bühne und brachte für Unternehmen und Nutzer gleichermaßen Veränderungen mit sich. Doch gerade im dynamischen Umfeld des Online-Marketings tauchen ständig neue und oft knifflige Fragen auf – Fragen, die nun im Rahmen einer wissenschaftlichen Studie etwas genauer unter die Lupe genommen wurden.
Wie Datenräume helfen, neue Geschäftsmodelle zu entwickeln : sicher, vertrauenswürdig und dezentral
(2023)
In der heutigen Zeit werden sehr große Datenmengen generiert und verwaltet, dennoch wird der Wert der Daten in Deutschland und Europa noch nicht voll ausgeschöpft. Die gemeinsame Nutzung von Daten kann und soll datengetriebene Anwendungen noch weiter vorantreiben, bei der Erfüllung regulatorischer Anforderungen helfen sowie einen finanziellen Mehrwert für Firmen schaffen. Viele kleine bis mittelständische Unternehmen zögern derzeit jedoch, Daten untereinander auszutauschen, weil sie befürchten, die Hoheit über ihre Daten zu verlieren und nicht wissen, wer Zugriff auf die Daten hat und wofür die Daten verwendet werden.
The number of publications describing chemical structures has increased steadily over the last decades. However, the majority of published chemical information is currently not available in machine-readable form in public databases. It remains a challenge to automate the process of information extraction in a way that requires less manual intervention - especially the mining of chemical structure depictions. As an open-source platform that leverages recent advancements in deep learning, computer vision, and natural language processing, DECIMER.ai (Deep lEarning for Chemical IMagE Recognition) strives to automatically segment, classify, and translate chemical structure depictions from the printed literature. The segmentation and classification tools are the only openly available packages of their kind, and the optical chemical structure recognition (OCSR) core application yields outstanding performance on all benchmark datasets. The source code, the trained models and the datasets developed in this work have been published under permissive licences. An instance of the DECIMER web application is available at https://decimer.ai.
Viele Unternehmen beginnen damit, Standards "wild" umzusetzen oder verschiedene Sicherheitsprodukte zu kaufen. Cybersicherheit muss aber auf einem soliden Fundament stehen. Dazu sollten die Verantwortlichen die eigenen Organisationsstrukturen kennen und die drei Schlüsselfaktoren Menschen, Prozesse und Technologie sorgfältig ausbalancieren.
To address the question which neocortical layers and cell types are important for the perception of a sensory stimulus, we performed multielectrode recordings in the barrel cortex of head-fixed mice performing a single-whisker go/no-go detection task with vibrotactile stimuli of differing intensities. We found that behavioral detection probability decreased gradually over the course of each session, which was well explained by a signal detection theory-based model that posits stable psychometric sensitivity and a variable decision criterion updated after each reinforcement, reflecting decreasing motivation. Analysis of multiunit activity demonstrated highest neurometric sensitivity in layer 4, which was achieved within only 30 ms after stimulus onset. At the level of single neurons, we observed substantial heterogeneity of neurometric sensitivity within and across layers, ranging from nonresponsiveness to approaching or even exceeding psychometric sensitivity. In all cortical layers, putative inhibitory interneurons on average proffered higher neurometric sensitivity than putative excitatory neurons. In infragranular layers, neurons increasing firing rate in response to stimulation featured higher sensitivities than neurons decreasing firing rate. Offline machine-learning-based analysis of videos of behavioral sessions showed that mice performed better when not moving, which at the neuronal level, was reflected by increased stimulus-evoked firing rates.
In this paper, we investigate the influence of different disease groups on the size of different 1 anatomical structures. To this end, we first modify and improve an existing anatomical segmentation 2 model. Then, we use this model to segment 104 anatomical structures from computed tomography 3 (CT) scans and compute their volumes from the segmentation. After correlating the results with each 4 other, we find no new significant correlations. After correlating the volume data with known diseases 5 for each case, we find two weak correlations, one of which has not been described before and for 6 which we present a possible explanation.
Design and Development of a Bioreactor System for Mechanical Stimulation of Musculoskeletal Tissue
(2023)
We report on the development of a bioreactor system for mechanical stimulation of musculoskeletal tissues. The ultimate object is to improve the quality of medical treatment following injuries of the enthesis tissue. To this end, the tissue formation process through the effect of mechanical stimulation is investigated. A six-well system was designed, 3D printed and tested. An integrated actuator creates strain by applying a force. A contactless position sensor monitors the travels. An electronic circuit controls the bioreactor using a microcontroller. An IoT platform connects the microcontroller to a smartphone, enabling the user to alter variables, trigger actions and monitor the system. The system was stabilised by implementing two PID controllers and safety measures. The results show that the bioreactor design is suited to execute mechanical stimulation and to investigate the tissue formation and regeneration process …
Sogenannte „dunkle Persönlichkeitseigenschaften“ begünstigen zwar den Aufstieg in verantwortungsvolle Positionen, sind aber kaum mit der Effektivität als Führungskraft verbunden. Vielmehr besteht ein positiver Zusammenhang mit destruktivem Führungsverhalten. Die Herausforderung besteht also darin, solche Eigenschaften frühzeitig zu erkennen und ggf. zu intervenieren, um destruktiver Führung vorzubeugen. Bis dato fehlen geeignete Screening-Verfahren, um erste Hinweise auf subklinische Persönlichkeitszüge wie etwa narzisstische, machiavellistische oder psychopathische Tendenzen im Arbeitskontext zu erhalten. Im Folgenden werden die psychometrischen Gütekriterien und Einsatzmöglichkeiten eines Kurztests zur dunklen Triade vorgestellt, der dazu gedacht ist, im Kontext der Management-Diagnostik und Führungskräfteentwicklung die Aufmerksamkeit auf ebensolche Risikofaktoren zu lenken und so ggf. eine tiefergehende Auseinandersetzung anzustoßen. Das Verfahren basiert auf Untersuchungen mit 1.858 Fach- und Führungskräften deutscher Unternehmen.
We argue that effective leadership development should be evidence-based, i.e. that it combines the best available scientific evidence with
research in the specific organizational context. To illustrate our proposition, we report findings from a case study in a multinational organization. The goal was to examine which rater source in the company’s 360 degree feedback would provide the most valid information about leadership competencies. Therefore, we explored relationships between 360 degree ratings and assessment center (AC) ratings of the same leadership competencies (N=151). It was predicted that AC ratings show higher overlap with 360 degree ratings for behaviors that specific rating
sources can more easily observe in the ratees’ work life. Results showed that peers were the most accurate observers of leadership competencies in 360 degree assessments, compared to managers and subordinates. This corroborates our argument for an evidence-based instead of an
intuitive handling of 360 degree feedback results. Practical implications and avenues for future research are discussed.
This paper makes a contribution to the discussion on microfoundations of dynamic capabilities – actions and interactions in organizations that enable continuous organizational renewal. More specifically, we propose the idea that dynamic capabilities of an organization
are a positive function of corresponding dynamic capabilities of individual and collective actors in the organization. Further, we develop the assumption that not only individual acts of managers but also of individuals and teams without managerial responsibility relate to dynamic capabilities of the organization. Following a holistic view, we also take into consideration empowering working conditions as enhancing factor of this function. To
examine these roots of dynamic capabilities, we use a multi level model of competence provided by Wilkens, Keller and Schmette (2006) that operationalizes the concept of dynamic
capabilities provided by Teece (2007) on a concisely behavioural base. We investigated our hypotheses with a standardized questionnaire in a case study of a German plant engineering company with 112 participants and found first support for our assumptions. Our results show an impact of individual dynamic capabilities on dynamic capabilities of the organization which is mediated by team dynamic capabilities. Psychological and social-structural empowerment moderated this relationship. A case-specific interpretation and implications for future research and practice are discussed.
Dephasing in quantum systems is typically the result of their interaction with environmental degrees of freedom. We investigate within a spin-boson model the influence of a super-Ohmic environment on the dynamics of a quantum two-state system. A super-Ohmic environment thereby models typical bulk phonons which are a common disturbance for solid state quantum systems as, for example, nitrogen-vacancy centers. By applying the numerically exact quasiadiabatic path-integral approach we show that for strong system-bath coupling, pseudocoherent dynamics emerges, i.e., oscillatory dynamics at short times due to slaving of the quantum system to the bath dynamics. We extend the phase diagram known for sub-Ohmic and Ohmic environments into the super-Ohmic regime and observe a pronounced nonmonotonous behavior. Super-Ohmic purely dephasing fluctuations strongly suppress the amplitude of coherent dynamics at very short times with no subsequent further decay at later times. Nevertheless, they render the dynamics overdamped. The corresponding phase separation line shows also a nonmonotonous behavior, very similar to the pseudocoherent dynamics.
We propose a quantum-mechanical model to calculate the current through a single molecular junction immersed in a solvent and surrounded by a thin shell of bound water under an applied ac voltage. The solvent plus hydration shell are captured by a dielectric continuum model for which the resulting spectral density is determined. Here the dielectric properties, e.g., the Debye relaxation time and the dielectric constant, of the bulk solvent and the hydration shell as well as the shell thickness directly enter. We determine the charge current through the molecular junction under an ac voltage in the sequential tunneling regime where we solve a quantum master equation by a real-time diagrammatic technique. Interestingly, the Fourier components of the charge current show an exponential-like decline when the hydration shell thickness increases. Finally, we apply our findings to binary solvent mixtures with varying volume fractions and find that the current is highly sensitive to both the hydration shell thickness as well as the volume fraction of the solvent mixture, giving rise to possible applications as shell and concentration sensors on the molecular scale.
Psychologisches Kapital als Konzept der positiven Organisationspsychologie beschreibt individuelle Ressourcen, die ausschlaggebend sind für ausgeprägtes Leistungsverhalten und hohe Zufriedenheit am Arbeitsplatz. Die positiven Konsequenzen dieses Konstrukts für Organisationen sind dank zahlreicher Untersuchungen bekannt. Weit weniger ist aber bekannt, wie diese psychologische Ressource und positive Interventionen, die sich eignen, um das psychologische Kapital von Mitarbeitern und Führungskräften zu stärken und damit ihre Leistungsfähigkeit und Zufriedenheit zu fördern, gezielt im Coaching eingesetzt werden können.
Die kognitive Distanzierung von Arbeitsinhalten wahrend der arbeitsfreien Zeit (psychological detachment) stellt einen wichtigen Faktor für Erholung, Wohlbefinden und andauernde
Leistungsfähigkeit von Beschäftigten dar. Die Antezedenzien von mentalem Abschalten nach der Arbeit sind jedoch bisweilen nur unzureichend untersucht worden; dies gilt insbesondere für Variablen im unmittelbaren Arbeitsumfeld von Mitarbeitern. Was können Organisationen tun, um das mentale Abschalten ihrer Mitarbeiter in der Freizeit zu fordern? Basierend auf einer Kombination aus dem Stressor–Detachment Model und der Theorie der Ressourcenerhaltung gehen wir davon aus, dass Servant Leadership als Prädiktor von mentalem Abschalten nach der Arbeit betrachtet werden kann, welches sich wiederum positiv auf freiwilliges Arbeitsengagement (Organizational Citizenship Behavior), auswirkt. Die Hypothesen testen wir mittels Querschnittsdesign mit N = 121 Mitarbeitern eines Technologiekonzerns. Es werden Zeitintervalle zwischen den Erhebungszeitpunkten sowie Fremdbeurteilungen eingesetzt, um das Risiko von Methodenverzerrung zu minimieren. Die Ergebnisse eines Strukturgleichungsmodells zeigen hypothesenkonform, dass mentales Abschalten nach der Arbeit den Zusammenhang zwischen Servant Leadership und freiwilligem Arbeitsengagement teilweise mediiert. Implikationen für die Praxis und Ansatzpunkte für zukünftige Forschungsarbeiten werden diskutiert.
We propose a quantum-mechanical model to calculate the nonlinear differential conductance of a single molecular junction immersed in a solvent, either in pure form or as a binary mixture with varying volume fraction. The solvent mixture is captured by a dielectric continuum model for which the resulting spectral density is determined within the Gladstone-Dale approach. The conductance of the molecular junction is calculated by a real-time diagrammatic technique. We find a strong variation of the conductance maximum for varying volume fraction of the solvent mixture. Importantly, the calculated molecular nonlinear conductance shows a very good agreement with experimentally measured data for common molecular junctions in various polar solvent mixtures.
We study the dynamics of a quantum two-state system driven through an avoided crossing under the influence of a super-Ohmic environment. We determine the Landau–Zener probability employing the numerical exact quasi-adiabatic path integral and a Markovian weak coupling approach. Increasing the driving time in the numerical protocol, we find converged results which shows that super-Ohmic environments only influence the Landau Zener probability within a finite crossing time window. This crossing time is qualitatively determined by the environmental cut-off energy. At weak coupling, we show that the Markovian weak coupling approach provides an accurate description. Since pure dephasing of a super-Ohmic bath is non-Markovian, this highlights that pure dephasing hardly influences the Landau–Zener probability. The finite crossing time window, thus, results from the suppression of relaxation once the energy splitting exceeds the environmental cut-off energy.
Ergänzend zu den Befunden von Klauk (2019; Intelligenzdiagnostik bei überwiegend Nicht-EU-Migrantinnen und -Migranten), wird in diesem Übersichtsartikel Rekurs genommen auf die Bedeutung der Intelligenz zur Vorhersage von Berufserfolgskriterien im Kontext von Migrationserfahrungen. Ferner werden die bei Klauk nicht im Fokus stehenden Kernelemente der Potenzial- und Kompetenzerfassung skizziert, inklusive berufsrelevanter Personenmerkmale und Interessen. Durch Zuwanderung erhöht sich die Diversität in der Gesellschaft, ggf. auch in Unternehmen, daher werden hier bedeutsame Aspekte der Diversität in Arbeitsgruppen, insbesondere Stereotype, kurz erläutert. Der Artikel schließt mit einigen Handlungsimpulsen und Ausblicken auf zukünftige Forschung.
Wenngleich die professionelle Persönlichkeitsdiagnostik im Rahmen von Personalauswahlverfahren einen psychologisch validen und ökonomisch effizienten Weg zur Entscheidungsfindung darstellt, wird häufig bei der Besetzung von Führungspositionen auf ebendiese verzichtet. Zumeist wird dies dadurch begründet, dass man (potenziellen) Führungskräften ein solches Verfahren nicht " zumuten" möchte und dass Persönlichkeitstests der Akzeptanz des Auswahlprozesses aus Sicht der Teilnehmenden schaden könnten. In diesem Beitrag stellen wir mit dem Kölner Persönlichkeitsinventar (ki.8) einen berufsbezogenen Persönlichkeitsfragebogen vor, der eine große Bandbreite führungsrelevanter Traits (Big Five plus dunkle Triade) erfasst und mit einem besonderen Augenmerk auf das Gütekriterium der sozialen Validität konstruiert wurde. Weiter legen wir die Ergebnisse zweier Feldstudien mit Führungskräften und Mitarbeiter/-innen deutscher Unternehmen vor (Nges = 487), die die Akzeptanz des Messinstruments unterstreichen.
Leadership Beyond Narcissism: On the Role of Compassionate Love as Antecedent of Servant Leadership
(2020)
While we already know a lot about the outcomes and boundary conditions of servant leadership, there is still a need for research on its antecedents. Building on the theory of purposeful work behavior and further theorizing by van Dierendonck and Patterson (2015), we examine if leaders’ propensity for compassionate love will evoke servant leadership behavior. At the same time, we contrast compassionate love to leaders’ narcissism as psychological counterpart to compassionate love, because narcissism is not associated with leader effectiveness, but with leader emergence instead. We collected data from 170 leader-follower-dyads in a field study in Germany, while measuring leaders’ compassionate love and narcissism, and followers’ perceptions of servant leadership. We found a positive association between leaders’ compassionate love and servant leadership behavior, while narcissism was negatively associated with servant leadership. Theoretical and practical implications, as well as pathways for future research are discussed.
The purpose of the paper is to contribute to the inner workings of transformational leadership in the context of organizational change. According to the organizational role theory, role conflict is proposed as a mediator between transformational leadership and affective commitment to change and irritation. Cross-sectional data were collected in a German company in the textiles sector, undergoing a pervasive IT-related change. Confirmatory factor analysis and structural equation modeling was performed for validity and hypothesis testing. The findings suggest that role conflict acts as a full mediator in the relationship between transformational leadership and affective commitment to change, as well as irritation. Transformational leadership is often discussed in terms of change-oriented leadership. Surprisingly, only a few studies have examined the specific impact of transformational leadership on attitudinal outcomes during change processes, yet. Consequently, research on the underlying psychological mechanisms of the relationship is scarce, too.
A quantum two-level system immersed in a sub-Ohmic bath experiences enhanced low-frequency quantum statistical fluctuations which render the nonequilibrium quantum dynamics highly non-Markovian. Upon using the numerically exact time-evolving matrix product operator approach, we investigate the phase diagram of the polarization dynamics. In addition to the known phases of damped coherent oscillatory dynamics and overdamped decay, we identify a new third region in the phase diagram for strong coupling showing an aperiodic behavior. We determine the corresponding phase boundaries. The dynamics of the quantum two-state system herein is not coherent by itself but slaved to the oscillatory bath dynamics.