Filtern
Erscheinungsjahr
- 2017 (117)
- 2018 (81)
- 2016 (63)
- 2021 (58)
- 2022 (57)
- 2020 (52)
- 2019 (50)
- 2015 (46)
- (42)
- 2023 (41)
- 2006 (33)
- 2007 (31)
- 2008 (29)
- 2014 (29)
- 2005 (27)
- 2010 (24)
- 2013 (24)
- 2003 (22)
- 2011 (20)
- 2012 (20)
- 2002 (19)
- 2004 (18)
- 2001 (17)
- 2009 (16)
- 2000 (15)
- 1996 (9)
- 1999 (8)
- 1998 (7)
- 1995 (5)
- 1997 (4)
- 2024 (2)
- 1983 (1)
- 1987 (1)
- 1988 (1)
- 1992 (1)
- 1994 (1)
Dokumenttyp
- Wissenschaftlicher Artikel (991) (entfernen)
Sprache
- Deutsch (790)
- Englisch (199)
- Französisch (1)
- Spanisch (1)
Volltext vorhanden
- nein (991) (entfernen)
Schlagworte
- Geldpolitik (6)
- Building Information Modeling (4)
- Kühllastberechnung (4)
- Qualitätsplan (3)
- Reinraumtechnik (3)
- VDI 2078 (3)
- CDK (2)
- Deutschlandwetter (2)
- Energiepolitik (2)
- Industry Foundation Classes (2)
Institut
- Wirtschaftsrecht (382)
- Institut für Internetsicherheit (160)
- Wirtschaft und Informationstechnik Bocholt (68)
- Institut für Innovationsforschung und -management (55)
- Westfälisches Institut für Gesundheit (47)
- Westfälisches Energieinstitut (43)
- Wirtschaft Gelsenkirchen (35)
- Elektrotechnik und angewandte Naturwissenschaften (33)
- Wirtschaftsingenieurwesen (23)
- Informatik und Kommunikation (20)
In the modern Web, service providers often rely heavily on third parties to run their services. For example, they make use of ad networks to finance their services, externally hosted libraries to develop features quickly, and analytics providers to gain insights into visitor behavior.
For security and privacy, website owners need to be aware of the content they provide their users. However, in reality, they often do not know which third parties are embedded, for example, when these third parties request additional content as it is common in real-time ad auctions.
In this paper, we present a large-scale measurement study to analyze the magnitude of these new challenges. To better reflect the connectedness of third parties, we measured their relations in a model we call third party trees, which reflects an approximation of the loading dependencies of all third parties embedded into a given website. Using this concept, we show that including a single third party can lead to subsequent requests from up to eight additional services. Furthermore, our findings indicate that the third parties embedded on a page load are not always deterministic, as 50 % of the branches in the third party trees change between repeated visits. In addition, we found that 93 % of the analyzed websites embedded third parties that are located in regions that might not be in line with the current legal framework. Our study also replicates previous work that mostly focused on landing pages of websites. We show that this method is only able to measure a lower bound as subsites show a significant increase of privacy-invasive techniques. For example, our results show an increase of used cookies by about 36 % when crawling websites more deeply.
The European General Data Protection Regulation (GDPR), which went into effect in May 2018, brought new rules for the processing of personal data that affect many business models, including online advertising. The regulation’s definition of personal data applies to every company that collects data from European Internet users. This includes tracking services that, until then, argued that they were collecting anonymous information and data protection requirements would not apply to their businesses.
Previous studies have analyzed the impact of the GDPR on the prevalence of online tracking, with mixed results. In this paper, we go beyond the analysis of the number of third parties and focus on the underlying information sharing networks between online advertising companies in terms of client-side cookie syncing. Using graph analysis, our measurement shows that the number of ID syncing connections decreased by around 40 % around the time the GDPR went into effect, but a long-term analysis shows a slight rebound since then. While we can show a decrease in information sharing between third parties, which is likely related to the legislation, the data also shows that the amount of tracking, as well as the general structure of cooperation, was not affected. Consolidation in the ecosystem led to a more centralized infrastructure that might actually have negative effects on user privacy, as fewer companies perform tracking on more sites.
With ongoing developments in the field of smart cities and digitalization in general, data is becoming a driving factor and value stream for new and existing economies alike. However, there exists an increasing centralization and monopolization of data holders and service providers, especially in the form of the big US-based technology companies in the western world and central technology providers with close ties to the government in the Asian regions. Self Sovereign Identity (SSI) provides the technical building blocks to create decentralized data-driven systems, which bring data autonomy back to the users. In this paper we propose a system in which the combination of SSI and token economy based incentivisation strategies makes it possible to unlock the potential value of data-pools without compromising the data autonomy of the users.
The diffusion of hydrogen adsorbed inside layered MoS2 crystals has been studied by means of quasi- elastic neutron scattering, neutron spin-echo spectroscopy, nuclear reaction analysis, and X-ray photoelectron spectroscopy. The neutron time-of-flight and neutron spin-echo measurements demonstrate fast diffusion of hydrogen molecules parallel to the basal planes of the two dimensional crystal planes. At room temperature and above, this intra-layer diffusion is of a similar speed to the surface diffusion that has been observed in earlier studies for hydrogen atoms on Pt surfaces. A significantly slower hydrogen diffusion was observed perpendicular to the basal planes using nuclear reaction analysis.
As vaccination campaigns are in progress in most countries, hopes to win back more normality are rising. However, the exact path from a pandemic to an endemic virus remains uncertain. While in the pre-vaccination phase many critical indoor situations were avoided by strict control measures, for the transition phase a certain mitigation of the effect of indoor situations seems advisable.
To better understand the mechanisms of indoor airborne transmissions, we present a new time-discrete model to calculate the level of exposure towards infectious SARS-CoV-2 aerosol and carry out a sensitivity analysis for the level of SARS-CoV-2 aerosol exposure in indoor settings. Time limitations and the use of any kind of masks were found to be strong mitigation measures, while how far the effort for a strict use of professional face pieces instead of simple masks can be justified by the additional reduction of the exposure dose remains unclear. Very good ventilation of indoor spaces is mandatory. The definition of sufficient ventilation in regard to airborne SARS-CoV-2 transmission follows other rules than the standards in ventilation design. This means that especially smaller rooms most likely require a significantly greater fresh air supply than usual. Further research on 50% group models in schools is suggested. The benefits of a model in which the students come to school every day, but for a limited time, should be investigated. In terms of window ventilation, it has been found that many short opening periods are not only thermally beneficial, they also reduce the exposure dose. The fresh air supply is driven by the temperature gradient and wind speed. However, the sensitivity towards these parameters is not very high and in times of low wind and temperature gradients, there are no arguments against keep windows open in order to make up for the reduced air flow rate. Long total opening periods and large window surfaces will strongly reduce the exposure. Additionally, the results underline the expectable fact that exposure doses will increase when hygiene and control measures are reduced. It seems advisable to investigate what this means for the infection rate and the fatality of infections in populations with partial immunity. Very basic considerations suggest that the value of aerosol reduction measures may be reduced with very infectious variants such as delta.
Das neuartige Coronavirus SARS-COV-2 wird insbesondere in Innenräumen übertragen. Dabei spielen Aerosole, also kleinste Schwebeteilchen, eine wichtige Rolle. Der längere Aufenthalt in Räumen begünstigt die Wahrscheinlichkeit einer Übertragung auch über eine Distanz von mehr als 1,5 m.
Eine Möglichkeit, um die Schwebeteilchen aus der Raumluft zu entfernen sind Raumluftreiniger. Diese gibt es in verschiedenen Ausführungen und Funktionsprinzipien. Das vorliegende Dokument soll dabei helfen den richtigen Gerätetyp für die jeweilige Anwendung zu finden. Dabei geht es zum einen um große Räume hoher Belegungsdichte (z. B. Schulklassen), zum anderen um Restaurants und Freizeitstätten im öffentlichen Raum. Zu guter Letzt kann der Einsatz dieser Geräte auch im privaten Umfeld sinnvoll sein.
Für alle Geräte gilt: Sie unterstützen die Vermeidung von hohen Virenkonzentrationen im Raum. Das ist jedoch kein Ersatz zum regelmäßigen Lüften und der Zufuhr von „frischer Luft“ und damit mehr Sauerstoff für den Raum.
Description and Analysis of Glycosidic Residues in the Largest Open Natural Products Database
(2021)
Zum Begriff der Sonderabgabe
(2021)
This introduction to a special issue about concepts and facets of entrepreneurial diversity serves as a starting point for further discussion and research in this field. For this purpose, we provide information about the roots of the study of diversity and current trends in entrepreneurship research and present a frame for (researching) entrepreneurial diversity. Additionally, we briefly summarize the three papers selected for inclusion in this special issue. Together, they offer insights into the intersections of different diversity dimensions, personality as a deep dimension of team composition, and a general critical reflection on the conceptualization of entrepreneurial diversity. Taken together, the papers in this special issue present new findings and contribute to further advancing the long overdue research on and discussion about diversity in the field of entrepreneurship.
Cardiac and liver computed tomography (CT) perfusion has not been routinely implemented in the clinic and requires high radiation doses. The purpose of this study is to examine the radiation exposure and technical settings for cardiac and liver CT perfusion scans at different CT scanners. Two cardiac and three liver CT perfusion protocols were examined with the N1 LUNGMAN phantom at three multi-slice CT scanners: a single-source (I) and second- (II) and third-generation (III) dual-source CT scanners. Radiation doses were reported for the CT dose index (CTDIvol) and dose–length product (DLP) and a standardised DLP (DLP10cm) for cardiac and liver perfusion. The effective dose (ED10cm) for a standardised scan length of 10 cm was estimated using conversion factors based on the International Commission on Radiological Protection (ICRP) 110 phantoms and tissue-weighting factors from ICRP 103. The proposed total lifetime attributable risk of developing cancer was determined as a function of organ, age and sex for adults. Radiation exposure for CTDIvol, DLP/DLP10 cm and ED10 cm during CT perfusion was distributed as follows: for cardiac perfusion (II) 144 mGy, 1036 mGy·cm/1440 mGy·cm and 39 mSv, and (III) 28 mGy, 295 mGy·cm/279 mGy·cm and 8 mSv; for liver perfusion (I) 225 mGy, 3360 mGy·cm/2249 mGy·cm and 54 mSv, (II) 94 mGy, 1451 mGy·cm/937 mGy·cm and 22 mSv, and (III) 74 mGy, 1096 mGy·cm/739 mGy·cm and 18 mSv. The third-generation dual-source CT scanner applied the lowest doses. Proposed total lifetime attributable risk increased with decreasing age. Even though CT perfusion is a high-dose examination, we observed that new-generation CT scanners could achieve lower doses. There is a strong impact of organ, age and sex on lifetime attributable risk. Further investigations of the feasibility of these perfusion scans are required for clinical implementation.
Background: By reviewing image quality and diagnostic perception, the suitability of a statistical model-based iterative reconstruction algorithm in conjunction with low-dose computed tomography for lung cancer screening is investigated.
Methods: Artificial lung nodules shaped as spheres and spiculated spheres made from material with calibrated Hounsfield units were attached on marked positions in the lung structure of anthropomorphic phantoms. The phantoms were scanned using standard high contrast, and two low-dose computed tomography protocols: low-dose and ultra-low-dose. For the reconstruction, the filtered back projection and the iterative reconstruction algorithm ADMIRE at different strength levels (S1–S5) and the kernels Bl57, Br32, Br69 were used. Expert radiologists assessed image quality by performing 4-field-ranking tests and reading all image series to examine the aptitude for the detectability of lung nodules. Signal-to-noise ratio was investigated as objective image quality parameter.
Results: In ranking tests for lung foci detection expert radiologists prefer medium to high iterative reconstruction strength levels. For the standard clinical kernel Bl57 and varying phantom diameter, a noticeable preference for S4 was detected. Experienced radiologists graded filtered back projection reconstructed images with the highest perceptibility. Less experienced readers assessed filtered back projection and iterative reconstruction equally with the highest grades for the Bl57 kernel. Independently of the dose protocol, the signal-to-noise ratio increases with the iterative reconstruction strength level, specifically for Br69 and Bl57.
Conclusions: Subjective image perception does not significantly correlate with the experience of the radiologist, which presumably mirrors reader’s training and accustomed reading adjustments. Regarding signal-to-noise ratio, iterative reconstruction outperforms filtered back projection for spheres and spiculated spheres. Iterative reconstruction matters. It promises to be an alternative to filtered back projection allowing for lung-cancer screening at markedly decreased radiation exposure but comparable or even improved image quality.
The aim of this phantom study is to examine radiation doses of dual- and single-energy computed tomography (DECT and SECT) in the chest and upper abdomen for three different multi-slice CT scanners. A total of 34 CT protocols were examined with the phantom N1 LUNGMAN. Four different CT examination types of different anatomic regions were performed both in single- and dual-energy technique: chest, aorta, pulmonary arteries for suspected pulmonary embolism and liver. Radiation doses were examined for the CT dose index CTDIvol and dose-length product (DLP). Radiation doses of DECT were significantly higher than doses for SECT. In terms of CTDIvol, radiation doses were 1.1–3.2 times higher, and in terms of DLP, these were 1.1–3.8 times higher for DECT compared with SECT. The third-generation dual-source CT applied the lowest dose in 7 of 15 different examination types of different anatomic regions.
Flying insects employ elegant optical-flow-based strategies to solve complex tasks such as landing or obstacle avoidance. Roboticists have mimicked these strategies on flying robots with only limited success, because optical flow (1) cannot disentangle distance from velocity and (2) is less informative in the highly important flight direction. Here, we propose a solution to these fundamental shortcomings by having robots learn to estimate distances to objects by their visual appearance. The learning process obtains supervised targets from a stability-based distance estimation approach. We have successfully implemented the process on a small flying robot. For the task of landing, it results in faster, smooth landings. For the task of obstacle avoidance, it results in higher success rates at higher flight speeds. Our results yield improved robotic visual navigation capabilities and lead to a novel hypothesis on insect intelligence: behaviours that were described as optical-flow-based and hardwired actually benefit from learning processes.
Cone-Beam computed tomography (CBCT) has become the most important component of modern radiotherapy for positioning tumor patients directly before treatment. In this work we investigate alternations to standard acquisition protocol, called preset, for patients with a tumor in the thoracic region. The effects of the changed acquisition parameters on the image quality are evaluated using the Catphan Phantom and the image analysis software Smári. The weighted CT dose index (CTDIW) is determined in each case and the effects of the different acquisition protocols on the patient dose are classified accordingly. Additionally, the clinical suitability of alternative presets is tested by investigating correctness of image registration using the CIRS thorax phantom. The results show that a significant dose reduction can be achieved. It can be reduced by 51% for a full rotation by adjusting the gantry speed.
Welding and joining of components processed by additive manufacturing (AM) to other AMas well as conventionally produced components is of high importance for industry as thisallows to combine advantages of either technique and to produce large-scale structures,respectively. One of the key influencing factors with respect to weldability and mechanicalproperties of AM components was found to be the inherent microstructural anisotropy ofthese components. In present work, the precipitation-hardenable AleSi10Mg was fabri-cated in different build orientations using selective laser melting (SLM) and subsequentlyjoined by friction stir welding (FSW) in different combinations. Microstructural analysisshowed considerable grain refinement in the friction stir zone, however, pronouncedsoftening occurred in this area. The latter can be mainly attributed to changes in themorphology and size of Si particles. Upon combination of different build orientations aremarkable influence on the tensile strength of FSW joints was seen. Cyclic deformationresponses of SLM and FSW samples were examined in depth. Fatigue properties of thisalloy in the low-cycle fatigue (LCF) regime imply that SLM samples with the building di-rection parallel to the loading direction show superior performance under cyclic loading ascompared to the other conditions and the FSW joints. From results presented solid process-microstructure-property relationships are drawn.
We study the nonequilibrium dynamics of a quantum system under the influence of two noncommuting fluctuation sources, i.e., purely dephasing fluctuations and relaxational fluctuations. We find that increasing purely dephasing fluctuations suppress increasing relaxation in the quantum system. This effect is further enhanced when both fluctuation sources are fully correlated. These effects arise for medium to strong primary fluctuations already when the secondary fluctuations are weak due to their noncommuting coupling to the quantum system. Dephasing, in contrast, is increased by increasing any of the two fluctuations. Fully correlated fluctuations result in overdamping at much lower system-bath coupling than uncorrelated noncommuting fluctuations. In total, we observe that treating subdominant secondary environmental fluctuations perturbatively leads, as neglecting them, to erroneous conclusions.
Wenngleich die professionelle Persönlichkeitsdiagnostik im Rahmen von Personalauswahlverfahren einen psychologisch validen und ökonomisch effizienten Weg zur Entscheidungsfindung darstellt, wird häufig bei der Besetzung von Führungspositionen auf ebendiese verzichtet. Zumeist wird dies dadurch begründet, dass man (potenziellen) Führungskräften ein solches Verfahren nicht " zumuten" möchte und dass Persönlichkeitstests der Akzeptanz des Auswahlprozesses aus Sicht der Teilnehmenden schaden könnten. In diesem Beitrag stellen wir mit dem Kölner Persönlichkeitsinventar (ki.8) einen berufsbezogenen Persönlichkeitsfragebogen vor, der eine große Bandbreite führungsrelevanter Traits (Big Five plus dunkle Triade) erfasst und mit einem besonderen Augenmerk auf das Gütekriterium der sozialen Validität konstruiert wurde. Weiter legen wir die Ergebnisse zweier Feldstudien mit Führungskräften und Mitarbeiter/-innen deutscher Unternehmen vor (Nges = 487), die die Akzeptanz des Messinstruments unterstreichen.
The purpose of the paper is to contribute to the inner workings of transformational leadership in the context of organizational change. According to the organizational role theory, role conflict is proposed as a mediator between transformational leadership and affective commitment to change and irritation. Cross-sectional data were collected in a German company in the textiles sector, undergoing a pervasive IT-related change. Confirmatory factor analysis and structural equation modeling was performed for validity and hypothesis testing. The findings suggest that role conflict acts as a full mediator in the relationship between transformational leadership and affective commitment to change, as well as irritation. Transformational leadership is often discussed in terms of change-oriented leadership. Surprisingly, only a few studies have examined the specific impact of transformational leadership on attitudinal outcomes during change processes, yet. Consequently, research on the underlying psychological mechanisms of the relationship is scarce, too.
Derzeit dominieren im Cyber-Raum zentralisierte ID-Provider, wie Google, Facebook und Apple die Verwaltung von Identitätsdaten bei sehr vielen IT-Diensten weltweit. Diese Situation schafft eine große Abhängigkeit der Gesellschaft, der Unternehmen und Nutzer in Bezug auf die Entwicklung der Digitalisierung. Außerdem nutzen die monopolistischen ID-Provider die sensiblen personenbezogenen Daten ihrer Nutzer für eigene Werbezwecke oder verkaufen sie aus ökonomischen Interessen an weitere Unternehmen. Das schwächt die Privatsphäre der Nutzer und hat Folgen bezüglich der Akzeptanz unserer digitalen Zukunft. Self-Sovereign Identity (SSI) ist ein Konzept, das die Souveränität und den Schutz der Privatsphäre der Nutzer fokussiert – dabei aber gleichzeitig deutlich einfacher und nutzerfreundlicher umgesetzt werden kann, als das bei aktuellen Identity Lösungen der Fall ist. Folgender Beitrag erklärt die Architektur, die Akteure, die Sicherheitsmechanismen und die Prinzipien von SSI.
Social Media Scraper im Einsatz : wie Kriminelle hoch personalisierte Phishing-Attacken vorbereiten
(2021)
Social Engineering ist ein zunehmend beliebter Angriffsvektor, der von Kriminellen verwendet wird, um erfolgreich Menschen zu manipulieren. Das Ziel ist es vordergründig Personen anzugreifen und nicht die IT-Systeme, die sie nutzen. Dazu sammeln die Kriminellen so viele Informationen wie möglich über ihre menschlichen Vorlieben und Interessen. Social-Media-Portale sind dazu eine gute Informationsquelle. In diesem Projekt wird die Vorgehensweise einer entwickelten Software beschrieben, die automatisch einen Link einer Person von offiziellen und seriösen LinkedIn-Profilen zu den privaten Accounts auf Instagram findet. Durch diese Automatisierung und die Analyse der veröffentlichten Inhalte kann eine Risikoeinschätzung gegeben werden, wie viele berufliche und persönliche Informationen für einen erfolgreicheren Social-Engineering-Angriff genutzt werden könnten.
Digitale Werte benötigen ein weitaus höheres und vor allem spezifisches Schutzniveau. Da es für Anwender mittlerweile nicht mehr einfach ist, dieses effektiv nachzuprüfen, müssen sie darauf vertrauen, dass die Hersteller alles tun, um den Anforderungen gerecht zu werden. Andererseits sind die Hersteller darauf angewiesen, dass Anwender ihnen Vertrauen gewähren und ihre IT-/Sicherheits-Lösungen tatsächlich nutzen. Um eine hohe Vertrauenswürdigkeit zu erreichen können, müssen Unternehmen Vorgehensweisen wählen, die einigen bestimmten Kriterien erfüllen.
Cyber-Sicherheit spielt für unsere digitale Zukunft, sowohl im Alltag, als auch im Berufsleben, eine zentrale Rolle. Aus diesem Grund wird es immer wichtiger, dass wir ausreichend Cyber-Sicherheitsexperten haben, um die Zukunft für unsere Gesellschaft sicher und vertrauenswürdig zu gestalten. Vor diesem Hintergrund wird im folgenden Beitrag die Wichtigkeit der Cyber-Sicherheit aus verschiedenen Blickwinkeln diskutiert und die Möglichkeit der Aus- und Weiterbildung dargestellt.
Die digitale Evolution schreitet unaufhaltsam voran. Das führt auch zu der Konsequenz, dass die innovativen Technologien und somit die gesamte Internet-/IT-Infrastruktur nicht nur zunehmend vielschichtig, sondern auch intransparent wird. Daraus resultiert ein gravierendes Dilemma: gegenläufig zu dem steigenden Einsatz sinkt das Wissen über deren Hintergründe und Zusammenhänge. Dies könnte im Weiteren zu folgender Handlungsalternative führen – entweder unverhältnismäßige Ablehnung der Technologie und entsprechender Dienste oder blindes Vertrauen. Beides verhindert eine sinnvolle Nutzung neuer Anwendungen oder innovativer Dienste – auch wenn Vertrauen, im Sinne des Soziologen Niklas Luhmann, grundsätzlich positiv konnotiert ist. Denn gemäß seiner Definition ist Vertrauen ein Mechanismus der Komplexitätsreduktion – also etwas, wodurch sich das Leben leichter gestalten lässt. Doch sollte hier die Interpretation im Sinne des Philosophen und Soziologen Georg Simmel weiter präzisiert werden. Dieser sieht „Vertrauen als einen Zustand zwischen Wissen und Nicht-Wissen, als eine Hypothese künftigen Verhaltens“, auf die Menschen ihr konkretes Handeln gründen. Das zeigt die Relevanz von Vertrauen beim Einsatz innovativer Technologien und unterstreicht gleichzeitig die Notwendigkeit, dass Unternehmen vertrauenswürdig agieren müssen, damit dieses auch gerechtfertigt ist.
Die Art und Weise wie wir leben und wohnen hat sich in den vergangenen Jahren stark verändert, daraus haben sich einige neue Trends für den häuslichen Alltag ergeben. Dies ist unter anderem darauf zurückzuführen, dass das steigende Umweltbewusstsein viele Handlungsentscheidungen beeinflusst. Zudem bedingt die demografische Entwicklung, dass nach neuen Lösungsansätzen für ein eigenständiges Leben im Alter gesucht werden muss. Mittlerweile ist auch das Homeoffice so etabliert, dass daraus neue Gegebenheiten für das heutige und künftige Arbeiten von Zuhause resultieren, die technologische Veränderungen notwendig machen. Insgesamt wird ein Wandel hin zum smarten Zuhause als Chance gesehen, diesen aktuellen Herausforderungen zu begegnen. Aber was
bedeutet Smart Home tatsächlich im täglichen Leben und wie wird dieses in der Zukunft gestaltet werden? Für die Einschätzung hier gilt es, die Vorteile von Smart Home ebenso zu betrachten, wie mögliche Risiken und was berücksichtigt werden muss, um Schäden zu vermeiden. Denn nur so lässt sich eine Akzeptanz in der digitalen Zukunft zu erzielen.
Serviceangebote aus der Public Cloud schießen derzeit förmlich durch die Decke. Obwohl Coroana in einzelnen Bereichen Cloud-Projekte verzögert, gehören die Digitalisierung und damit auch Cloud Services zu den eindeutigen Gewinnersn in der Krise: Doch mit der Auslagerung von IT-Services im großen Maßstab in die Cloud, nehmen auch Cyberkriminelle dieses Umfeld mehr und mehr ins Visier. Cloud Service Provider sind zwar in der Regel sicherheitstechnisch immer auf dem neuesten Stand - aber auch sie sind angreifbar. Damit Cyberkriminelle in Cloud-Umgebungen keine Chance haben, den Blicken von Unternehemen und Strafverfolgungsbehörden zu entgehen, ist eine umfassende digitale Forensik erforderlich. In der Praxis bestehen dafür jedoch große Hürden. Deshalb müssen hier jetzt schnell neue, kreative Ansätze gefunden werden.
Im Sinne der Gesellschaft : Wissenschaft als Helfer für angewandte Ethik in der KI-unterstützten IT
(2021)
Im Kontext der Digitalisierung, und insbesondere vor dem Hintergrund der dadurch prädizierten Effizienzsteigerung, wird der Künstlichen Intelligenz (KI) eine hohe Bedeutung beigemessen. Ebenso in Bezug auf die IT-Sicherheit gehen Experten davon aus, dass KI entscheidend dazu beitragen wird, die strategische Abwehr von Cyber-Angriffen zu optimieren. Doch trotz aller Euphorie sollten hier neben den Chancen auch die daraus potenziell resultierenden Risiken in Betracht gezogen werden. Denn der Einsatz von KI ist mit Implikationen verbunden, die auf die gesamte Gesellschaft wirken, von daher ist es nicht nur ratsam, sondern sogar erforderlich Anwendungen – auch im Bereich IT-Sicherheit – unter ethischen Aspekten zu analysieren und bewerten.
Als Identifikations- und Authentisierungsverfahren gewinnen biometrische Systeme immer mehr an Bedeutung. Waren sie bisher eher nur aus Filmen bekannt, wo sie für einen kleinen Mitarbeiterkreis als Zugangskontrolle zu wichtigen Räumen oder Tresoren mit kostbaren Inhalten dienten, finden biometrische Systeme immer mehr Einzug in unseren Alltag. Im elektronischem Pass ist die Speicherung biometrischer Daten bereits Pflicht. Im öffentlichen und kommerziellen Bereich werden biometrische Systeme immer mehr als zusätzliche Option angeboten, um den Zugriff auf Daten, Dienste und den Zutritt zu Räumen zu kontrollieren. Mit der Entsperrung des Smartphones sind biometrische Systeme auch im privaten Bereich angekommen. Erschwingliche Sensoren machen es sogar möglich, privat biometrische Systeme zu entwickeln.
A Crypto-Token Based Charging Incentivization
Scheme for Sustainable Light Electric Vehicle
Sharing
(2021)
The ecological impact of shared light electric vehicles (LEV) such as kick scooters is still widely discussed. Especially the fact that the vehicles and batteries are collected using diesel vans in order to charge empty batteries with electricity of unclear origin is perceived as unsustainable. A better option could be to let the users charge the vehicles themselves whenever it is necessary. For this, a decentralized,flexible and easy to install network of off-grid solar charging stations could bring renewable electricity where it is needed without sacrificing the convenience of a free float sharing system. Since the charging stations are powered by solar energy the most efficient way to utilize them would be to charge the vehicles when the sun is shining. In order to make users charge the vehicle it is necessary to provide some form of benefit for
them doing so. This could be either a discount or free rides. A
particularly robust and well-established mechanism is controlling incentives via means of blockchain-based cryptotokens. This paper demonstrates a crypto-token based scheme for incentivizing users to charge sharing vehicles during times of considerable solar irradiation in order to contribute to more sustainable mobility services.
Self-Sovereign Identity (SSI) sorgt für eine sichere und vertrauenswürdige Digitalisierung. Nutzer können selbstbestimmt ihre digitale Identität und Nachweise wie Ausweis oder Bescheinigungen an Anwendungen weitergeben. Das europäische SSI-Ökosystem löst Abhängigkeiten von Monopolisten und gibt uns die Freiheit, die digitale Zukunft souverän und zügig zu gestalten.
Sicheres und vertauenswürdiges Arbeiten im Homeoffice : aktuelle Situation der Cybersicherheitslage
(2021)
Durch die fortschreitende Digitalisierung bekommt die IT einen immer größeren Stellenwert in allen Bereichen. Dadurch steigt die Abhängigkeit von der IT und damit auch das Schadenspotenzial durch Cyberangriffe. Besonders durch die Zunahme des Arbeitsform Homeoffice sowie de Ad-hoc-Verlagerung von Beschäftigten und Geschäftsprozessen in das Homeoffice entstehen durch bisher unzureichende infrastrukturelle Sicherheitsvorkehrungen höhere Risiken. Anbieter von Video-Konferenz- und anderen Kollaborationstools haben durch den enormen Digitalisierungsschub nicht genug Zeit gehabt, ihre Systeme angemessen zu schützen. Dazu kommt, dass die Nutzung von unsicheren oder nicht ausreichend datenschutzkonformen Lösungen, wie Messenger oder sozialen Netzwerken, weitere Risiken für Unternehmen darstellen können. Welche technischen, personellen und organisatorischen Maßnahmen sind also erforderlich, um in der angespannten Lage ein sicheres Homeoffice einzurichten?
Software updates take an essential role in keeping IT environments secure. If service providers delay or do not install updates, it can cause unwanted security implications for their environments. This paper conducts a large-scale measurement study of the update behavior of websites and their utilized software stacks. Across 18 months, we analyze over 5.6M websites and 246 distinct client- and server-side software distributions. We found that almost all analyzed sites use outdated software. To understand the possible security implications of outdated software, we analyze the potential vulnerabilities that affect the utilized software. We show that software components are getting older and more vulnerable because they are not updated. We find that 95 % of the analyzed websites use at least one product for which a vulnerability existed.
Der Datenjournalismus wird gleichermaßen stark in der Nachrichtenbranche beobachtet und in der Journalismusforschung reflektiert. Dieser Beitrag beschreibt das Phänomen zunächst im Kontext des Megatrends der Automatisierung des Journalismus. Anschließend wird die erste Trendstudie zum Da-tenjournalismus in Deutschland vorgestellt: Die Berufsfeldstudie war 2012 und 2019 im Feld. Die ge-wählten Items ermöglichen einen Längsschnitt-Vergleich der Entwicklung des Datenjournalismus. Bei einem Vergleich mit den nationalen Daten der „Worlds of Journalism Study“ werden weitere Gemein-samkeiten und Unterschiede deutlich. Die Ergebnisse zeigen, dass sich der Datenjournalismus in Deutschland zunehmend institutionalisiert hat und Datenjournalist:innen sich stark einem investigati-ven politischen Journalismus verpflichtet fühlen.
Different charge treatment approaches are examined for cyclotide-induced plasma membrane disruption by lipid extraction studied with dissipative particle dynamics. A pure Coulomb approach with truncated forces tuned to avoid individual strong ion pairing still reveals hidden statistical pairing effects that may lead to artificial membrane stabilization or distortion of cyclotide activity depending on the cyclotide’s charge state. While qualitative behavior is not affected in an apparent manner, more sensitive quantitative evaluations can be systematically biased. The findings suggest a charge smearing of point charges by an adequate charge distribution. For large mesoscopic simulation boxes, approximations for the Ewald sum to account for mirror charges due to periodic boundary conditions are of negligible influence.
„Digital gestützte Lehrveranstaltungen“ im Sinne von § 1a Abs. 2 LVV (NRW) – eine erste Annäherung
(2022)
The use of molecular string representations for deep learning in chemistry has been steadily increasing in recent years. The complexity of existing string representations, and the difficulty in creating meaningful tokens from them, lead to the development of new string representations for chemical structures. In this study, the translation of chemical structure depictions in the form of bitmap images to corresponding molecular string representations was examined. An analysis of the recently developed DeepSMILES and SELFIES representations in comparison with the most commonly used SMILES representation is presented where the ability to translate image features into string representations with transformer models was specifically tested. The SMILES representation exhibits the best overall performance whereas SELFIES guarantee valid chemical structures. DeepSMILES perform in between SMILES and SELFIES, InChIs are not appropriate for the learning task. All investigations were performed using publicly available datasets and the code used to train and evaluate the models has been made available to the public.
The translation of images of chemical structures into machine-readable representations of the depicted molecules is known as optical chemical structure recognition (OCSR). There has been a lot of progress over the last three decades in this field, but the development of systems for the recognition of complex hand-drawn structure depictions is still at the beginning. Currently, there is no data for the systematic evaluation of OCSR methods on hand-drawn structures available. Here we present DECIMER — Hand-drawn molecule images, a standardised, openly available benchmark dataset of 5088 hand-drawn depictions of diversely picked chemical structures. Every structure depiction in the dataset is mapped to a machine-readable representation of the underlying molecule. The dataset is openly available and published under the CC-BY 4.0 licence which applies very few limitations. We hope that it will contribute to the further development of the field.
Das Phänomen des Shareholder Activismbzw. der aktivistischen Investorenwar bis vor wenigen Jahren primär aus demangloamerikanischen Raumbekannt. Seit einiger Zeit sind verstärkt auch europäische und deutscheUnternehmen das Ziel von aktivistischen Aktionären. Der vorliegendeBeitrag zeigt die Zielsetzungen dieser Investorengruppe und die hierbeiverfolgten Strategien bzw. eingesetzten Maßnahmen auf, womit paralleleine Beschreibung des Geschäftsmodells des finanziell geprägten Share-holder Activismvorgelegt wird.
The development of deep learning-based optical chemical structure recognition (OCSR) systems has led to a need for datasets of chemical structure depictions. The diversity of the features in the training data is an important factor for the generation of deep learning systems that generalise well and are not overfit to a specific type of input. In the case of chemical structure depictions, these features are defined by the depiction parameters such as bond length, line thickness, label font style and many others. Here we present RanDepict, a toolkit for the creation of diverse sets of chemical structure depictions. The diversity of the image features is generated by making use of all available depiction parameters in the depiction functionalities of the CDK, RDKit, and Indigo. Furthermore, there is the option to enhance and augment the image with features such as curved arrows, chemical labels around the structure, or other kinds of distortions. Using depiction feature fingerprints, RanDepict ensures diversely picked image features. Here, the depiction and augmentation features are summarised in binary vectors and the MaxMin algorithm is used to pick diverse samples out of all valid options. By making all resources described herein publicly available, we hope to contribute to the development of deep learning-based OCSR systems.
Planung bzw. Budgetierung bilden ein zentrales Element des Controlling. Aussagekräftige Ergebnisse der Budgetierung sind unverzichtbar für die Steuerung der im Unternehmen verfügbaren Ressourcen. Entsprechend der hohen Bedeutung der Budgetierung ist eine intensive methodische Innovationsbereitschaft bei den Planungsinstrumenten in den letzten Jahren zu beobachten. Zwischenzeitlich werden auch die Einsatzbereiche des Zero-Based-Budgeting wieder intensiver diskutiert (= reloaded), wobei hier die Besonderheit darin besteht, dass dieses Instrument bereits in den 80er Jahren für einige Jahre eine stärkere Beachtung in der betriebswirtschaftlichen Theorie und Praxis gefunden hatte.
Die Ukrainekrise und coronabedingte Lieferkettenprobleme treiben derzeitdie Rohstoff-, Material- und Lebensmittelpreise hoch. Auch die Inflationser-wartungen steigen; es drohen Zweitrundeneffekte imGefolge höhererLohnforderungen und Lohnabschlüsse. Langfristig könnten in der Eurozoneweitere Faktoren die Inflation treiben, z.B. angebotsseitig der Fachkräfte-mangel sowie globale Nahrungsmittelknappheiten und politikseitig diegewollten Effekte der Klimapolitik. Der Beitrag diskutiert vor diesemHinter-grund geldpolitische Implikationen.
Ein größerer Anteil der in den letzten Jahren vorgenommenen Unternehmensakquisitionen wurde maßgeblich mit attraktiven Synergieerwartungen begründet. Bei näherer Betrachtung können diese Synergien oft nur wenig präzise quantifiziert und der Zeitpunkt ihrer Realisierung nur ungenau eingeordnet werden. Der vorliegende Beitrag zeigt die Bedeutung von Synergien in Verbindung mit dem Goodwill, grenzt die Kosten- und Umsatzsynergien inhaltlich ab und befasst sich auf der Basis zahlreicher Studien mit dem aktuellen Erkenntnisstand in Verbindung mit der Vorbereitung und Realisierung von Kosten- und Umsatzsynergien.
Robot arms are one of many assistive technologies used by people with motor impairments. Assistive robot arms can allow people to perform activities of daily living (ADL) involving grasping and manipulating objects in their environment without the assistance of caregivers. Suitable input devices (e.g., joysticks) mostly have two Degrees of Freedom (DoF), while most assistive robot arms have six or more. This results in time-consuming and cognitively demanding mode switches to change the mapping of DoFs to control the robot. One option to decrease the difficulty of controlling a high-DoF assistive robot arm using a low-DoF input device is to assign different combinations of movement-DoFs to the device’s input DoFs depending on the current situation (adaptive control). To explore this method of control, we designed two adaptive control methods for a realistic virtual 3D environment. We evaluated our methods against a commonly used non-adaptive control method that requires the user to switch controls manually. This was conducted in a simulated remote study that used Virtual Reality and involved 39 non-disabled participants. Our results show that the number of mode switches necessary to complete a simple pick-and-place task decreases significantl when using an adaptive control type. In contrast, the task completion time and workload stay the same. A thematic analysis of qualitative feedback of our participants suggests that a longer period of training could further improve the performance of adaptive control methods.
Nowadays, robots are found in a growing number of areas where they collaborate closely with humans. Enabled by lightweight materials and safety sensors, these cobots are gaining increasing popularity in domestic care, where they support people with physical impairments in their everyday lives. However, when cobots perform actions autonomously, it remains challenging for human collaborators to understand and predict their behavior, which is crucial for achieving trust and user acceptance. One significant aspect of predicting cobot behavior is understanding their perception and comprehending how they “see” the world. To tackle this challenge, we compared three different visualization techniques for Spatial Augmented Reality. All of these communicate cobot perception by visually indicating which objects in the cobot’s surrounding have been identified by their sensors. We compared the well-established visualizations Wedge and Halo against our proposed visualization Line in a remote user experiment with participants suffering from physical impairments. In a second remote experiment, we validated these findings with a broader non-specific user base. Our findings show that Line, a lower complexity visualization, results in significantly faster reaction times compared to Halo, and lower task load compared to both Wedge and Halo. Overall, users prefer Line as a more straightforward visualization. In Spatial Augmented Reality, with its known disadvantage of limited projection area size, established off-screen visualizations are not effective in communicating cobot perception and Line presents an easy-to-understand alternative.
The concept of molecular scaffolds as defining core structures of organic molecules is utilised in many areas of chemistry and cheminformatics, e.g. drug design, chemical classification, or the analysis of high-throughput screening data. Here, we present Scaffold Generator, a comprehensive open library for the generation, handling, and display of molecular scaffolds, scaffold trees and networks. The new library is based on the Chemistry Development Kit (CDK) and highly customisable through multiple settings, e.g. five different structural framework definitions are available. For display of scaffold hierarchies, the open GraphStream Java library is utilised. Performance snapshots with natural products (NP) from the COCONUT (COlleCtion of Open Natural prodUcTs) database and drug molecules from DrugBank are reported. The generation of a scaffold network from more than 450,000 NP can be achieved within a single day.
Im zweiten Corona-Winter sollen die Schulen offenbleiben. Neben Fenster- und mechanischer Lüftung werden mobile Raumluftreiniger als sinnvolle Maßnahmen angesehen, um das Infektionsrisiko zu reduzieren. Dabei stellt sich die Frage, wie deren sicherer und zuverlässiger Betrieb gestalten sein muss. Gibt es bevorzugte Aufstellpositionen im Raum und wie wirkt sich die Luftbewegung auf die Behaglichkeit aus? Die Datenlage hierzu ist noch unzureichend (vgl. HLH-Interview mit Dr. Gommel, HLH 10/2021). Diese Fragen werden für einen typischen Seminar- und Klassenraum näher beleuchtet.
Zentrale Raumlufttechnische Anlagen (RLT-Anlagen) sind für Betriebszeiten von fünfzehn und mehr Jahren konzipiert. Nicht selten werden die Geräte auch nach 25 Jahren Dank Retrofit weiterbetrieben. Unberücksichtigt bleibt dabei, ob die zukünftigen, klimatischen Bedingungen noch der Auslegung entsprechen. Zur Überprüfung der klimatischen Änderungen können sogenannte Testreferenzjahre (TRY – Test Reference Year) genutzt werden. Diese basieren für die heutige Auslegung auf den lokalen, stündlichen Wetterbedingungen im Bezugsjahr 2012 und zusätzlich auf modellbasierten Wetterdaten für das Bezugsjahr 2045.
Das Zentralluftgerät einer Krankenhaus-Intensivstation wurde für die 15 Wetter¬stationen der VDI 4710, Blatt 3 in Deutschland auf die Leistungsanforderungen von heute und für das Jahr 2045 untersucht. Zusätzlich wurden für den Standort Berlin die aktuellen Wetteraufzeichnungen im Sommer 2020 betrachtet. Daraus lassen sich Rückschlüsse ziehen, wie sich städtische Wärmeinseln (UHI – Urban Heat Islands) zukünftig auf den Energie- und Leistungsbedarf zur Gebäudeklimatisierung auswirken werden.
Die Auswirkungen auf die Wärme- und Kältespitzenleistung sowie der kumulierte Energiebedarf werden genauso analysiert wie der Befeuchtungsbedarf. Hieraus lassen sich die potenziellen Leistungsreserven abschätzen und die Klimaresilienz der Anlagentechnik bewerten.
We study the dynamics of a quantum two-state system driven through an avoided crossing under the influence of a super-Ohmic environment. We determine the Landau–Zener probability employing the numerical exact quasi-adiabatic path integral and a Markovian weak coupling approach. Increasing the driving time in the numerical protocol, we find converged results which shows that super-Ohmic environments only influence the Landau Zener probability within a finite crossing time window. This crossing time is qualitatively determined by the environmental cut-off energy. At weak coupling, we show that the Markovian weak coupling approach provides an accurate description. Since pure dephasing of a super-Ohmic bath is non-Markovian, this highlights that pure dephasing hardly influences the Landau–Zener probability. The finite crossing time window, thus, results from the suppression of relaxation once the energy splitting exceeds the environmental cut-off energy.
A quantum two-level system immersed in a sub-Ohmic bath experiences enhanced low-frequency quantum statistical fluctuations which render the nonequilibrium quantum dynamics highly non-Markovian. Upon using the numerically exact time-evolving matrix product operator approach, we investigate the phase diagram of the polarization dynamics. In addition to the known phases of damped coherent oscillatory dynamics and overdamped decay, we identify a new third region in the phase diagram for strong coupling showing an aperiodic behavior. We determine the corresponding phase boundaries. The dynamics of the quantum two-state system herein is not coherent by itself but slaved to the oscillatory bath dynamics.
We propose a quantum-mechanical model to calculate the nonlinear differential conductance of a single molecular junction immersed in a solvent, either in pure form or as a binary mixture with varying volume fraction. The solvent mixture is captured by a dielectric continuum model for which the resulting spectral density is determined within the Gladstone-Dale approach. The conductance of the molecular junction is calculated by a real-time diagrammatic technique. We find a strong variation of the conductance maximum for varying volume fraction of the solvent mixture. Importantly, the calculated molecular nonlinear conductance shows a very good agreement with experimentally measured data for common molecular junctions in various polar solvent mixtures.
To address the question which neocortical layers and cell types are important for the perception of a sensory stimulus, we performed multielectrode recordings in the barrel cortex of head-fixed mice performing a single-whisker go/no-go detection task with vibrotactile stimuli of differing intensities. We found that behavioral detection probability decreased gradually over the course of each session, which was well explained by a signal detection theory-based model that posits stable psychometric sensitivity and a variable decision criterion updated after each reinforcement, reflecting decreasing motivation. Analysis of multiunit activity demonstrated highest neurometric sensitivity in layer 4, which was achieved within only 30 ms after stimulus onset. At the level of single neurons, we observed substantial heterogeneity of neurometric sensitivity within and across layers, ranging from nonresponsiveness to approaching or even exceeding psychometric sensitivity. In all cortical layers, putative inhibitory interneurons on average proffered higher neurometric sensitivity than putative excitatory neurons. In infragranular layers, neurons increasing firing rate in response to stimulation featured higher sensitivities than neurons decreasing firing rate. Offline machine-learning-based analysis of videos of behavioral sessions showed that mice performed better when not moving, which at the neuronal level, was reflected by increased stimulus-evoked firing rates.
Daten sind heute die Schlüsselkomponente in der Wertschöpfung. Ihre sichere und vertrauenswürdige Verarbeitung sind daher essenziell - auch in Cloud-Infrastrukturen, die per se erst mal nicht vertrauenswürdig sind. Während die Daten und der Code der sie verarbeitenden Anwendung hier in gespeicherter Form und bei der Übertragung in der Regel verschlüsselt sind, liegt beides während der Verarbeitung von Anwendungen in einer Cloud-Infrastruktur im Klartext vor und ist somit angreifbar. Auf der Basis von Sicherheitsfunktionen der CPU sorg Confidential Computing dafür, dass Anwendungen mit Code und Daten auf Cloud-Infrastrukturen in isolierter und verschlüsselter Form in sicheren Enklaven verarbeitet werden. Die Inhalte der Anwendung in einer Enklave werden so vor unbefugten Zugriff durch Systemadministratoren und weiteren Personen, die prinzipiell Zugriff auf die Cloud-Infrastruktur haben, geschützt. Technik unterstützt auf diese Weise die sichere und vertrauenswürdige Umsetzung des Datenschutzes.
Das Internet hat sich als globale Kommunikations-, Informations-, Commerce- und Businessinfrastruktur fest in der Gesellschaft etabliert. Mit jedem Grad Zuwachs bei der Digitalisierung wird das Leben einfacher und schneller - aber auch gefährlicher. Die konkrete Gefährlichkeit bleibt dabei bislang oft ein Mysterium - Strategien für die IT-Sicherheit müssen auf Basis von Annahmen und Erfahrungen entwickelt werden. Internet-Kennzahlen und deren systematische Auswertung sollen nun dabei helfen, Probleme, Risiken und Schwachstellen als Trend zu erkennen, um Sicherheitsstrategien proaktiv fokussierter zu gestalten. Auch der Stand der IT-Sicherheit lässt sich durch Messung der Kennzahlen ermitteln und bewerten. Internet-Kennzahlen werden von lokalen und globalen Anbietern bereitgestellt.
Supply-Chain-Angriffe sind eine akute Bedrohung für jedes Unternehmen. Einen Softwarelieferanten auszunutzen, um eine große Anzahl seiner Kunden zu erreichen, ist eine ausgeklügelte und erfolgreiche Methode aktueller Hacker. Die Spezialisierung der Unternehmen auf ihre Kernkompetenzen, die Globalisierung der Lieferketten (im folgendem wird Supply Chain und Lieferkette synonym verwendet), sowie die Digitalisierung entlang der Wertschöpfungskette sind nur einige Beispiele, wieso Angreifer vermehrt die Vertrauensbeziehung zwischen Kunden und Lieferanten verstärkt für Angriffe ausnutzen. Dieser Artikel erläutert Cyber-Angriffe in Bezug auf eine Supply Chain und zeigt Sicherheitsmechanismen für die erfolgreiche Verteidigung.