Refine
Year of publication
Document Type
- Article (1112)
- Conference Proceeding (351)
- Part of a Book (322)
- Contribution to a Periodical (237)
- Book (219)
- Report (75)
- video (60)
- Other (47)
- Lecture (46)
- Review (27)
Keywords
- Robotik (30)
- Flugkörper (21)
- UAV (21)
- Journalismus (15)
- Bionik (11)
- Rettungsrobotik (8)
- 3D Modell (7)
- Akkreditierung (7)
- E-Learning (7)
- Juristenausbildung (7)
Institute
- Wirtschaftsrecht (835)
- Institut für Internetsicherheit (262)
- Wirtschaft und Informationstechnik Bocholt (254)
- Informatik und Kommunikation (220)
- Institut für Innovationsforschung und -management (194)
- Westfälisches Institut für Gesundheit (141)
- Westfälisches Energieinstitut (106)
- Wirtschaft Gelsenkirchen (65)
- Maschinenbau Bocholt (60)
- Elektrotechnik und angewandte Naturwissenschaften (59)
Advanced Persistent Threats (APTs) are one of the main challenges in modern computer security. They are planned and performed by well-funded, highly-trained and often state-based actors. The first step of such an attack is the reconnaissance of the target. In this phase, the adversary tries to gather as much intelligence on the victim as possible to prepare further actions. An essential part of this initial data collection phase is the identification of possible gateways to intrude the target.
In this paper, we aim to analyze the data that threat actors can use to plan their attacks. To do so, we analyze in a first step 93 APT reports and find that most (80 %) of them begin by sending phishing emails to their victims. Based on this analysis, we measure the extent of data openly available of 30 entities to understand if and how much data they leak that can potentially be used by an adversary to craft sophisticated spear phishing emails. We then use this data to quantify how many employees are potential targets for such attacks. We show that 83 % of the analyzed entities leak several attributes of uses, which can all be used to craft sophisticated phishing emails.
The set of transactions that occurs on the public ledger of an Ethereum network in a specific time frame can be represented as a directed graph, with vertices representing addresses and an edge indicating the interaction between two addresses.
While there exists preliminary research on analyzing an Ethereum network by the means of graph analysis, most existing work is focused on either the public Ethereum Mainnet or on analyzing the different semantic transaction layers using static graph analysis in order to carve out the different network properties (such as interconnectivity, degrees of centrality, etc.) needed to characterize a blockchain network. By analyzing the consortium-run bloxberg Proof-of-Authority (PoA) Ethereum network, we show that we can identify suspicious and potentially malicious behaviour of network participants by employing statistical graph analysis. We thereby show that it is possible to identify the potentially malicious
exploitation of an unmetered and weakly secured blockchain network resource. In addition, we show that Temporal Network Analysis is a promising technique to identify the occurrence of anomalies in a PoA Ethereum network.
This paper analyses the status quo of large-scale decision making combined with the possibility of blockchain as an underlying decentralized architecture to govern common pool resources in a collective manner and evaluates them according to their requirements and features (technical and non-technical). Due to an increasing trend in the distribution of knowledge and an increasing amount of information, the combination of these decentralized technologies and approaches, can not only be beneficial for consortial governance using blockchain but can also help communities to govern common goods and resources. Blockchain and its trust-enhancing properties can potenitally be a catalysator for more collaborative behavior among participants and may lead to new insights about collective action and CPRs.
Die Digitalisierung ist die Basis für das Wohlergehen unserer modernen und globalen Informations- und Wissensgesellschaft und schreitet immer schneller voran. Dabei eröffnet die Digitalisierung über alle Branchen und Unternehmensgrößen hinweg enorme Wachstumschancen und führt zu immer besseren Prozessen, die die Effizienz steigern und Kosten reduzieren. Der Digitalisierungsprozess beschleunigt auf allen Ebenen und der Wertschöpfungsanteil der IT in allen Produkten und Lösungen wird immer größer. Die möglichen Erfolgsfaktoren der Digitalisierung sind vielfältig: Die Kommunikationsgeschwindigkeiten und -qualitäten, die mit 5G- und Glasfasernetzen neue Anwendungen möglich machen. Die Smartness der Endgeräte, wie Smartwatches, Smartphones, PADs, IoT-Geräte usw., die viele neue positive Möglichkeiten mit sich bringt. Aber auch immer leistungsfähigere zentrale IT-Systeme, wie Cloud-Angebote, Hyperscaler, KI-Anwendungen usw., schaffen Innovationen mit großen Potenzialen.
Moderne Benutzerschnittstellen, wie Sprache und Gestik, vereinfachen die Bedienung für die Nutzer. Die Optimierung von Prozessen schafft ein enormes Rationalisierungspotenzial, das es zu heben gilt, um wettbewerbsfähig zu bleiben und die Wachstumschancen für unser Wohlergehen zu nutzen. Neue Möglichkeiten mit Videokonferenzen, Cloud-Anwendungen usw., im Homeoffice zu arbeiten und damit die Personenmobilität zu reduzieren und die Umwelt zu schonen.
Software updates take an essential role in keeping IT environments secure. If service providers delay or do not install updates, it can cause unwanted security implications for their environments. This paper conducts a large-scale measurement study of the update behavior of websites and their utilized software stacks. Across 18 months, we analyze over 5.6M websites and 246 distinct client- and server-side software distributions. We found that almost all analyzed sites use outdated software. To understand the possible security implications of outdated software, we analyze the potential vulnerabilities that affect the utilized software. We show that software components are getting older and more vulnerable because they are not updated. We find that 95 % of the analyzed websites use at least one product for which a vulnerability existed.
A Crypto-Token Based Charging Incentivization
Scheme for Sustainable Light Electric Vehicle
Sharing
(2021)
The ecological impact of shared light electric vehicles (LEV) such as kick scooters is still widely discussed. Especially the fact that the vehicles and batteries are collected using diesel vans in order to charge empty batteries with electricity of unclear origin is perceived as unsustainable. A better option could be to let the users charge the vehicles themselves whenever it is necessary. For this, a decentralized,flexible and easy to install network of off-grid solar charging stations could bring renewable electricity where it is needed without sacrificing the convenience of a free float sharing system. Since the charging stations are powered by solar energy the most efficient way to utilize them would be to charge the vehicles when the sun is shining. In order to make users charge the vehicle it is necessary to provide some form of benefit for
them doing so. This could be either a discount or free rides. A
particularly robust and well-established mechanism is controlling incentives via means of blockchain-based cryptotokens. This paper demonstrates a crypto-token based scheme for incentivizing users to charge sharing vehicles during times of considerable solar irradiation in order to contribute to more sustainable mobility services.
Self-Sovereign Identity (SSI) sorgt für eine sichere und vertrauenswürdige Digitalisierung. Nutzer können selbstbestimmt ihre digitale Identität und Nachweise wie Ausweis oder Bescheinigungen an Anwendungen weitergeben. Das europäische SSI-Ökosystem löst Abhängigkeiten von Monopolisten und gibt uns die Freiheit, die digitale Zukunft souverän und zügig zu gestalten.
Third-party tracking is a common and broadly used technique on the Web. Different defense mechanisms have emerged to counter these practices (e.g. browser vendors that ban all third-party cookies). However, these countermeasures only target third-party trackers and ignore the first party because the narrative is that such monitoring is mostly used to improve the utilized service (e.g. analytical services). In this paper, we present a large-scale measurement study that analyzes tracking performed by the first party but utilized by a third party to circumvent standard tracking preventing techniques. We visit the top 15,000 websites to analyze first-party cookies used to track users and a technique called “DNS CNAME cloaking”, which can be used by a third party to place first-party cookies. Using this data, we show that 76% of sites effectively utilize such tracking techniques. In a long-running analysis, we show that the usage of such cookies increased by more than 50% over 2021.
Web measurement studies can shed light on not yet fully understood phenomena and thus are essential for analyzing how the modern Web works. This often requires building new and adjustinng existing crawling setups, which has led to a wide variety of analysis tools for different (but related) aspects. If these efforts are not sufficiently documented, the reproducibility and replicability of the measurements may suffer—two properties that are crucial to sustainable research. In this paper, we survey 117 recent research papers to derive best practices for Web-based measurement studies and specify criteria that need to be met in practice. When applying these criteria to the surveyed papers, we find that the experimental setup and other aspects essential to reproducing and replicating results are often missing. We underline the criticality of this finding by performing a large-scale Web measurement study on 4.5 million pages with 24 different measurement setups to demonstrate the influence of the individual criteria. Our experiments show that slight differences in the experimental setup directly affect the overall results and must be documented accurately and carefully.
Momentan ist der Tenor der meisten Artikel zum Thema Künstliche Intelligenz (KI) relativ konformistisch – unverzüglich wird der Leser dahingehend sensibilisiert, dass sich hierdurch enorme Chancen auftun, die nicht ungenutzt bleiben dürfen, um international nicht abgehängt zu werden. Eher nebenbei erwähnt wird, dass trotz aller Euphorie auch die Risiken in Betracht zu ziehen seien. Da aus diesen jedoch Implikationen für die gesamte Gesellschaft resultieren können, ist es nicht nur ratsam, sondern erforderlich den Einsatz von KI in allen Bereichen – sogar im Kontext der IT-Sicherheit – unter ethischen Aspekten zu bewerten.
Als Identifikations- und Authentisierungsverfahren gewinnen biometrische Systeme immer mehr an Bedeutung. Waren sie bisher eher nur aus Filmen bekannt, wo sie für einen kleinen Mitarbeiterkreis als Zugangskontrolle zu wichtigen Räumen oder Tresoren mit kostbaren Inhalten dienten, finden biometrische Systeme immer mehr Einzug in unseren Alltag. Im elektronischem Pass ist die Speicherung biometrischer Daten bereits Pflicht. Im öffentlichen und kommerziellen Bereich werden biometrische Systeme immer mehr als zusätzliche Option angeboten, um den Zugriff auf Daten, Dienste und den Zutritt zu Räumen zu kontrollieren. Mit der Entsperrung des Smartphones sind biometrische Systeme auch im privaten Bereich angekommen. Erschwingliche Sensoren machen es sogar möglich, privat biometrische Systeme zu entwickeln.
In dieser Arbeit wird eine ganzheitliche Bedrohung für Business-Chat-Anwendungen aufgezeigt und bewertet: Chishing – Phishing über Business-Chats. Die Bedrohung hat ihren Ursprung in den Anfängen der heutigen vernetzten Welt und das zugrunde liegende Problem wird als Spoofing in seiner einfachsten Form bezeichnet. In vier von sechs Business-Chat-Tools, die in dieser Arbeit analysiert werden, ist es möglich, Anzeigenamen, Profilbilder und weitere persönliche Informationen erfolgreich zu fälschen. Dies stellt eine Bedrohung für Unternehmen dar, da es Insider-Bedrohungen Vorschub leistet und unter Umständen auch externen Entitäten dazu einlädt, sich als interne Mitarbeiterin auszugeben.
Aufgrund der zunehmenden IT-Technisierung und damit einhergehend stetigen Veränderung der Lebensbedingungen ist es notwendig, dass Menschen den IT-Lösungen und Unternehmen weiterhin und kontinuierlich vertrauen können. Denn durch den höheren Grad der IT-Technisierung steigt die Komplexität, wodurch es für den Nutzer zunehmend schwieriger wird, einzelne IT-Lösungen und deren Hintergründe zu verstehen sowie zu bewerten. Diese Veränderung hat Auswirkungen: Zum einen macht sie grundsätzlich den Nutzern – den Menschen – Angst, da gewohnte Vorgänge beständig ihre Gültigkeit verlieren. Zum anderen entsteht dadurch sowie durch die Komplexität latent das Gefühl, eine falsche Entscheidung zu treffen, weil nicht alles bedacht werden kann. So fällt dem Aspekt der Interdependenz von Vertrauen und Vertrauenswürdigkeit für deutsche und europäische Unternehmen eine hohe Bedeutung zu, insbesondere auch da sich internationale Tech-Unternehmen zunehmend weniger vertrauenswürdig im komplexen Cyber-Raum verhalten. Dies eröffnet die Möglichkeit, sich über den Aufbau von Vertrauen weltweit gegen internationale Unternehmen nachhaltig zu profilieren und positionieren. Um dieses Ziel zu realisieren, bedarf es einer strategischen Vorgehensweise – zum Beispiel auf Basis des Vertrauenswürdigkeitsmodells.
Measurement studies are essential for research and industry alike to understand the Web’s inner workings better and help quantify specific phenomena. Performing such studies is demanding due to the dynamic nature and size of the Web. An experiment’s careful design and setup are complex, and many factors might affect the results. However, while several works have independently observed differences in
the outcome of an experiment (e.g., the number of observed trackers) based on the measurement setup, it is unclear what causes such deviations. This work investigates the reasons for these differences by visiting 1.7M webpages with five different measurement setups. Based on this, we build ‘dependency trees’ for each page and cross-compare the nodes in the trees. The results show that the measured trees differ considerably, that the cause of differences can be attributed to specific nodes, and that even identical measurement setups can produce different results.
Der Plan ist klar nachvollziehbar und notwendig: Unrechtmäßig genutzte, urheberrechtlich geschützte oder gar illegale Inhalte dürfen im Internet keine Plattform zur Verbreitung finden. Bisher geschieht das durch Analyse bereits hochgeladener Inhalte. Die Europäische Union möchte aber am liebsten verhindern, dass entsprechendes Material überhaupt ins Netz gelangt. Das ruft sogenannte Upload-Filter auf den Plan, die bereits beim Versuch des Hochladens eine Blockade setzen. So weit, so gut, jedoch lassen sich durch solche Filter zu leicht auch „unliebsame“ Inhalte blockieren – Kritikern solcher Pläne scheint ein Machtmissbrauch durch Kontrolle der zur Veröffentlichung freigegebenen Inhalte vorprogrammiert. Vor diesem Hintergrund beleuchtet folgender Beitrag den Sinn, die technische Umsetzung und Machbarkeit sowie die Risiken von Upload-Filtern.
Das Internet als weltweites Netzwerk von Servern dient schon lange nicht mehr rein der Beschaffung von Informationen oder der persönlichen Kommunikation. Es werden vermehrt mediale Inhalte (Bilder, Audio- und Videodateien) in sozialen Netzwerken gepostet. Ein Großteil dieser Inhalte dient der Selbstdarstellung des Nutzers in Chroniken, Timelines, Stories etc. Allein auf Facebook werden pro Tag etwa 350 Millionen Bilder und 100 Millionen Stunden Videomaterial von Nutzern hochgeladen. Bei YouTube sind es sogar 400 Stunden Videomaterial pro Minute.
In dieser Masse von Daten sind auch unrechtmäßig genutzte, urheberrechtlich geschützte oder illegale Inhalte vorhanden. Diese unerwünschten Inhalte können mit voller Absicht oder aus Versehen und ohne kriminellen Hintergedanken hochgeladen werden. Doch egal aus welchem Grund, solche Inhalte müssen so früh wie möglich entdeckt und gelöscht werden oder sollten gar nicht erst hochgeladen werden können. Aktuelle Lösungen basieren auf einer nachträglichen Erkennung bereits hochgeladener Inhalte durch Erkennungswerkzeuge oder den Menschen.
Dieses Vorgehen ist bereits etabliert und allseits anerkannt. Eine Erweiterung durch gesetzliche Vorgaben, die das Melden, Deaktivieren und Prüfen vereinfacht und beschleunigt, wäre hier ein logischer nächster Schritt. Doch eine Prüfung und Bewertung aller Inhalte von Uploads während des Upload-Prozesses in Echtzeit wird zurzeit favorisiert und stellt eine neue, besondere Herausforderung dar.
Daher könnten in Zukunft Upload-Filter weltweit zum Einsatz kommen. Bild 1 zeigt schematisch den Unterschied zwischen einem Upload ohne Upload-Filter – links unten – und einem Upload mit Upload-Filter – links oben. Hierbei ist die Verbindung des Upload-Filters mit dem Internet nicht obligatorisch.
Ein Upload-Filter wird als eigenständige, unumgängliche Instanz in den Upload-Prozesses integriert. Seine Aufgabe besteht in der Klassifizierung der Inhalte von Uploads.
Kriterien hierfür sind vor allem das Bestehen eines Urheberschutzes für den Upload von Musik, Bildern oder Filmen, und ein eventueller Konflikt mit dem Strafrecht – zum Beispiel Kinderpornografie oder Rassismus.
Vorangetrieben wurde das Thema von der EU – genauer durch die Richtlinie (EU) 2019/790. Der hierin enthaltene Artikel 17 sieht vor, die Plattformen zu verpflichten, Lizenzverträge mit den Inhabern von Urheberrechten zu schließen. Kommen diese nicht zustande, muss die Plattform dafür sorgen, dass entsprechende Inhalte nicht hochgeladen und veröffentlicht werden können. Dieser Artikel war und ist immer noch hoch umstritten. Die EU will damit die unerlaubte Nutzung urheberrechtlich geschützter Werke auf Webseiten verhindern.
Kritiker sehen darin das freie Internet durch eine Zensurmöglichkeit in Gefahr, sollte eine diktatorische Regierung Einfluss aufdie Upload-Filter haben.
Digitalisierung gilt als die Basis für das Wohlergehen der modernen und globalen Informations- und Wissensgesellschaft. Während sie immer mehr Fahrt aufnimmt, zeigt sie gleichzeitig immer deutlicher auch ihre Kehrseite: Altbewährte Verteidigungssysteme gegen Cyberangriffe versagen zunehmend. Die Ursachen werden inzwischen sehr klar: Der klassische Perimeter löst sich dank Cloud und Mobility auf, die Angriffsflächen werden dank unzähliger neu im Netz hinzugekommener Dinge exponentiell größer, und Abwehrmaßnahmen auf herkömmliche Weise dank einer zerklüfteten, kaum integrierten Security-Landschaft immer komplexer. Zeit, die Erfolgsfaktoren der Digitalisierung zu erkennen und für das eigene Unternehmen umzusetzen. Dabei helfen vier grundsätzliche Cybersicherheitsstrategien.
Ein professionelles Digital-Risk-Management-System scannt das Clearnet, Deep Net und Darknet nach auffälligen, potenziell sensiblen Dokumenten und Informationen, um Hinweise für technische oder menschliche Sicherheitsrisiken identifizieren zu können. Die Prävention von Cyberangriffen ist nach wie vor eine entscheidend wichtige Säule, um die Digitalisierung zu meistern, Geschäftswerte langfristig zu schützen und die Anzahl an kritischen Sicherheitslücken im Unternehmen gering zu halten. Im Rahmen eines Master-Projekts hat sich das Institut für Internet-Sicherheit – if(is) mit dem Thema DRM auseinander gesetzt und insbesondere das Tool RISKREX exemplarisch analysiert.
Proof of Existence as a blockchain service has first been published in 2013 as a public notary service on the Bitcoin network and can be used to verify the existence of a particular file in a specific point of time without sharing the file or its content itself. This service is also available on the Ethereum based bloxberg network, a decentralized research infrastructure that is governed, operated and developed by an international consortium of research facilities. Since it is desirable to integrate the creation of this proof tightly into the research workflow, namely the acquisition and processing of research data, we show a simple to integrate MATLAB extension based solution with the concept being applicable to other programming languages and environments as well.
Die Notwendigkeit von Nachweisen findet sich in sehr vielen Bereichen unseres Lebens. Zertifikate, Zeugnisse, Abnahmen, Rechnungen, Quittungen, Urkunden und Bescheinigungen über Fortbildungen sind nur einige Beispiele dafür. Durch die Digitalisierung, die mittlerweile so gut wie überall Einzug gehalten hat, und durch die Corona-Krise einen besonderen Schub erfahren hat, wird die Umsetzung solcher Nachweise heutzutage immer öfters digital statt auf Papier verwirklicht. Digitale Nachweise bieten viel Raum für die Optimierung von Prozessen und liefern gleichzeitig einige Schwachstellen, die zum Betrügen genutzt werden können.
Hier gilt es in der aktuellen Forschung und Entwicklung Lösungen zu finden, die die Sicherheit erhöhen, um somit die Vertrauenswürdigkeit der digitalen Nachweise zu steigern. Ob wir je komplett auf Papier verzichten werden können ist fraglich, jedoch kein unmögliches Ziel. Wer dieses Ziel verfolgt, muss nach und nach die Schwachstellen und Probleme der digitalen Nachweise ausmerzen.
Mit den Reisebeschränkungen in der Corona-Krise ist der Bedarf an einfach zu handhabenden Videokonferenzsystemen sprunghaft gestiegen. Krisengewinner war dabei ohne Zweifel der amerikanische Hersteller Zoom Video Communications.
Mit seinem „Zoom Meeting“-Dienst preschte das junge Unternehmen an bisherigen Branchenlieblingen vorbei. Derzeit gilt Zoom als populärstes Konferenzsystem auf dem Markt. Mitten im Aufstieg ist Zoom jedoch auch heftig in Kritik geraten: Schlechte Umsetzung des Datenschutzes, hohe Angreifbarkeit durch klaffende Schwachstellen und unzureichende Verschlüsselung lauteten die Vorwürfe. Der Hersteller zeigte sich bei der Behebung der Schwachstellen kooperativ. Doch ist jetzt alles sicher und vertrauenswürdig?
Dank der neuen Datenschutzgrundverordnung zum Schutz der Privatsphäre konnte der Sammelwahn einiger Dienstleister bereits abgemildert werden. Dennoch zeichnet sich eine immer stärkere Zentralisierung und Monopolisierung von Datenhaltern und Dienstleistern ab, vor allem in Form großer USA- oder Asien-basierter Technologieunternehmen. Im Umgang mit den eigenen Daten schreiten nur wenige Menschen bewusst zur Tat, sehen meist nur den angepriesenen Vorteil und nicht die möglichen negativen Konsequenzen für ihre Privatsphäre. Eine Self-Sovereign Identity (SSI) könnte Basis für einen fairen Datenaustausch innerhalb der Smart Economy sein und die Integration auch kleinerer Unternehmen in eine offene Infrastruktur unterstützen.
Unternehmen setzen zunehmend auf KI oder planen, dies künftig zu tun. Doch die große Euphorie bleibt in der Industrie aus guten Gründen noch aus. Zum einen fehlt die kritische Masse an Einsatzszenarien, weswegen Unsicherheit besteht, welche Handlungsfelder nachhaltige Erfolge versprechen. Zum anderen ist die Frage der Zuverlässigkeit zu klären, also wie valide KI-generierte Ergebnisse wirklich sind. Im Folgenden geht es um die Mechanismen, die gute Ergebnisse sicherstellen helfen.
2018 wurde das „DNS over HTTPS (DoH)“-Protokoll vorgestellt. Der Vorteil von DoH besteht darin, dass sich die Manipulation von DNS-Anfragen für missbräuchliche Zwecke verhindern lässt. Aus diesem Grund haben Apple, Google, Microsoft und weitere Internetfirmen DoH bereits eingebunden oder haben vor dies zu tun. Doch wie genau funktioniert die Verbesserung beim Schutz der Privatsphäre und bei der Sicherheit auf Protokollebene? Und gibt es auch Nachteile?
Die Art und Weise wie wir leben und wohnen hat sich in den vergangenen Jahren stark verändert, daraus haben sich einige neue Trends für den häuslichen Alltag ergeben. Dies ist unter anderem darauf zurückzuführen, dass das steigende Umweltbewusstsein viele Handlungsentscheidungen beeinflusst. Zudem bedingt die demografische Entwicklung, dass nach neuen Lösungsansätzen für ein eigenständiges Leben im Alter gesucht werden muss. Mittlerweile ist auch das Homeoffice so etabliert, dass daraus neue Gegebenheiten für das heutige und künftige Arbeiten von Zuhause resultieren, die technologische Veränderungen notwendig machen. Insgesamt wird ein Wandel hin zum smarten Zuhause als Chance gesehen, diesen aktuellen Herausforderungen zu begegnen. Aber was
bedeutet Smart Home tatsächlich im täglichen Leben und wie wird dieses in der Zukunft gestaltet werden? Für die Einschätzung hier gilt es, die Vorteile von Smart Home ebenso zu betrachten, wie mögliche Risiken und was berücksichtigt werden muss, um Schäden zu vermeiden. Denn nur so lässt sich eine Akzeptanz in der digitalen Zukunft zu erzielen.
Die digitale Evolution schreitet unaufhaltsam voran. Das führt auch zu der Konsequenz, dass die innovativen Technologien und somit die gesamte Internet-/IT-Infrastruktur nicht nur zunehmend vielschichtig, sondern auch intransparent wird. Daraus resultiert ein gravierendes Dilemma: gegenläufig zu dem steigenden Einsatz sinkt das Wissen über deren Hintergründe und Zusammenhänge. Dies könnte im Weiteren zu folgender Handlungsalternative führen – entweder unverhältnismäßige Ablehnung der Technologie und entsprechender Dienste oder blindes Vertrauen. Beides verhindert eine sinnvolle Nutzung neuer Anwendungen oder innovativer Dienste – auch wenn Vertrauen, im Sinne des Soziologen Niklas Luhmann, grundsätzlich positiv konnotiert ist. Denn gemäß seiner Definition ist Vertrauen ein Mechanismus der Komplexitätsreduktion – also etwas, wodurch sich das Leben leichter gestalten lässt. Doch sollte hier die Interpretation im Sinne des Philosophen und Soziologen Georg Simmel weiter präzisiert werden. Dieser sieht „Vertrauen als einen Zustand zwischen Wissen und Nicht-Wissen, als eine Hypothese künftigen Verhaltens“, auf die Menschen ihr konkretes Handeln gründen. Das zeigt die Relevanz von Vertrauen beim Einsatz innovativer Technologien und unterstreicht gleichzeitig die Notwendigkeit, dass Unternehmen vertrauenswürdig agieren müssen, damit dieses auch gerechtfertigt ist.
Serviceangebote aus der Public Cloud schießen derzeit förmlich durch die Decke. Obwohl Coroana in einzelnen Bereichen Cloud-Projekte verzögert, gehören die Digitalisierung und damit auch Cloud Services zu den eindeutigen Gewinnersn in der Krise: Doch mit der Auslagerung von IT-Services im großen Maßstab in die Cloud, nehmen auch Cyberkriminelle dieses Umfeld mehr und mehr ins Visier. Cloud Service Provider sind zwar in der Regel sicherheitstechnisch immer auf dem neuesten Stand - aber auch sie sind angreifbar. Damit Cyberkriminelle in Cloud-Umgebungen keine Chance haben, den Blicken von Unternehemen und Strafverfolgungsbehörden zu entgehen, ist eine umfassende digitale Forensik erforderlich. In der Praxis bestehen dafür jedoch große Hürden. Deshalb müssen hier jetzt schnell neue, kreative Ansätze gefunden werden.
Im Sinne der Gesellschaft : Wissenschaft als Helfer für angewandte Ethik in der KI-unterstützten IT
(2021)
Im Kontext der Digitalisierung, und insbesondere vor dem Hintergrund der dadurch prädizierten Effizienzsteigerung, wird der Künstlichen Intelligenz (KI) eine hohe Bedeutung beigemessen. Ebenso in Bezug auf die IT-Sicherheit gehen Experten davon aus, dass KI entscheidend dazu beitragen wird, die strategische Abwehr von Cyber-Angriffen zu optimieren. Doch trotz aller Euphorie sollten hier neben den Chancen auch die daraus potenziell resultierenden Risiken in Betracht gezogen werden. Denn der Einsatz von KI ist mit Implikationen verbunden, die auf die gesamte Gesellschaft wirken, von daher ist es nicht nur ratsam, sondern sogar erforderlich Anwendungen – auch im Bereich IT-Sicherheit – unter ethischen Aspekten zu analysieren und bewerten.
Sicheres und vertauenswürdiges Arbeiten im Homeoffice : aktuelle Situation der Cybersicherheitslage
(2021)
Durch die fortschreitende Digitalisierung bekommt die IT einen immer größeren Stellenwert in allen Bereichen. Dadurch steigt die Abhängigkeit von der IT und damit auch das Schadenspotenzial durch Cyberangriffe. Besonders durch die Zunahme des Arbeitsform Homeoffice sowie de Ad-hoc-Verlagerung von Beschäftigten und Geschäftsprozessen in das Homeoffice entstehen durch bisher unzureichende infrastrukturelle Sicherheitsvorkehrungen höhere Risiken. Anbieter von Video-Konferenz- und anderen Kollaborationstools haben durch den enormen Digitalisierungsschub nicht genug Zeit gehabt, ihre Systeme angemessen zu schützen. Dazu kommt, dass die Nutzung von unsicheren oder nicht ausreichend datenschutzkonformen Lösungen, wie Messenger oder sozialen Netzwerken, weitere Risiken für Unternehmen darstellen können. Welche technischen, personellen und organisatorischen Maßnahmen sind also erforderlich, um in der angespannten Lage ein sicheres Homeoffice einzurichten?
Cyber-Sicherheit spielt für unsere digitale Zukunft, sowohl im Alltag, als auch im Berufsleben, eine zentrale Rolle. Aus diesem Grund wird es immer wichtiger, dass wir ausreichend Cyber-Sicherheitsexperten haben, um die Zukunft für unsere Gesellschaft sicher und vertrauenswürdig zu gestalten. Vor diesem Hintergrund wird im folgenden Beitrag die Wichtigkeit der Cyber-Sicherheit aus verschiedenen Blickwinkeln diskutiert und die Möglichkeit der Aus- und Weiterbildung dargestellt.
Social Media Scraper im Einsatz : wie Kriminelle hoch personalisierte Phishing-Attacken vorbereiten
(2021)
Social Engineering ist ein zunehmend beliebter Angriffsvektor, der von Kriminellen verwendet wird, um erfolgreich Menschen zu manipulieren. Das Ziel ist es vordergründig Personen anzugreifen und nicht die IT-Systeme, die sie nutzen. Dazu sammeln die Kriminellen so viele Informationen wie möglich über ihre menschlichen Vorlieben und Interessen. Social-Media-Portale sind dazu eine gute Informationsquelle. In diesem Projekt wird die Vorgehensweise einer entwickelten Software beschrieben, die automatisch einen Link einer Person von offiziellen und seriösen LinkedIn-Profilen zu den privaten Accounts auf Instagram findet. Durch diese Automatisierung und die Analyse der veröffentlichten Inhalte kann eine Risikoeinschätzung gegeben werden, wie viele berufliche und persönliche Informationen für einen erfolgreicheren Social-Engineering-Angriff genutzt werden könnten.
Derzeit dominieren im Cyber-Raum zentralisierte ID-Provider, wie Google, Facebook und Apple die Verwaltung von Identitätsdaten bei sehr vielen IT-Diensten weltweit. Diese Situation schafft eine große Abhängigkeit der Gesellschaft, der Unternehmen und Nutzer in Bezug auf die Entwicklung der Digitalisierung. Außerdem nutzen die monopolistischen ID-Provider die sensiblen personenbezogenen Daten ihrer Nutzer für eigene Werbezwecke oder verkaufen sie aus ökonomischen Interessen an weitere Unternehmen. Das schwächt die Privatsphäre der Nutzer und hat Folgen bezüglich der Akzeptanz unserer digitalen Zukunft. Self-Sovereign Identity (SSI) ist ein Konzept, das die Souveränität und den Schutz der Privatsphäre der Nutzer fokussiert – dabei aber gleichzeitig deutlich einfacher und nutzerfreundlicher umgesetzt werden kann, als das bei aktuellen Identity Lösungen der Fall ist. Folgender Beitrag erklärt die Architektur, die Akteure, die Sicherheitsmechanismen und die Prinzipien von SSI.
Digitale Werte benötigen ein weitaus höheres und vor allem spezifisches Schutzniveau. Da es für Anwender mittlerweile nicht mehr einfach ist, dieses effektiv nachzuprüfen, müssen sie darauf vertrauen, dass die Hersteller alles tun, um den Anforderungen gerecht zu werden. Andererseits sind die Hersteller darauf angewiesen, dass Anwender ihnen Vertrauen gewähren und ihre IT-/Sicherheits-Lösungen tatsächlich nutzen. Um eine hohe Vertrauenswürdigkeit zu erreichen können, müssen Unternehmen Vorgehensweisen wählen, die einigen bestimmten Kriterien erfüllen.
Im Prinzip wollen und müssen Menschen auch in der digitalen Welt vertrauen (können) – nicht zuletzt, um grundsätzlich handlungsfähig zu sein. Aber auch, weil teilweise gar keine andere Wahl besteht, als einfach zu vertrauen, da die IT-Technologien mittlerweile nicht nur so allgegenwärtig, sondern auch so komplex geworden sind, dass der Nutzer sie vielfach gar nicht mehr einschätzen kann. Daher ist es – insbesondere im Sinne der Digitalisierung – wichtig und auch notwendig, dass Nutzern verschiedene Alternativen zur Verfügung stehen, anhand derer sie individuell die Vertrauenswürdigkeit von Unternehmen sowie IT-Lösungen – also jeglicher Produkte, Anwendungen und Dienste – beurteilen können. Aufgrund der steigenden Zahl an Sicherheitsvorfällen in der digitalen Welt sollte speziell die Cyber-Sicherheit dabei im Fokus stehen.
Das Gesundheitswesen in Deutschland, Europa, aber auch weltweit steht gerade erst am Beginn eines notwendigen und besonderen Digitalisierungsschubs. Ein wichtiger Schritt im Rahmen dieser Digitalisierung wird es sein, sämtliche medizinische Daten leistungsträgerübergreifend einfach verfügbar zu machen. Dies ermöglicht neue Methoden der Behandlung wie durch KI-Ansätze oder die Vermeidung von Doppelbehandlungen. Zur Erreichung dieser Ziele ist es unabdingbar, dass moderne medizintechnische IT-Geräte miteinander vernetzt werden und die anfallenden Daten sicher verarbeitet und hinterlegt werden. Durch diesen Prozess entstehen aber auch neue Angriffsvektoren und die Risiken steigen erheblich an.
Diese Arbeit beschreibt zunächst grundlegende Cyber-Sicherheitsstrategien, die helfen die vorhandenen Risiken zu minimieren und mit den verbleibenden Risiken umzugehen. Zusätzlich werden konkrete Sicherheitsbedürfnisse- und Anforderungen, die zur Vernetzung von Medizintechnik und zur Verarbeitung von Daten in der Cloud, nötig sind diskutiert. Abschließend wird eine Gesamtarchitektur vorgestellt, die diese Sicherheitsbedürfnisse umsetzt.
Digitale Sprachassistenten wie Alexa, Google, Siri & Co erfreuen sich auch in Deutschland hoher Beliebtheit - Tendenz steigend. Bei allen genannten und vielen weiteren Systemen handelt es sich um cloudbasierte Architekturen - die gesprochenen Befehle werden in Rechenzentren rund um den Globus übertragen und dort interpretiert. Aus Sicht des Datenschutzes und der Privatsphäre ist das problematisch. Auch die Abhängigkeit zu Cloud-Anbietern kann zu Schwierigkeiten führen, z.B. wenn sich die Sprachassistenten oder Smart-Home-Geräte nicht mehr nutzen lassen, weil der Anbieter seinen Dienst einstellt. Im Rahmen eines internen Forschungsprojekts hat das Institut für Internet-Sicherheit nun einen "dezentralen" Sprachassistenten entwickelt, der im Offline-Betrieb operiert und die Sprachdaten lokal auf dem Gerät verarbeitet, ohne sie in eine entfernte Cloud übertragen zu müssen.
Supply-Chain-Angriffe sind eine akute Bedrohung für jedes Unternehmen. Einen Softwarelieferanten auszunutzen, um eine große Anzahl seiner Kunden zu erreichen, ist eine ausgeklügelte und erfolgreiche Methode aktueller Hacker. Die Spezialisierung der Unternehmen auf ihre Kernkompetenzen, die Globalisierung der Lieferketten (im folgendem wird Supply Chain und Lieferkette synonym verwendet), sowie die Digitalisierung entlang der Wertschöpfungskette sind nur einige Beispiele, wieso Angreifer vermehrt die Vertrauensbeziehung zwischen Kunden und Lieferanten verstärkt für Angriffe ausnutzen. Dieser Artikel erläutert Cyber-Angriffe in Bezug auf eine Supply Chain und zeigt Sicherheitsmechanismen für die erfolgreiche Verteidigung.
Daten sind heute die Schlüsselkomponente in der Wertschöpfung. Ihre sichere und vertrauenswürdige Verarbeitung sind daher essenziell - auch in Cloud-Infrastrukturen, die per se erst mal nicht vertrauenswürdig sind. Während die Daten und der Code der sie verarbeitenden Anwendung hier in gespeicherter Form und bei der Übertragung in der Regel verschlüsselt sind, liegt beides während der Verarbeitung von Anwendungen in einer Cloud-Infrastruktur im Klartext vor und ist somit angreifbar. Auf der Basis von Sicherheitsfunktionen der CPU sorg Confidential Computing dafür, dass Anwendungen mit Code und Daten auf Cloud-Infrastrukturen in isolierter und verschlüsselter Form in sicheren Enklaven verarbeitet werden. Die Inhalte der Anwendung in einer Enklave werden so vor unbefugten Zugriff durch Systemadministratoren und weiteren Personen, die prinzipiell Zugriff auf die Cloud-Infrastruktur haben, geschützt. Technik unterstützt auf diese Weise die sichere und vertrauenswürdige Umsetzung des Datenschutzes.
Das Internet hat sich als globale Kommunikations-, Informations-, Commerce- und Businessinfrastruktur fest in der Gesellschaft etabliert. Mit jedem Grad Zuwachs bei der Digitalisierung wird das Leben einfacher und schneller - aber auch gefährlicher. Die konkrete Gefährlichkeit bleibt dabei bislang oft ein Mysterium - Strategien für die IT-Sicherheit müssen auf Basis von Annahmen und Erfahrungen entwickelt werden. Internet-Kennzahlen und deren systematische Auswertung sollen nun dabei helfen, Probleme, Risiken und Schwachstellen als Trend zu erkennen, um Sicherheitsstrategien proaktiv fokussierter zu gestalten. Auch der Stand der IT-Sicherheit lässt sich durch Messung der Kennzahlen ermitteln und bewerten. Internet-Kennzahlen werden von lokalen und globalen Anbietern bereitgestellt.
Die ehemals vom Grundsatz her separierten Welten der Information Technology (IT) und Operational Technology (OT) wachsen im Zuge der Digitalisierung vermehrt zusammen. Doch was ist dabei aus Sicht der IT/IT-Sicherheit zu berücksichtigen und wem kann oder muss die letztendliche Verantwortung für eine durchgängige IT-Sicherheit des Unternehmens obliegen?
Eine nicht ganz leicht zu klärende Aufgabenstellung – insbesondere mit Blick auf den Aspekt, dass die Schutzziele der beiden Unternehmensbereiche nicht einheitlich sind.
Damit die medizinische Versorgung weiterhin flächendeckend gewährleistet werden kann und den explodierenden Kosten Einhalt geboten wird, muss ein Gesundheitswesen der Zukunft auf digitalen Technologien basieren. Die Kritikalität der entsprechenden Health-Services ruft Cyber-Sicherheit auf den Plan – die Sensibilität der im Gesundheitswesen verarbeiteten Daten den Datenschutz. Ein zukunftsfähiges Gesundheitswesen braucht einen stringenten Rechtsrahmen, eine moderne cloudbasierte Telematikinfrastruktur, die je nach Sicherheitsbedarf in verschiedenen Modellen umgesetzt werden kann, einen restriktiven Umgang mit globalen Public-Cloud-Providern, eine besonders gesicherte, leistungsstarke Forschungsdateninfrastruktur – etwa zur Optimierung von KI-Fähigkeiten, sichere Gesundheitsanwendungen und einiges mehr. Hier ein Ausblick.
Künstliche Intelligenz (KI) ermöglicht es, komplexe Zusammenhänge und Muster aus großen Datenmengen zu extrahieren und in einem statistischen Modell zu erfassen. Dieses KI-Modell kann anschließend Aussagen über zukünftig auftretende Daten treffen. Mit dem zunehmenden Einsatz von Künstlicher Intelligenz rücken solche Systeme auch immer mehr ins Visier von Cyberkriminellen. Der Artikel beschreibt umfassend Angriffsszenarien und mögliche Abwehrmaßnahmen.
Die Beschaffung von IT-Sicherheitslösungen ist für Unternehmen oft eine Herausforderung. So führt die Komplexität der Systeme dazu, dass die für eine Kaufentscheidung erforderlichen Kompetenzen und Informationen nicht immer vorhanden sind. Grundvoraussetzung für eine erfolgreiche Geschäftsbeziehung ist deswegen ein valides Vertrauensverhältnis zwischen Anwender- und Herstellerunternehmen. Das setzt jedoch voraus, dass die Herstellerunternehmen vertrauenswürdig auftreten und im Interesse ihrer Kunden handeln. Eine Studie der Westfälischen Hochschule Gelsenkirchen hat untersucht, welche Vertrauenskriterien Kunden bei Herstellern und deren Produkten wichtig sind. So ist zum Beispiel ein Hersteller bei den Kunden unten durch, wenn er zu viele Buzzwords nutzt.
Vor vier Jahren betrat die Datenschutz-Grundverordnung (DS-GVO) die Bühne und brachte für Unternehmen und Nutzer gleichermaßen Veränderungen mit sich. Doch gerade im dynamischen Umfeld des Online-Marketings tauchen ständig neue und oft knifflige Fragen auf – Fragen, die nun im Rahmen einer wissenschaftlichen Studie etwas genauer unter die Lupe genommen wurden.
Wie Datenräume helfen, neue Geschäftsmodelle zu entwickeln : sicher, vertrauenswürdig und dezentral
(2023)
In der heutigen Zeit werden sehr große Datenmengen generiert und verwaltet, dennoch wird der Wert der Daten in Deutschland und Europa noch nicht voll ausgeschöpft. Die gemeinsame Nutzung von Daten kann und soll datengetriebene Anwendungen noch weiter vorantreiben, bei der Erfüllung regulatorischer Anforderungen helfen sowie einen finanziellen Mehrwert für Firmen schaffen. Viele kleine bis mittelständische Unternehmen zögern derzeit jedoch, Daten untereinander auszutauschen, weil sie befürchten, die Hoheit über ihre Daten zu verlieren und nicht wissen, wer Zugriff auf die Daten hat und wofür die Daten verwendet werden.
The number of publications describing chemical structures has increased steadily over the last decades. However, the majority of published chemical information is currently not available in machine-readable form in public databases. It remains a challenge to automate the process of information extraction in a way that requires less manual intervention - especially the mining of chemical structure depictions. As an open-source platform that leverages recent advancements in deep learning, computer vision, and natural language processing, DECIMER.ai (Deep lEarning for Chemical IMagE Recognition) strives to automatically segment, classify, and translate chemical structure depictions from the printed literature. The segmentation and classification tools are the only openly available packages of their kind, and the optical chemical structure recognition (OCSR) core application yields outstanding performance on all benchmark datasets. The source code, the trained models and the datasets developed in this work have been published under permissive licences. An instance of the DECIMER web application is available at https://decimer.ai.
Viele Unternehmen beginnen damit, Standards "wild" umzusetzen oder verschiedene Sicherheitsprodukte zu kaufen. Cybersicherheit muss aber auf einem soliden Fundament stehen. Dazu sollten die Verantwortlichen die eigenen Organisationsstrukturen kennen und die drei Schlüsselfaktoren Menschen, Prozesse und Technologie sorgfältig ausbalancieren.
ChatGPT ist ein leistungsstarker Chatbot, der nach Eingabe konkreter Aufforderungen maßgeschneiderte Texte erstellt und Entwickler beim Programmieren unterstützen kann. Dazu bildet das GPT-Modell, ein „Large Language Model“ (LLM), Muster auf ein statistisches Modell ab, die dem Nutzer eine Antwort auf eine Frage generieren. Durch die große mediale Aufmerksamkeit mit der ChatGPT eingeführt wurde haben eine Vielzahl von Nutzern die potenziellen Chancen dieser Technologie kennengelernt. Jedoch birgt ChatGPT auch eine Reihe von Risiken.
In diesem Artikel werden sowohl die Chancen als auch die Risiken von ChatGPT umfassend insbesondere im Bereich Cyber-Sicherheit betrachtet.
Cookie notices (or cookie banners) are a popular mechanism for websites to provide (European) Internet users a tool to choose which cookies the site may set. Banner implementations range from merely providing information that a site uses cookies over offering the choice to accepting or denying all cookies to allowing fine-grained control of cookie usage. Users frequently get annoyed by the banner’s pervasiveness as they interrupt “natural” browsing on the Web. As a remedy, different browser extensions have been developed to automate the interaction with cookie banners.
In this work, we perform a large-scale measurement study comparing the effectiveness of extensions for “cookie banner interaction.” We configured the extensions to express different privacy choices (e.g., accepting all cookies, accepting functional cookies, or rejecting all cookies) to understand their capabilities to execute a user’s preferences. The results show statistically significant differences in which cookies are set, how many of them are set, and which types are set—even for extensions that aim to implement the same cookie choice. Extensions for “cookie banner interaction” can effectively reduce the number of set cookies compared to no interaction with the banners. However, all extensions increase the tracking requests significantly except when rejecting all cookies.
Theoretischer Hintergrund: In der psychologischen Führungsforschung zeigt sich ein Shift von traditionellem Management hin zu progressiveren Führungsmodellen, in denen das Gemeinwohl und die nachhaltige Führung von Mitarbeitenden anstelle des Selbstinteresses von Führungskräften treten.
Diese Modelle bewegen sich allerdings weiter im traditionellen Paradigma, dass effektive Führung komplexe Systeme gezielt beeinflussen und auf erwünschte Zielzustände hin ausrichten kann.
Fragestellung: Folgt man dem systemischen Ansatz, so können Führungskräfte das organisationale System nicht beeinflussen, sondern lediglich die Relationen seiner Bestandteile und Rahmenbedingungen für Emergenz schaffen. So lässt es sich beispielsweise aus der Theorie komplexer adaptiver Systeme und dem darauf basierenden Complexity Leadership Ansatz ableiten. Wenngleich viele Wissenschaftler*innen hierin Potential effektiver Führung sehen, mangelt es doch an konzeptionellen und psychometrischen Grundlagen sowie empirischer Evidenz für die Effektivität systemischer Führung.
Methodik: Wir stellen einen Fremdbeschreibungsfragebogen zur Messung systemischer Führung vor (N ges = 8770) sowie die mit diesem Instrument gewonnenen Ergebnisse verschiedener Feldstudien (k = 28) zu Antezedenzien, Auswirkungen und Randbedingungen systemischer Führung. Wir berücksichtigen auch die inkrementelle Varianzaufklärung über transformationale Führung.
Ergebnisse: Das Systemic Leadership Inventory ermöglicht die Einschätzung systemischer Kompetenzen
von Führungskräften.
Diskussion: Zukünftige Forschung sollte sich mit der Entwickelbarkeit systemischer Führung beschäftigen. Limitationen unseres Forschungsprojekts werden diskutiert.
Eine der ersten Informationen, die man von seinem Gegenüber wahrnehmen kann, ist meist das äußere Erscheinungsbild. Wird dies als attraktiv bewertet, wirkt es sich in vielen Lebensbereichen, wie auch im beruflichen Umfeld, vorteilhaft aus (Willis & Todorov, 2006; Marlowe et al., 1996; Langlois et al., 2000; Frieze et al., 1991). Im Rahmen der Bachelor-Thesis wurde der Einfluss physischer Attraktivität in Bezug
auf das Fehlverhalten von Mitarbeitenden in Form einer Vignettenstudie untersucht. Es wurden die folgenden Forschungsfragen formuliert: Werden attraktive Mitarbeitende trotz eines gezeigten Fehlverhaltens als vertrauenswürdiger eingeschätzt als unattraktive Mitarbeitende? Wird eine Bestrafung in Form einer Abmahnung und einer Kündigung bei unattraktiven Mitarbeitenden für angemessener gehalten als bei attraktiven Mitarbeitenden? Es wurde vermutet, dass sich auch hier die physische Attraktivität positiv auswirken kann.
Die postulierten Hypothesen wurden mit einem Stichprobenumfang von N = 679 im Between-Subjects Design eines Online-Experiments untersucht. Insgesamt gab es vier Vignetten, die sich in der Attraktivität einer dargestellten Mitarbeiterin und der Art des kontraproduktiven Arbeitsverhaltens unterschieden. Die Datenanalyse zeigte eine signifikante Interaktion zwischen der physischen Attraktivität und der Art des kontraproduktiven Arbeitsverhaltens auf, F(1,675) = 4.02, p = .046, η² = .01. Im Falle eines interpersonal schädigenden Arbeitsverhaltens wurde eine Kündigung bei der attraktiven Mitarbeiterin als angemessener bewertet. Im Falle eines organisationalschädigenden Arbeitsverhaltens hingegen wurde eine Kündigung bei der unattraktiven Mitarbeiterin als angemessener bewertet. Aus diesen Forschungsergebnissen wurden praktische Implikationen, wie zum Beispiel die Sensibilisierung für derartige Einflüsse durch Schulungen, abgeleitet. Auch Ansätze für zukünftige Forschungen, wie die Variation im Geschlecht der Stimulusperson, wurden vorgeschlagen.
Der sozioanalytischen Theorie folgend argumentieren wir, dass Machiavellismus nur im Falle einer hohen emotionalen Einflusskompetenz zuträglich für den objektiven Karriereerfolg ist.
In den Daten unserer fragebogenbasierten Querschnittsstudie zum jährlichen Bruttoeinkommen mit N = 149 Mitarbeitenden aus der Privatwirtschaft zeigen sich unter Kontrolle von Alter, Geschlecht und Führungsspanne weder signifikante Haupteffekte für Machiavellismus, noch für emotionale Intelligenz, dafür aber ein hypothesenkonformer Interaktionseffekt.
Unter Berücksichtigung methodischer Limitationen, die vorrangig an die Messung der beiden die Studie konstituierenden Konstrukte geknüpft sind, werden wissenschaftliche und praktische Implikationen dieses Befunds diskutiert.
Sowohl im Online-, aber auch im stationären Handel sind schon etliche innovative immersive Anwendungen entstanden, die neue kognitive und affektive Interaktions- und Informationsmöglichkeiten bieten. In den Bereichen Kunst, Immobilien, Architektur, Gaming, Fashion, Stadtplanung und -führungen finden sich ebenfalls mehr und mehr AR/VR Anwendungen. In diesem Beitrag wird nach einer Sichtung ausgewählter immersiver Projekte ein Konzept zur Nutzung von AR bzw. VR für Leerstände in einer ehemals attraktiven Einkaufsmeile in Gelsenkirchen vorgestellt.
Ethische Führung, Arbeitsplatzunsicherheit und soziale Dominanzorientierung: Eine Vignettenstudie
(2019)
To address the question which neocortical layers and cell types are important for the perception of a sensory stimulus, we performed multielectrode recordings in the barrel cortex of head-fixed mice performing a single-whisker go/no-go detection task with vibrotactile stimuli of differing intensities. We found that behavioral detection probability decreased gradually over the course of each session, which was well explained by a signal detection theory-based model that posits stable psychometric sensitivity and a variable decision criterion updated after each reinforcement, reflecting decreasing motivation. Analysis of multiunit activity demonstrated highest neurometric sensitivity in layer 4, which was achieved within only 30 ms after stimulus onset. At the level of single neurons, we observed substantial heterogeneity of neurometric sensitivity within and across layers, ranging from nonresponsiveness to approaching or even exceeding psychometric sensitivity. In all cortical layers, putative inhibitory interneurons on average proffered higher neurometric sensitivity than putative excitatory neurons. In infragranular layers, neurons increasing firing rate in response to stimulation featured higher sensitivities than neurons decreasing firing rate. Offline machine-learning-based analysis of videos of behavioral sessions showed that mice performed better when not moving, which at the neuronal level, was reflected by increased stimulus-evoked firing rates.
Moderating Role of Self-control Strength with Transformational Leadership and Adaptive Performance
(2013)
Based on a longitudinal sample of employees from the U.S. financial services industry (N=121), the present research examined the impact of transformational leadership on followers’ adaptive performance in change processes. Follower personality was taken into account as boundary condition by testing, if follower self-control strength as an individual trait moderated the relationship between transformational leadership and adaptive performance. In line with the developed hypothesis, results from a latent moderated structural equation model showed that followers’ self-control strength attenuated the relationship between transformational leadership and adaptive performance. Implications for research and practice are discussed.
Einleitung und Fragestellung
Zahlreiche empirische Befunden sprechen für die positiven Effekte authentischer Führung. Wir untersuchen ihre Antezedenzien.
Theoretischer Hintergrund
Authentische Führung meint Handeln im Einklang mit moralischen Werten. Aus sozialkognitiver Perspektive bezeichnet moralische Identität eine komplexe Wissensstruktur aus moralischen Werten, Zielen und Verhaltensmustern, welche durch Lebenserfahrungen erworben werden. Darin sehen wir eine Basis für authentische
Führung (H1). Sich trotz sozialer Opposition für moralische Prinzipien einzusetzen, ist bezeichnend für Mut. Dieser zeigt sich in selbstkongruentem Verhalten trotz negativer
Konsequenzen. Dem Identitätsprozessmodell folgend, wird Mut notwendig, wenn Identiätsspannungen Inkongruenz zwischen Selbstkonzept und sozialer Identität hervorrufen. Darin sehen wir ein Aktivierungspotenzial für authentische Führung (H2).
Methode
Wir befragten N = 70 Führungsdyaden eines Industriekonzerns. Mut (WSCS; Howard et al., 2016) und moralische Identität(MIS; Aquino & Reed, 2002) wurden als Selbsteinschätzung der Führungskräfte erhoben (Altersdurchschnitt: 46 Jahre, 59% ♂). Authentische Führung (ALQ, Walumbwa et al., 2008) erfassten wir als Fremdeinschätzung durch Mitarbeitende (Altersdurchschnitt: 37, 47% ♂).
Ergebnisse
Moralische Identität und tatsächliches Verhalten müssen scheinbar nicht notwendigerweise übereinstimmen; etwa wenn hohe Kosten für moralisches Verhalten erwartbar sind. Hier setzt sozialer Mut im Arbeitskontext an. Entsprechend
wird eine mutig agierende Führungskraft als authentisch wahrgenommen, vor allem, wenn dieses Verhalten mögliche negative soziale Konsequenzen beinhaltet.
Diskussion
Mutiges Handeln wird durch Persönlichkeit, Selbstwirksamkeit und aktuelle Emotionen geleitet und kann etwa in der Führungskräfteentwicklung gelernt werden.
Hier bieten sich narrative Formate an, die die Selbstreflexion fördern. Auch bzgl. der Entwicklung authentischer Führung verweisen erste Befunde auf die Bedeutung der persönlichen Reflexion, z.B. über die eigene Lebensgeschichte.
Theoretischer Hintergrund: Mut ist ein bislang wenig erforschtes Konstrukt. In der Forschung existieren unterschiedliche Betrachtungsweisen und Annahmen, u.a. hinsichtlich der Art des Konstruktes oder der Einflussfaktoren. Es existieren zudem, insbesondere im deutschsprachigen Raum, nur wenige Instrumente zur Messung von Mut. Diese zeigen zudem oftmals verbesserungsfähige oder unzureichende psychometrische Gütekriterien.
Fragestellung: Auf Basis einer umfangreichen Literaturrecherche ist unser Ziel, neben einem wissenschaftlichen Beitrag zur Klärung des Konstruktes, einen Selbstbeschreibungsfragebogen zur Messung von Mut im Arbeitskontext zu konstruieren, welcher den gängigen psychometrischen Gütekriterien entspricht und perspektivisch im Rahmen der Personalauswahl und Personalentwicklung eingesetzt werden könnte.
Methodik: Der Erstentwurf des Selbstbeschreibungsfragebogens zu Mut im Arbeitskontext besteht aus den Dimensionen sozialer Mut und persönlicher Mut. Zur psychometrischen Überprüfung des Fragebogenentwurfs haben wir eine Querschnittstudie in Form einer Online-Befragung durchgeführt (N = 253). Der Fokus lag auf der Itemanalyse, sowie auf der Überprüfung der Reliabilität und der Validität.
Ergebnisse: Die Reliabilität beträgt α = .92 und α = .91. Die exploratorische Faktorenanalyse stützt das 2-Faktoren-Modell. Es existieren erwartungsgemäß signifikante positive Korrelationen mit inhaltsähnlichen Konstrukten, u.a. arbeitsplatzbezogene Selbstwirksamkeit oder Extraversion und negative signifikante Korrelationen zu Neurotizismus und Psychopathie. Zusätzlich zeigen Mittelwertsvergleiche für
Geschlecht und Führungsverantwortung Ergebnisse gemäß dem aktuellen Stand der Forschung.
Diskussion Der Selbstbeschreibungsfragebogen zeigt klares Potenzial für die Nutzung im Rahmen der Personalauswahl und Personalentwicklung. Im Rahmen der Fragebogenkonstruktion ist es entscheidend das Konstrukt so eng wie möglich einzugrenzen. Die Fokussierung auf eine spezifische Form von
Mut scheint der Schlüssel zu sein, um ein den gängigen Anforderungen an psychometrische Gütekriterien entsprechendes Instrument zu entwickeln.
Psychological Capital as Mediator between Transformational Leadership and Adaptive Performance
(2013)
Desert ants Cataglyphis spec. monitor inclination and distance covered through force-based sensing in their legs. To transfer this mechanism to legged robots, artificial neural networks are used to determine the inclination angle of an experimental ramp from the motor data of the legs of a commercial hexapod walking robot. It is possible to determine the inclination angle of the ramp based on the motor data of the robot legs read out during a run. The result is independent of the weight and orientation of the robot on the ramp and hence robust enough to serve as an independent odometer.
In the realm of digital situational awareness during disaster situations, accurate digital representations,
like 3D models, play an indispensable role. To ensure the
safety of rescue teams, robotic platforms are often deployed
to generate these models. In this paper, we introduce an
innovative approach that synergizes the capabilities of compact Unmaned Arial Vehicles (UAVs), smaller than 30 cm, equipped with 360° cameras and the advances of Neural Radiance Fields (NeRFs). A NeRF, a specialized neural network, can deduce a 3D representation of any scene using 2D images and then synthesize it from various angles upon request. This method is especially tailored for urban environments which have experienced significant destruction, where the structural integrity of buildings is compromised to the point of barring entry—commonly observed post-earthquakes and after severe fires. We have tested our approach through recent post-fire scenario, underlining the efficacy of NeRFs even in challenging outdoor environments characterized by water, snow, varying light conditions, and reflective surfaces.
In this paper, we present a method for detecting objects of interest, including cars, humans, and fire, in aerial images captured by unmanned aerial vehicles (UAVs) usually during vegetation fires. To achieve this, we use artificial neural networks and create a dataset for supervised learning. We accomplish the assisted labeling of the dataset through the implementation of an object detection pipeline that combines classic image processing techniques with pretrained neural networks. In addition, we develop a data augmentation pipeline to augment the dataset with utomatically labeled images. Finally, we evaluate the performance of different neural networks.
Problem: A group of robots, called a swarm, is placed in an unknown environment and is supposed to explore it independently. The goal of the exploration is the creation of a common map.
Implementation
- Equipping six Kobuki robots with appropriate sensor technology, a large battery, a router and the Jetson board
- Setup of the Jetson-Boards with self-made ROS2 nodes and the set up mesh network
- Writing of launch files for the common start of all functions
- Reinforcement learning is used to train an AI that controls the swarm by selecting points for the robots to approach and navigating to them and navigating them there.
- Setting up a responsive website using Angular and the Bootstrap
Framework.
360° and IR- Camera Drone Flight Test: Superimposition of two data sources for Post-Fire Inspection
(2023)
This video highlights a recent flight test carried out in our cutting-edge robotics lab, unveiling the capabilities of our meticulously crafted thermal and 360° camera drone! We've ingeniously upgraded a DJI Avata with a bespoke thermal and 360° camera system. Compact yet powerful, measuring just 18 x 18 x 17 cm, this drone is strategically engineered to effortlessly navigate and deliver crucial thermal and 360° insights concurrently in post-fire or post-explosion environments.
The integration of a specialized thermal and 360° camera system enables the simultaneous capture of both data sources during a single flight. This groundbreaking approach not only reduces inspection time by half but also facilitates the seamless superimposition of thermal and 360° videos for comprehensive analysis and interpretation.
The dataset is used for 3D environment modeling, i.e. for the generation of dense 3D point clouds and 3D models with PatchMatch algorithm and neural networks. Difficult for the modeling algorithm are the reflections of rain, water and snow, as well as windows and vehicle surface. In addition, lighting conditions are constantly changing.
At the integration sprint of the E-DRZ consortium in march 2023 we improve the information captured by the human spotter (of the fire brigade) by extending him through a 360° drone i.e. the DJI Avata with an Insta360 on top of it. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The hall ist about 70 x 20 meters. When the drone is landed we have all information in 360° degree at 5.7k as you can see it in the video. Furthermore it is a perfect documentation of the deployment scenario. In the next video we will show how to spatial localize the 360° video and how to generate a 3D point cloud from it.
At the integration sprint of the E-DRZ consortium in march 2023 we improve the information captured by the human spotter (of the fire brigade) by extending him through a 360° drone. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The hall ist about 70 x 20 meters. When the drone is landed we have all information in 360° degree at 5.7k as you can see it in the video. Furthermore it is a perfect documentation of the deployment scenario. In the next video we will show how to spatial localize the 360° video and how to generate a 3D point cloud from it.
Gaussian Splatting: 3D Reconstruction of a Chemical Company After a Tank Explosion in Kempen 8/2023
(2023)
The video showcases a 3D model of a chemical company following a tank explosion that occurred on August 17, 2023, in Kempen computed with the gaussian splatting algorithm. Captured by a compact mini drone measuring 18cm x 18cm and equipped with a 360° camera, these images offer an intricate perspective of the aftermath. The computation need 29 minutes and uses 2770 images (~350 equirectangular images). After a comprehensive aerial survey and inspection of the 360° images taken within the facility, authorities confirmed that it was safe for the evacuated residents to return to their homes. See also:
https://www1.wdr.de/fernsehen/aktuelle-stunde/alle-videos/video-grosser-chemieunfall-in-kempen-100.html
ARGUS is a tool for the systematic acquisition, documentation and evaluation of drone flights in rescue operations. In addition to the very fast generation of RGB and IR orthophotos, a trained AI can automatically detect fire, people and cars in the images captured by the drones. The video gives a short introduction to the Aerial Rescue and Geospatial Utility System -- ARGUS
Check out our Github repository under
https://github.com/RoblabWh/argus/
You can find the dataset on kaggle under
https://www.kaggle.com/datasets/julienmeine/rescue-object-detection
This video features a flight test conducted in our robotics lab, showcasing a custom-built thermal camera drone. We've enhanced a DJI Avata with a specialized thermal camera system. With its compact dimensions measuring 18 x 18 x 17 cm, this drone is designed to navigate and provide critical thermal information within post-fire or post-explosion environments. For more insights, be sure to check out our previous videos on this channel.
The video showcases a 3D model of a chemical company following a tank explosion that occurred on August 17, 2023, in Kempen computed with the AI algorithm Neural Radiance Field (NeRF). Captured by a compact mini drone measuring 18cm x 18cm and equipped with a 360° camera, these images offer an intricate perspective of the aftermath. After a comprehensive aerial survey and inspection of the 360° images taken within the facility, authorities confirmed that it was safe for the evacuated residents to return to their homes. See also:
https://www1.wdr.de/fernsehen/aktuelle-stunde/alle-videos/video-grosser-chemieunfall-in-kempen-100.html
Nerf(acto) for the 3D modeling of the Computer Science building of Westfälische Hochschule GE
(2023)
The video shows a very high resolution 3D point cloud !!! of the computer science building of the University of Applied Science Gelsenkirchen. For the recording a 3 minute flight with a M30T was performed. The 105 images taken by the wide-angle camera during this flight were localized within 3 minutes using colmap and processed using Neural Radiance Fields (NeRF). The nerfacto model of Nerfstudio was trained on an Nvidia RTX 4090 for 8 minutes. Thus, a top 3D model is available after about 15 minutes.
The video shown here shows a free camera path rendered at 60 hz (Full HD).
The video shows a very high resolution 3D point cloud !!! of the outdoor area of the German Rescue Robotics Center. For the recording, a 25-second POI flight was performed with a Mavic 3. From the 4K video footage captured during this flight, 77 images were cropped and localized within 4 minutes using colmap and processed using Neural Radiance Fields (NeRF). The nerfacto model of Nerfstudio was trained on an Nvidia RTX 4090 for 8 minutes. In summary, a top 3D model is available to task forces after about 13 minutes. The calculation is performed locally on site by the RobLW of the DRZ. The video shown here shows a free camera path rendered at 60 hz (Full HD).
From the 360° images of the former video (
• German rescue robotic center captured... ) we now generate the 3D point cloud. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The 3D point cloud generation is 5x slower than the video. It uses a VSLAM algorithm to localize the k-frames (green) and with 3 k-frames it use a 360° PatchMatch algorithm implemented at a NVIDIA graphic card (CUDA) to calculated the dense point clouds.The hall ist about 70 x 20 meters.
Sperical UAV: Crash Test with 1/2 liter bottle from 2 meters
In this paper, we investigate the influence of different disease groups on the size of different 1 anatomical structures. To this end, we first modify and improve an existing anatomical segmentation 2 model. Then, we use this model to segment 104 anatomical structures from computed tomography 3 (CT) scans and compute their volumes from the segmentation. After correlating the results with each 4 other, we find no new significant correlations. After correlating the volume data with known diseases 5 for each case, we find two weak correlations, one of which has not been described before and for 6 which we present a possible explanation.
The video shows the first test of a small spherical UAV (35 cm) with 4 rotors for missions in complex environments such as buildings, caves or tunnels. The spherical design protects the vehicle's internal components and allows the UAV to roll over the ground when the environment allows. The drone can land and take off in any position and come into contact with objects without endangering the propellers and can restart even after crashes.
Problem
- How to effectively use aerial robots to support rescue forces?
- How to achieve good flight characteristics and long flight times?
- How to enable simple and intuitive control?
- How to efficiently record image data of the environment?
- How to generate flight and image data for rescue forces?
Implementation:
The flying robot was designed in Autodesk Fusion360. In order to achieve high stability as well as low weight, the frame was milled from carbon. Mounts such as for GPS and 360° camera were 3D printed. A special feature is that the flying robot is not visible in the panoramic view of the 360° camera. The flight controller of the robot was set up using Ardupilot. The communication with the robot is done via MAVLink (UDP).To support different platforms, a software was realized as a web application. The front end was created using HTML, CSS and Javascript.
The back end is based on Flask-Socket-IO (Python). For the intelligent recognition of motor vehicles a micro controller with an integrated camera is used. For the post-processing of flight and video data a pipeline was implemented for automation.
Ventilanordnung und Verfahren zum Kühlen eines Wärmetauschers eines Fahrzeugs [Offenlegungsschrift]
(2023)
Die Erfindung betrifft eine Ventilanordnung umfassend wenigstens ein durch Gas, insbesondere Luft, durchströmbares Ventilelement (1, 1') mit einer Öffnung, wobei der Öffnung ein Dichtelement zugeordnet ist, mit dem die Öffnung verschließbar und/oder öffenbar ist, wobei das Dichtelement durch einen Dichtflächenbereich eines Plattenelements ausgebildet ist, vorzugsweise eines in zumindest einem möglichen Betriebszustand planen Plattenelements ausgebildet ist, wobei das Dichtelement der Öffnung des wenigstens einen Ventilelements gegenüberliegt und der das Dichtelement bildende Dichtflächenbereich des Plattenelements mittels wenigstens eines Spiralarmes mit einem Randflächenbereich des Plattenelements einstückig und relativ zum Randflächenbereich beweglich verbunden ist und der wenigstens eine Spiralarm von wenigstens einer um den Dichtflächenbereich verlaufenden spiralförmigen und durch Gas durchströmbare Ausnehmung in dem Plattenelement zumindest bereichsweise umgeben ist. Die Erfindung betrifft auch ein Verfahren zum Kühlen eines Wärmetauschers in
einem Fahrzeug.