Filtern
Erscheinungsjahr
- 2017 (160)
- 2016 (135)
- 2015 (131)
- 2018 (130)
- 2020 (109)
- 2006 (96)
- 2023 (87)
- 2008 (86)
- 2007 (84)
- 2012 (83)
- 2019 (82)
- 2014 (75)
- 2013 (71)
- 2021 (67)
- 2022 (66)
- 2010 (65)
- 2009 (59)
- 2011 (59)
- 2003 (50)
- 2002 (49)
- 2005 (49)
- 2004 (45)
- 2001 (34)
- 2000 (26)
- 1996 (14)
- 1998 (13)
- 1999 (11)
- 1995 (10)
- 1997 (9)
- 2024 (6)
- 1988 (5)
- 1989 (4)
- 1994 (4)
- 1992 (3)
- (2)
- 1983 (2)
- 1987 (2)
- 1985 (1)
- 1986 (1)
- 1990 (1)
- 1993 (1)
Dokumenttyp
- Wissenschaftlicher Artikel (872)
- Teil eines Buches (Kapitel) (288)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (235)
- Buch (Monographie) (205)
- Konferenzveröffentlichung (133)
- Bericht (71)
- Vorlesung (46)
- Video (46)
- Rezension (27)
- Sonstiges (16)
- Lehrmaterial (15)
- Arbeitspapier (14)
- Bachelorarbeit (10)
- Masterarbeit (3)
- Audio (3)
- Ausgabe (Heft) zu einer Zeitschrift (2)
- Periodikum (1)
Sprache
- Deutsch (1987) (entfernen)
Schlagworte
- Robotik (22)
- Flugkörper (14)
- Journalismus (14)
- UAV (14)
- Bionik (8)
- 3D Modell (7)
- Akkreditierung (7)
- E-Learning (7)
- Digitalisierung (6)
- Energiepolitik (6)
Institut
- Wirtschaftsrecht (822)
- Wirtschaft und Informationstechnik Bocholt (208)
- Institut für Internetsicherheit (206)
- Institut für Innovationsforschung und -management (183)
- Informatik und Kommunikation (169)
- Wirtschaft Gelsenkirchen (65)
- Westfälisches Energieinstitut (43)
- Institut Arbeit und Technik (34)
- Westfälisches Institut für Gesundheit (26)
- Maschinenbau Bocholt (23)
Um CO2-frei, mit erneuerbaren Technologien, Energie umzuwandeln, zu speichern und Wasserstoff zu produzieren, bedarf es einer Technologie, welche zu hoher Leistungsdichte, Flexibilität und Effizienz fähig ist. Die Polymerelektrolytmembran-(PEM) Wasser-Elektrolyse besitzt das Potential alle diese Attribute in sich zu vereinen, weswegen sie eine Schlüsseltechnologie bei dem Umstieg auf erneuerbare Energien darstellt. Die aktuellen hohen Beladungen der Elektroden mit Katalysatormaterial für die Sauerstoffentwicklungsreaktion (OER) wie Iridium und die bisher noch ungenügend erforschten Alterungsmechanismen dieser über eine längere Nutzdauer, sind bisher die größten Herausforderungen für die großflächige industrielle Nutzung dieser Systeme. Mit diesem Hintergrund stellt sich diese Arbeit der Herausforderung die untersuchten PEM-Anoden mit reduzierter Beladung, hinsichtlich ihrer Stabilität und Alterungsmechanismen zu charakterisieren und den ersten Schritt in Richtung eines Degradationsprotokolls zu machen, um solche Elektroden künftig zu untersuchen. In der vorgegangenen Arbeit, aus welcher die hier untersuchten Proben stammen, wurden Elektroden hergestellt, indem auf ein Titansubstrat eine Supportschicht mit unterstöchiometrischem Titanoxid eingesintert wurde, auf welchem wiederum das Iridium galvanisch gepulst abgeschieden wurde. Die Beladung mit Katalysatormaterial war hier geringer als der der Stand der Technik, doch die katalytische Aktivität wurde durch die optimierte Elektrodenarchitektur erhöht. In dieser Arbeit wurden die Elektroden einem elektrochemischen Degradationsprotokoll unterzogen, welches sich aus Cyclovoltametrie (CV) gefolgt von Chronopotentiometrie (CP) und Chronoamperometrie, mit wechselnden Potentialen, zusammensetzt. Der dabei verwendete Elektrolyt wurde ebenfalls durch Filtration und Titration auf Zerfallsprodukte der Elektroden hin untersucht. Nach erfolgter Degradation wurden die Elektroden auf topografische Änderungen, mittels Rasterelektronenmikroskop (REM), Änderungen der Kristallinität, mittels Röntgendiffraktometrie (XRD) und Änderungen der Elementenkonzentration durch Röntgenfluoreszenzspektroskopie (XRF) hin untersucht.
Diese Arbeit befasst sich mit der Entwicklung einer Titanträgerlage, die anschließend als Supportstruktur für den Anodenkatalysator eines PEM-Elektrolyseurs genutzt werden soll, sowie mit der Parametrisierung der hierfür genutzten Lasersinteranlage.
Dafür wird 1 mg cm-2 unterstöchiometrisches Titanoxid (TiOx) auf eine poröse Titantransportschicht gesprüht und anschließend mit einem gepulsten Laser in Argonatmosphäre gesintert, um beide Materialien zu verbinden und die Oberfläche gezielt verändern zu können. Da die benötigte Menge des unterstöchiometrischen TiOx-Pulvers nicht abschätzbar war, wurden die Arbeiten mit kommerziell verfügbarem Titandioxid-(TiOx) Pulver durchgeführt.
Im ersten Schritt wurde ein bestehender Sprühprozess optimiert. Der Fokus lag dabei auf einem gleichmäßigen Sprühergebnis und dem reproduzierbaren Erreichen einer vorgegebenen Beladung. Die Optimierung wurde auf Titanblech und auf porösen Titansubstraten durchgeführt.
Anschließend wurde das verwendetet Lasersystem, das einen luftgekühlten Neodymdotierten Yttrium-Aluminium-Granat (Nd:YAG)-Festkörperlaser mit einer Wellenlänge von 355 nm nutzt, parametrisiert. Das Erreichen der Bearbeitungsschwelle und die maximalen Spotgrößen bei verschiedenen Diodenströmen wurden untersucht. Anschließend wurde die Frequenz erhöht, dies führte zu geringeren Einzelpulsenergien und daher zu neuen Bearbeitungsschwellen bei den unterschiedlichen Diodenströmen. Die Variierung des Vorschubs führt zu einer Änderung der eingebrachten Energie pro Fläche und wirkt sich direkt auf die Sinterdauer aus. Als letztes wurde der Einfluss des Linienabstandes untersucht. Wenn der Linienabstand unterhalb des Wertes gehalten wird, ab dem eine streifenfreie Oberfläche entsteht, wirkt die Verkleinerung des Linienabstandes wie die Verringerung des Vorschubs.
Um grünen Wasserstoff effizient als Energieträger nutzen zu können, ist die Entwicklung von haltbaren und aktiven Katalysatorschichten für Brennstoffzellen und Elektrolyseuren von äußerster Wichtigkeit. Eine große Herausforderung ist, dass konventionelle C/Pt-Katalysatoren eine starke Korrosionsreaktion durchlaufen und mit hohen Kosten verknüpft sind. Weswegen alternative Kohlenstoffträger wie Kohlenstoffnanofaser-Materialien entwickelt wurden, welche eine längere Haltbarkeit aufweisen können. In dieser Arbeit wurde die Aufbringung von Pt- und Ir-Nanopartikeln auf gesponnene Kohlenstoffnanofaser-Vliese untersucht. Es wurden erstmals in einer Flüssigkeit laserablatierte Pt-Nanoartikel mit einem PAN-Vlies versponnen oder in einem zweiten Syntheseverfahren auf ein Vlies aufgesprüht. Diese Methoden wurden mit der gepulsten galvanischen Abscheidung von Pt auf einem PAN-Vlies verglichen. Die Vliese wurden bezüglich ihres Graphitisierungsgrades, ihrer Partikelverteilung und ihrer Beständigkeit untersucht, einschließlich des Einflusses der Karbonisierungstemperatur. Die Raman- und XRF-Messungen ergaben eine Erhöhung des Graphitisierungsgrades und eine Abnahme der PAN-Reste mit dem Anstieg der Karbonisierungstemperatur. Elektrochemische Messungen und REM-Aufnahmen bestätigten die erfolgreiche Synthese von langzeitstabilen CNF-Vliesen mit einer hohen massenspezifischen aktiven Platinoberfläche und einer guten Nanopartikelverteilung. Diese Ergebnisse tragen zur Entwicklung von ökologischen und ökonomischen Katalysatorschichten bei.
Der Beitrag zielt darauf ab, eine rechtssoziologische Verknüpfung zwischen Recht, Individuum, Gesellschaft und Ökonomie aufzuzeigen. Durch die Beleuchtung der Wechselwirkungen dieser Bereiche wird verdeutlicht, dass Biografien nicht isoliert betrachtet werden können, sondern stets im Kontext sozialer, wirtschaftlicher und rechtlicher Dynamiken stehen.
Dieser Leitfaden richtet sich in erster Linie an Studierende, die wissen wollen, wie sie ihre eigene digitale Identität souverän gestalten können. Aber er richtet sich auch an alle anderen, die schon immer wissen wollten, was eine digitale Identität beinhaltet und was man tun muss, um sie im eigenen Sinn zu gestalten und vor Missbrauch zu schützen. Wir sind fast alle täglich im Internet und in den sogenannten Social Media unterwegs. Wir nutzen diese digitale Welt, um etwas nachzuschlagen, uns mit Bekannten und Freunden zu treffen, potenziellen Arbeitgebern unsere Stärken zu präsentieren und vieles mehr. Wir werden aber auch von diesen Medien benutzt. Unsere Daten, die wir eingeben, sind ein wertvolles Gut und wir sollten sie nicht leichtfertig mit anderen teilen oder aus der Hand geben. All das wissen wir theoretisch, dennoch verhalten wir uns oft nicht so, wie es angemessen wäre. Aus Bequemlichkeit, aus Unwissenheit oder weil uns die Konsequenzen nicht wirklich klar oder zu abstrakt sind. Dieser Leitfaden soll daher zunächst einmal sensibilisieren, für die Gefahren, aber auch vor allem für die Möglichkeiten, die sich bei der Selbstpräsentation im World Wide Web ergeben können. Gegenstand des Leitfadens ist damit die bewusste Gestaltung der eigenen digitalen Identität. Themen, wie z. B. sichere Authentifizierung im Internet, werden nicht betrachtet.
Wir möchten euch daher einladen herauszufinden, wie ihr euch im Internet geeignet präsentieren, eine eigene digitale Identität kreieren und diese kontrollieren könnt. Dazu findet ihr im ersten Teil dieses Leitfadens Hintergrundinformationen zur digitalen Identität und im zweiten Teil geben wir euch Handlungsempfehlungen zur vorteilhaften Online-Selbstdarstellung.
Aufgrund der Energiewende und den steigenden Anforderungen an die technische Gebäudeausrüstung gewinnt der Betrieb von Wärmepumpen in Gebäuden immer mehr an Bedeutung. Inzwischen existiert eine Vielzahl an Wärmepumpen-Systemen, die unterschiedliche Vor- und Nachteile sowie Einsatzmöglichkeiten aufweisen. Sofern die Installation einer Wärmepumpe für den Wohngebäudesektor in Betracht gezogen wird, muss eruiert werden, welches System sowohl ökologisch als auch ökonomisch für das Bauvorhaben am sinnvollsten ist. Hierfür wurde eine Bewertungstool entwickelt, das den Einsatz der unterschiedlichen Wärmepumpensysteme bewertet und auch Nutzern mit wenig Expertise eine Entscheidungshilfe ermöglicht. Für eine möglichst ganzheitliche Betrachtung können verschiedene Szenarien mit Hilfe des Bewertungstools überprüft werden. Hierzu können Indikatoren wie Standortdaten, Gebäudedaten, Parameter für die Trinkwassererwärmung, die Systemtemperaturen der Heizung und die Betriebsweise der Wärmepumpe im Tool variiert werden. Die Ergebnisse des Bewertungstools zeigen, wie die unterschiedlichen Nutzungsanforderungen sich auf die Jahresarbeitszahl und den Energiebedarf auswirken. Zusätzlich werden Investitions- und Verbrauchskosten für die unterschiedlichen Szenarien abgeschätzt und berechnet. Bei der ökologischen Bewertung wird der Fokus der Betrachtung auf den TEWI-Wert gelegt, um den Einfluss von verschiedener Kältemittel im Lebenszyklus der Wärmepumpe zu berücksichtigen.
Einleitung und Fragestellung:
Abusive Supervision wird mit willentlicher Leistungszurückhaltung, verringerter Motivation, erhöhtem Stresserleben, psychosomatischen Beschwerden und Burnout bei Mitarbeitenden assoziiert. Angesichts der hohen Prävalenz destruktiver Führung bleibt bislang die Frage offen, welche
protektiven Ressourcen die genannten Zusammenhänge abpuffern.
Theoretischer Hintergrund:
Abusive Supervision bezieht sich auf das Ausmaß der feindseligen verbalen und nonverbalen Verhaltensweisen einer Führungskraft. Basierend auf dem Anforderungs- Ressourcen- Modell gehen wir davon aus, dass sich personale Ressourcen, die Mitarbeitende in der arbeitsfreien Zeit aufbauen, positiv auf den negativen Effekt zwischen destruktiver Führung und Mitarbeitergesundheit auswirken. Wir fokussieren hier die generalisierte Selbstwirksamkeitserwartung, die sich im Sinne der sozialkognitiven Theorie und zahlreichen empirischen Befunden als gesundheitsrelevante Ressource im
Umgang mit domänenübergreifenden Belastungen herausgestellt hat. Diese sollte durch Bewältigungserfahrung in der arbeitsfreien Zeit gefördert werden. Bewältigungserfahrung in der Freizeit bedeutet die Gelegenheit des Erlebens von Kompetenz und Fachwissen.
Methode:
Die Moderatoranalyse wurde im Rahmen einer Querschnittsbefragung einer anfallenden Stichprobe mit N = 305 Personen getestet. Die Variablen wurden mit der Abusive Supervision Scale (Tepper, 2000), dem REQ (Sonnentag & Fritz, 2007), und der Subskala emotionale Erschöpfung des MBI (Büssing & Perrar, 1992) gemessen.
Ergebnisse:
In dieser Studie zeigen „Mastery Experiences“ einen hypothesenkonformen Puffereffekt, nicht jedoch die anderen Erholungsstrategien, die auch mit getestet wurden. Es zeigt sich also die Tendenz, dass sich Mitarbeitende durch das Erlernen neuer Kompetenzen und den Aufbau von Selbstwirksamkeit vor den gesundheitsschädlichen Auswirkungen destruktiver Führung schützen können. Das
Korrelationsmuster deutet aber vrmtl. auch problematische Aspekte dieser Erholungsstrategie an.
Diskussion:
Limitierend muss erwähnt werden, dass wir die vermutete vermittelnde Variable Selbstwirksamkeit nicht explizit gemessen haben, und dass zukünftige Untersuchungen den Effekt in Form einer mediierten Moderation replizieren müssen.
Nachhaltigkeit von intelligenten Gebäuden - Ein Blick auf die Gesetzgebungen und Praxismöglichkeiten
(2023)
Gebäude sind durch ihre Herstellung und den Betrieb für einen erheblichen Teil der CO2-Emissionen in Europa verantwortlich. Die EU und Deutschland wollen durch milliardenschwere Maßnahmenpakete diese Emissionen bis zum Jahr 2045 (Deutschland) bzw. 2050 (EU) auf null reduzieren. Neben der Gebäudehülle als maßgeblicher Faktor für die Wärmebilanz zum Heizen und Kühlen spielt die Gebäudeautomation eine wichtige Rolle. Wie Gebäude intelligenter und smarter werden und wie sich das auf die Energieeffizienz auswirkt, soll im Folgenden betrachtet werden.
Die neue Aufgabe der internen Kommunikation: schwierige Unternehmenspersönlichkeiten erkennen
(2023)
This paper analyses the status quo of large-scale decision making combined with the possibility of blockchain as an underlying decentralized architecture to govern common pool resources in a collective manner and evaluates them according to their requirements and features (technical and non-technical). Due to an increasing trend in the distribution of knowledge and an increasing amount of information, the combination of these decentralized technologies and approaches, can not only be beneficial for consortial governance using blockchain but can also help communities to govern common goods and resources. Blockchain and its trust-enhancing properties can potenitally be a catalysator for more collaborative behavior among participants and may lead to new insights about collective action and CPRs.
Die Digitalisierung ist die Basis für das Wohlergehen unserer modernen und globalen Informations- und Wissensgesellschaft und schreitet immer schneller voran. Dabei eröffnet die Digitalisierung über alle Branchen und Unternehmensgrößen hinweg enorme Wachstumschancen und führt zu immer besseren Prozessen, die die Effizienz steigern und Kosten reduzieren. Der Digitalisierungsprozess beschleunigt auf allen Ebenen und der Wertschöpfungsanteil der IT in allen Produkten und Lösungen wird immer größer. Die möglichen Erfolgsfaktoren der Digitalisierung sind vielfältig: Die Kommunikationsgeschwindigkeiten und -qualitäten, die mit 5G- und Glasfasernetzen neue Anwendungen möglich machen. Die Smartness der Endgeräte, wie Smartwatches, Smartphones, PADs, IoT-Geräte usw., die viele neue positive Möglichkeiten mit sich bringt. Aber auch immer leistungsfähigere zentrale IT-Systeme, wie Cloud-Angebote, Hyperscaler, KI-Anwendungen usw., schaffen Innovationen mit großen Potenzialen.
Moderne Benutzerschnittstellen, wie Sprache und Gestik, vereinfachen die Bedienung für die Nutzer. Die Optimierung von Prozessen schafft ein enormes Rationalisierungspotenzial, das es zu heben gilt, um wettbewerbsfähig zu bleiben und die Wachstumschancen für unser Wohlergehen zu nutzen. Neue Möglichkeiten mit Videokonferenzen, Cloud-Anwendungen usw., im Homeoffice zu arbeiten und damit die Personenmobilität zu reduzieren und die Umwelt zu schonen.
Self-Sovereign Identity (SSI) sorgt für eine sichere und vertrauenswürdige Digitalisierung. Nutzer können selbstbestimmt ihre digitale Identität und Nachweise wie Ausweis oder Bescheinigungen an Anwendungen weitergeben. Das europäische SSI-Ökosystem löst Abhängigkeiten von Monopolisten und gibt uns die Freiheit, die digitale Zukunft souverän und zügig zu gestalten.
Web measurement studies can shed light on not yet fully understood phenomena and thus are essential for analyzing how the modern Web works. This often requires building new and adjustinng existing crawling setups, which has led to a wide variety of analysis tools for different (but related) aspects. If these efforts are not sufficiently documented, the reproducibility and replicability of the measurements may suffer—two properties that are crucial to sustainable research. In this paper, we survey 117 recent research papers to derive best practices for Web-based measurement studies and specify criteria that need to be met in practice. When applying these criteria to the surveyed papers, we find that the experimental setup and other aspects essential to reproducing and replicating results are often missing. We underline the criticality of this finding by performing a large-scale Web measurement study on 4.5 million pages with 24 different measurement setups to demonstrate the influence of the individual criteria. Our experiments show that slight differences in the experimental setup directly affect the overall results and must be documented accurately and carefully.
Momentan ist der Tenor der meisten Artikel zum Thema Künstliche Intelligenz (KI) relativ konformistisch – unverzüglich wird der Leser dahingehend sensibilisiert, dass sich hierdurch enorme Chancen auftun, die nicht ungenutzt bleiben dürfen, um international nicht abgehängt zu werden. Eher nebenbei erwähnt wird, dass trotz aller Euphorie auch die Risiken in Betracht zu ziehen seien. Da aus diesen jedoch Implikationen für die gesamte Gesellschaft resultieren können, ist es nicht nur ratsam, sondern erforderlich den Einsatz von KI in allen Bereichen – sogar im Kontext der IT-Sicherheit – unter ethischen Aspekten zu bewerten.
Als Identifikations- und Authentisierungsverfahren gewinnen biometrische Systeme immer mehr an Bedeutung. Waren sie bisher eher nur aus Filmen bekannt, wo sie für einen kleinen Mitarbeiterkreis als Zugangskontrolle zu wichtigen Räumen oder Tresoren mit kostbaren Inhalten dienten, finden biometrische Systeme immer mehr Einzug in unseren Alltag. Im elektronischem Pass ist die Speicherung biometrischer Daten bereits Pflicht. Im öffentlichen und kommerziellen Bereich werden biometrische Systeme immer mehr als zusätzliche Option angeboten, um den Zugriff auf Daten, Dienste und den Zutritt zu Räumen zu kontrollieren. Mit der Entsperrung des Smartphones sind biometrische Systeme auch im privaten Bereich angekommen. Erschwingliche Sensoren machen es sogar möglich, privat biometrische Systeme zu entwickeln.
In dieser Arbeit wird eine ganzheitliche Bedrohung für Business-Chat-Anwendungen aufgezeigt und bewertet: Chishing – Phishing über Business-Chats. Die Bedrohung hat ihren Ursprung in den Anfängen der heutigen vernetzten Welt und das zugrunde liegende Problem wird als Spoofing in seiner einfachsten Form bezeichnet. In vier von sechs Business-Chat-Tools, die in dieser Arbeit analysiert werden, ist es möglich, Anzeigenamen, Profilbilder und weitere persönliche Informationen erfolgreich zu fälschen. Dies stellt eine Bedrohung für Unternehmen dar, da es Insider-Bedrohungen Vorschub leistet und unter Umständen auch externen Entitäten dazu einlädt, sich als interne Mitarbeiterin auszugeben.
Aufgrund der zunehmenden IT-Technisierung und damit einhergehend stetigen Veränderung der Lebensbedingungen ist es notwendig, dass Menschen den IT-Lösungen und Unternehmen weiterhin und kontinuierlich vertrauen können. Denn durch den höheren Grad der IT-Technisierung steigt die Komplexität, wodurch es für den Nutzer zunehmend schwieriger wird, einzelne IT-Lösungen und deren Hintergründe zu verstehen sowie zu bewerten. Diese Veränderung hat Auswirkungen: Zum einen macht sie grundsätzlich den Nutzern – den Menschen – Angst, da gewohnte Vorgänge beständig ihre Gültigkeit verlieren. Zum anderen entsteht dadurch sowie durch die Komplexität latent das Gefühl, eine falsche Entscheidung zu treffen, weil nicht alles bedacht werden kann. So fällt dem Aspekt der Interdependenz von Vertrauen und Vertrauenswürdigkeit für deutsche und europäische Unternehmen eine hohe Bedeutung zu, insbesondere auch da sich internationale Tech-Unternehmen zunehmend weniger vertrauenswürdig im komplexen Cyber-Raum verhalten. Dies eröffnet die Möglichkeit, sich über den Aufbau von Vertrauen weltweit gegen internationale Unternehmen nachhaltig zu profilieren und positionieren. Um dieses Ziel zu realisieren, bedarf es einer strategischen Vorgehensweise – zum Beispiel auf Basis des Vertrauenswürdigkeitsmodells.
Der Plan ist klar nachvollziehbar und notwendig: Unrechtmäßig genutzte, urheberrechtlich geschützte oder gar illegale Inhalte dürfen im Internet keine Plattform zur Verbreitung finden. Bisher geschieht das durch Analyse bereits hochgeladener Inhalte. Die Europäische Union möchte aber am liebsten verhindern, dass entsprechendes Material überhaupt ins Netz gelangt. Das ruft sogenannte Upload-Filter auf den Plan, die bereits beim Versuch des Hochladens eine Blockade setzen. So weit, so gut, jedoch lassen sich durch solche Filter zu leicht auch „unliebsame“ Inhalte blockieren – Kritikern solcher Pläne scheint ein Machtmissbrauch durch Kontrolle der zur Veröffentlichung freigegebenen Inhalte vorprogrammiert. Vor diesem Hintergrund beleuchtet folgender Beitrag den Sinn, die technische Umsetzung und Machbarkeit sowie die Risiken von Upload-Filtern.
Das Internet als weltweites Netzwerk von Servern dient schon lange nicht mehr rein der Beschaffung von Informationen oder der persönlichen Kommunikation. Es werden vermehrt mediale Inhalte (Bilder, Audio- und Videodateien) in sozialen Netzwerken gepostet. Ein Großteil dieser Inhalte dient der Selbstdarstellung des Nutzers in Chroniken, Timelines, Stories etc. Allein auf Facebook werden pro Tag etwa 350 Millionen Bilder und 100 Millionen Stunden Videomaterial von Nutzern hochgeladen. Bei YouTube sind es sogar 400 Stunden Videomaterial pro Minute.
In dieser Masse von Daten sind auch unrechtmäßig genutzte, urheberrechtlich geschützte oder illegale Inhalte vorhanden. Diese unerwünschten Inhalte können mit voller Absicht oder aus Versehen und ohne kriminellen Hintergedanken hochgeladen werden. Doch egal aus welchem Grund, solche Inhalte müssen so früh wie möglich entdeckt und gelöscht werden oder sollten gar nicht erst hochgeladen werden können. Aktuelle Lösungen basieren auf einer nachträglichen Erkennung bereits hochgeladener Inhalte durch Erkennungswerkzeuge oder den Menschen.
Dieses Vorgehen ist bereits etabliert und allseits anerkannt. Eine Erweiterung durch gesetzliche Vorgaben, die das Melden, Deaktivieren und Prüfen vereinfacht und beschleunigt, wäre hier ein logischer nächster Schritt. Doch eine Prüfung und Bewertung aller Inhalte von Uploads während des Upload-Prozesses in Echtzeit wird zurzeit favorisiert und stellt eine neue, besondere Herausforderung dar.
Daher könnten in Zukunft Upload-Filter weltweit zum Einsatz kommen. Bild 1 zeigt schematisch den Unterschied zwischen einem Upload ohne Upload-Filter – links unten – und einem Upload mit Upload-Filter – links oben. Hierbei ist die Verbindung des Upload-Filters mit dem Internet nicht obligatorisch.
Ein Upload-Filter wird als eigenständige, unumgängliche Instanz in den Upload-Prozesses integriert. Seine Aufgabe besteht in der Klassifizierung der Inhalte von Uploads.
Kriterien hierfür sind vor allem das Bestehen eines Urheberschutzes für den Upload von Musik, Bildern oder Filmen, und ein eventueller Konflikt mit dem Strafrecht – zum Beispiel Kinderpornografie oder Rassismus.
Vorangetrieben wurde das Thema von der EU – genauer durch die Richtlinie (EU) 2019/790. Der hierin enthaltene Artikel 17 sieht vor, die Plattformen zu verpflichten, Lizenzverträge mit den Inhabern von Urheberrechten zu schließen. Kommen diese nicht zustande, muss die Plattform dafür sorgen, dass entsprechende Inhalte nicht hochgeladen und veröffentlicht werden können. Dieser Artikel war und ist immer noch hoch umstritten. Die EU will damit die unerlaubte Nutzung urheberrechtlich geschützter Werke auf Webseiten verhindern.
Kritiker sehen darin das freie Internet durch eine Zensurmöglichkeit in Gefahr, sollte eine diktatorische Regierung Einfluss aufdie Upload-Filter haben.
Digitalisierung gilt als die Basis für das Wohlergehen der modernen und globalen Informations- und Wissensgesellschaft. Während sie immer mehr Fahrt aufnimmt, zeigt sie gleichzeitig immer deutlicher auch ihre Kehrseite: Altbewährte Verteidigungssysteme gegen Cyberangriffe versagen zunehmend. Die Ursachen werden inzwischen sehr klar: Der klassische Perimeter löst sich dank Cloud und Mobility auf, die Angriffsflächen werden dank unzähliger neu im Netz hinzugekommener Dinge exponentiell größer, und Abwehrmaßnahmen auf herkömmliche Weise dank einer zerklüfteten, kaum integrierten Security-Landschaft immer komplexer. Zeit, die Erfolgsfaktoren der Digitalisierung zu erkennen und für das eigene Unternehmen umzusetzen. Dabei helfen vier grundsätzliche Cybersicherheitsstrategien.
Ein professionelles Digital-Risk-Management-System scannt das Clearnet, Deep Net und Darknet nach auffälligen, potenziell sensiblen Dokumenten und Informationen, um Hinweise für technische oder menschliche Sicherheitsrisiken identifizieren zu können. Die Prävention von Cyberangriffen ist nach wie vor eine entscheidend wichtige Säule, um die Digitalisierung zu meistern, Geschäftswerte langfristig zu schützen und die Anzahl an kritischen Sicherheitslücken im Unternehmen gering zu halten. Im Rahmen eines Master-Projekts hat sich das Institut für Internet-Sicherheit – if(is) mit dem Thema DRM auseinander gesetzt und insbesondere das Tool RISKREX exemplarisch analysiert.
Die Notwendigkeit von Nachweisen findet sich in sehr vielen Bereichen unseres Lebens. Zertifikate, Zeugnisse, Abnahmen, Rechnungen, Quittungen, Urkunden und Bescheinigungen über Fortbildungen sind nur einige Beispiele dafür. Durch die Digitalisierung, die mittlerweile so gut wie überall Einzug gehalten hat, und durch die Corona-Krise einen besonderen Schub erfahren hat, wird die Umsetzung solcher Nachweise heutzutage immer öfters digital statt auf Papier verwirklicht. Digitale Nachweise bieten viel Raum für die Optimierung von Prozessen und liefern gleichzeitig einige Schwachstellen, die zum Betrügen genutzt werden können.
Hier gilt es in der aktuellen Forschung und Entwicklung Lösungen zu finden, die die Sicherheit erhöhen, um somit die Vertrauenswürdigkeit der digitalen Nachweise zu steigern. Ob wir je komplett auf Papier verzichten werden können ist fraglich, jedoch kein unmögliches Ziel. Wer dieses Ziel verfolgt, muss nach und nach die Schwachstellen und Probleme der digitalen Nachweise ausmerzen.
Mit den Reisebeschränkungen in der Corona-Krise ist der Bedarf an einfach zu handhabenden Videokonferenzsystemen sprunghaft gestiegen. Krisengewinner war dabei ohne Zweifel der amerikanische Hersteller Zoom Video Communications.
Mit seinem „Zoom Meeting“-Dienst preschte das junge Unternehmen an bisherigen Branchenlieblingen vorbei. Derzeit gilt Zoom als populärstes Konferenzsystem auf dem Markt. Mitten im Aufstieg ist Zoom jedoch auch heftig in Kritik geraten: Schlechte Umsetzung des Datenschutzes, hohe Angreifbarkeit durch klaffende Schwachstellen und unzureichende Verschlüsselung lauteten die Vorwürfe. Der Hersteller zeigte sich bei der Behebung der Schwachstellen kooperativ. Doch ist jetzt alles sicher und vertrauenswürdig?
Dank der neuen Datenschutzgrundverordnung zum Schutz der Privatsphäre konnte der Sammelwahn einiger Dienstleister bereits abgemildert werden. Dennoch zeichnet sich eine immer stärkere Zentralisierung und Monopolisierung von Datenhaltern und Dienstleistern ab, vor allem in Form großer USA- oder Asien-basierter Technologieunternehmen. Im Umgang mit den eigenen Daten schreiten nur wenige Menschen bewusst zur Tat, sehen meist nur den angepriesenen Vorteil und nicht die möglichen negativen Konsequenzen für ihre Privatsphäre. Eine Self-Sovereign Identity (SSI) könnte Basis für einen fairen Datenaustausch innerhalb der Smart Economy sein und die Integration auch kleinerer Unternehmen in eine offene Infrastruktur unterstützen.
Unternehmen setzen zunehmend auf KI oder planen, dies künftig zu tun. Doch die große Euphorie bleibt in der Industrie aus guten Gründen noch aus. Zum einen fehlt die kritische Masse an Einsatzszenarien, weswegen Unsicherheit besteht, welche Handlungsfelder nachhaltige Erfolge versprechen. Zum anderen ist die Frage der Zuverlässigkeit zu klären, also wie valide KI-generierte Ergebnisse wirklich sind. Im Folgenden geht es um die Mechanismen, die gute Ergebnisse sicherstellen helfen.
2018 wurde das „DNS over HTTPS (DoH)“-Protokoll vorgestellt. Der Vorteil von DoH besteht darin, dass sich die Manipulation von DNS-Anfragen für missbräuchliche Zwecke verhindern lässt. Aus diesem Grund haben Apple, Google, Microsoft und weitere Internetfirmen DoH bereits eingebunden oder haben vor dies zu tun. Doch wie genau funktioniert die Verbesserung beim Schutz der Privatsphäre und bei der Sicherheit auf Protokollebene? Und gibt es auch Nachteile?
Die Art und Weise wie wir leben und wohnen hat sich in den vergangenen Jahren stark verändert, daraus haben sich einige neue Trends für den häuslichen Alltag ergeben. Dies ist unter anderem darauf zurückzuführen, dass das steigende Umweltbewusstsein viele Handlungsentscheidungen beeinflusst. Zudem bedingt die demografische Entwicklung, dass nach neuen Lösungsansätzen für ein eigenständiges Leben im Alter gesucht werden muss. Mittlerweile ist auch das Homeoffice so etabliert, dass daraus neue Gegebenheiten für das heutige und künftige Arbeiten von Zuhause resultieren, die technologische Veränderungen notwendig machen. Insgesamt wird ein Wandel hin zum smarten Zuhause als Chance gesehen, diesen aktuellen Herausforderungen zu begegnen. Aber was
bedeutet Smart Home tatsächlich im täglichen Leben und wie wird dieses in der Zukunft gestaltet werden? Für die Einschätzung hier gilt es, die Vorteile von Smart Home ebenso zu betrachten, wie mögliche Risiken und was berücksichtigt werden muss, um Schäden zu vermeiden. Denn nur so lässt sich eine Akzeptanz in der digitalen Zukunft zu erzielen.
Die digitale Evolution schreitet unaufhaltsam voran. Das führt auch zu der Konsequenz, dass die innovativen Technologien und somit die gesamte Internet-/IT-Infrastruktur nicht nur zunehmend vielschichtig, sondern auch intransparent wird. Daraus resultiert ein gravierendes Dilemma: gegenläufig zu dem steigenden Einsatz sinkt das Wissen über deren Hintergründe und Zusammenhänge. Dies könnte im Weiteren zu folgender Handlungsalternative führen – entweder unverhältnismäßige Ablehnung der Technologie und entsprechender Dienste oder blindes Vertrauen. Beides verhindert eine sinnvolle Nutzung neuer Anwendungen oder innovativer Dienste – auch wenn Vertrauen, im Sinne des Soziologen Niklas Luhmann, grundsätzlich positiv konnotiert ist. Denn gemäß seiner Definition ist Vertrauen ein Mechanismus der Komplexitätsreduktion – also etwas, wodurch sich das Leben leichter gestalten lässt. Doch sollte hier die Interpretation im Sinne des Philosophen und Soziologen Georg Simmel weiter präzisiert werden. Dieser sieht „Vertrauen als einen Zustand zwischen Wissen und Nicht-Wissen, als eine Hypothese künftigen Verhaltens“, auf die Menschen ihr konkretes Handeln gründen. Das zeigt die Relevanz von Vertrauen beim Einsatz innovativer Technologien und unterstreicht gleichzeitig die Notwendigkeit, dass Unternehmen vertrauenswürdig agieren müssen, damit dieses auch gerechtfertigt ist.
Serviceangebote aus der Public Cloud schießen derzeit förmlich durch die Decke. Obwohl Coroana in einzelnen Bereichen Cloud-Projekte verzögert, gehören die Digitalisierung und damit auch Cloud Services zu den eindeutigen Gewinnersn in der Krise: Doch mit der Auslagerung von IT-Services im großen Maßstab in die Cloud, nehmen auch Cyberkriminelle dieses Umfeld mehr und mehr ins Visier. Cloud Service Provider sind zwar in der Regel sicherheitstechnisch immer auf dem neuesten Stand - aber auch sie sind angreifbar. Damit Cyberkriminelle in Cloud-Umgebungen keine Chance haben, den Blicken von Unternehemen und Strafverfolgungsbehörden zu entgehen, ist eine umfassende digitale Forensik erforderlich. In der Praxis bestehen dafür jedoch große Hürden. Deshalb müssen hier jetzt schnell neue, kreative Ansätze gefunden werden.
Im Sinne der Gesellschaft : Wissenschaft als Helfer für angewandte Ethik in der KI-unterstützten IT
(2021)
Im Kontext der Digitalisierung, und insbesondere vor dem Hintergrund der dadurch prädizierten Effizienzsteigerung, wird der Künstlichen Intelligenz (KI) eine hohe Bedeutung beigemessen. Ebenso in Bezug auf die IT-Sicherheit gehen Experten davon aus, dass KI entscheidend dazu beitragen wird, die strategische Abwehr von Cyber-Angriffen zu optimieren. Doch trotz aller Euphorie sollten hier neben den Chancen auch die daraus potenziell resultierenden Risiken in Betracht gezogen werden. Denn der Einsatz von KI ist mit Implikationen verbunden, die auf die gesamte Gesellschaft wirken, von daher ist es nicht nur ratsam, sondern sogar erforderlich Anwendungen – auch im Bereich IT-Sicherheit – unter ethischen Aspekten zu analysieren und bewerten.
Sicheres und vertauenswürdiges Arbeiten im Homeoffice : aktuelle Situation der Cybersicherheitslage
(2021)
Durch die fortschreitende Digitalisierung bekommt die IT einen immer größeren Stellenwert in allen Bereichen. Dadurch steigt die Abhängigkeit von der IT und damit auch das Schadenspotenzial durch Cyberangriffe. Besonders durch die Zunahme des Arbeitsform Homeoffice sowie de Ad-hoc-Verlagerung von Beschäftigten und Geschäftsprozessen in das Homeoffice entstehen durch bisher unzureichende infrastrukturelle Sicherheitsvorkehrungen höhere Risiken. Anbieter von Video-Konferenz- und anderen Kollaborationstools haben durch den enormen Digitalisierungsschub nicht genug Zeit gehabt, ihre Systeme angemessen zu schützen. Dazu kommt, dass die Nutzung von unsicheren oder nicht ausreichend datenschutzkonformen Lösungen, wie Messenger oder sozialen Netzwerken, weitere Risiken für Unternehmen darstellen können. Welche technischen, personellen und organisatorischen Maßnahmen sind also erforderlich, um in der angespannten Lage ein sicheres Homeoffice einzurichten?
Cyber-Sicherheit spielt für unsere digitale Zukunft, sowohl im Alltag, als auch im Berufsleben, eine zentrale Rolle. Aus diesem Grund wird es immer wichtiger, dass wir ausreichend Cyber-Sicherheitsexperten haben, um die Zukunft für unsere Gesellschaft sicher und vertrauenswürdig zu gestalten. Vor diesem Hintergrund wird im folgenden Beitrag die Wichtigkeit der Cyber-Sicherheit aus verschiedenen Blickwinkeln diskutiert und die Möglichkeit der Aus- und Weiterbildung dargestellt.
Social Media Scraper im Einsatz : wie Kriminelle hoch personalisierte Phishing-Attacken vorbereiten
(2021)
Social Engineering ist ein zunehmend beliebter Angriffsvektor, der von Kriminellen verwendet wird, um erfolgreich Menschen zu manipulieren. Das Ziel ist es vordergründig Personen anzugreifen und nicht die IT-Systeme, die sie nutzen. Dazu sammeln die Kriminellen so viele Informationen wie möglich über ihre menschlichen Vorlieben und Interessen. Social-Media-Portale sind dazu eine gute Informationsquelle. In diesem Projekt wird die Vorgehensweise einer entwickelten Software beschrieben, die automatisch einen Link einer Person von offiziellen und seriösen LinkedIn-Profilen zu den privaten Accounts auf Instagram findet. Durch diese Automatisierung und die Analyse der veröffentlichten Inhalte kann eine Risikoeinschätzung gegeben werden, wie viele berufliche und persönliche Informationen für einen erfolgreicheren Social-Engineering-Angriff genutzt werden könnten.
Derzeit dominieren im Cyber-Raum zentralisierte ID-Provider, wie Google, Facebook und Apple die Verwaltung von Identitätsdaten bei sehr vielen IT-Diensten weltweit. Diese Situation schafft eine große Abhängigkeit der Gesellschaft, der Unternehmen und Nutzer in Bezug auf die Entwicklung der Digitalisierung. Außerdem nutzen die monopolistischen ID-Provider die sensiblen personenbezogenen Daten ihrer Nutzer für eigene Werbezwecke oder verkaufen sie aus ökonomischen Interessen an weitere Unternehmen. Das schwächt die Privatsphäre der Nutzer und hat Folgen bezüglich der Akzeptanz unserer digitalen Zukunft. Self-Sovereign Identity (SSI) ist ein Konzept, das die Souveränität und den Schutz der Privatsphäre der Nutzer fokussiert – dabei aber gleichzeitig deutlich einfacher und nutzerfreundlicher umgesetzt werden kann, als das bei aktuellen Identity Lösungen der Fall ist. Folgender Beitrag erklärt die Architektur, die Akteure, die Sicherheitsmechanismen und die Prinzipien von SSI.
Digitale Werte benötigen ein weitaus höheres und vor allem spezifisches Schutzniveau. Da es für Anwender mittlerweile nicht mehr einfach ist, dieses effektiv nachzuprüfen, müssen sie darauf vertrauen, dass die Hersteller alles tun, um den Anforderungen gerecht zu werden. Andererseits sind die Hersteller darauf angewiesen, dass Anwender ihnen Vertrauen gewähren und ihre IT-/Sicherheits-Lösungen tatsächlich nutzen. Um eine hohe Vertrauenswürdigkeit zu erreichen können, müssen Unternehmen Vorgehensweisen wählen, die einigen bestimmten Kriterien erfüllen.
Im Prinzip wollen und müssen Menschen auch in der digitalen Welt vertrauen (können) – nicht zuletzt, um grundsätzlich handlungsfähig zu sein. Aber auch, weil teilweise gar keine andere Wahl besteht, als einfach zu vertrauen, da die IT-Technologien mittlerweile nicht nur so allgegenwärtig, sondern auch so komplex geworden sind, dass der Nutzer sie vielfach gar nicht mehr einschätzen kann. Daher ist es – insbesondere im Sinne der Digitalisierung – wichtig und auch notwendig, dass Nutzern verschiedene Alternativen zur Verfügung stehen, anhand derer sie individuell die Vertrauenswürdigkeit von Unternehmen sowie IT-Lösungen – also jeglicher Produkte, Anwendungen und Dienste – beurteilen können. Aufgrund der steigenden Zahl an Sicherheitsvorfällen in der digitalen Welt sollte speziell die Cyber-Sicherheit dabei im Fokus stehen.
Das Gesundheitswesen in Deutschland, Europa, aber auch weltweit steht gerade erst am Beginn eines notwendigen und besonderen Digitalisierungsschubs. Ein wichtiger Schritt im Rahmen dieser Digitalisierung wird es sein, sämtliche medizinische Daten leistungsträgerübergreifend einfach verfügbar zu machen. Dies ermöglicht neue Methoden der Behandlung wie durch KI-Ansätze oder die Vermeidung von Doppelbehandlungen. Zur Erreichung dieser Ziele ist es unabdingbar, dass moderne medizintechnische IT-Geräte miteinander vernetzt werden und die anfallenden Daten sicher verarbeitet und hinterlegt werden. Durch diesen Prozess entstehen aber auch neue Angriffsvektoren und die Risiken steigen erheblich an.
Diese Arbeit beschreibt zunächst grundlegende Cyber-Sicherheitsstrategien, die helfen die vorhandenen Risiken zu minimieren und mit den verbleibenden Risiken umzugehen. Zusätzlich werden konkrete Sicherheitsbedürfnisse- und Anforderungen, die zur Vernetzung von Medizintechnik und zur Verarbeitung von Daten in der Cloud, nötig sind diskutiert. Abschließend wird eine Gesamtarchitektur vorgestellt, die diese Sicherheitsbedürfnisse umsetzt.
Digitale Sprachassistenten wie Alexa, Google, Siri & Co erfreuen sich auch in Deutschland hoher Beliebtheit - Tendenz steigend. Bei allen genannten und vielen weiteren Systemen handelt es sich um cloudbasierte Architekturen - die gesprochenen Befehle werden in Rechenzentren rund um den Globus übertragen und dort interpretiert. Aus Sicht des Datenschutzes und der Privatsphäre ist das problematisch. Auch die Abhängigkeit zu Cloud-Anbietern kann zu Schwierigkeiten führen, z.B. wenn sich die Sprachassistenten oder Smart-Home-Geräte nicht mehr nutzen lassen, weil der Anbieter seinen Dienst einstellt. Im Rahmen eines internen Forschungsprojekts hat das Institut für Internet-Sicherheit nun einen "dezentralen" Sprachassistenten entwickelt, der im Offline-Betrieb operiert und die Sprachdaten lokal auf dem Gerät verarbeitet, ohne sie in eine entfernte Cloud übertragen zu müssen.
Supply-Chain-Angriffe sind eine akute Bedrohung für jedes Unternehmen. Einen Softwarelieferanten auszunutzen, um eine große Anzahl seiner Kunden zu erreichen, ist eine ausgeklügelte und erfolgreiche Methode aktueller Hacker. Die Spezialisierung der Unternehmen auf ihre Kernkompetenzen, die Globalisierung der Lieferketten (im folgendem wird Supply Chain und Lieferkette synonym verwendet), sowie die Digitalisierung entlang der Wertschöpfungskette sind nur einige Beispiele, wieso Angreifer vermehrt die Vertrauensbeziehung zwischen Kunden und Lieferanten verstärkt für Angriffe ausnutzen. Dieser Artikel erläutert Cyber-Angriffe in Bezug auf eine Supply Chain und zeigt Sicherheitsmechanismen für die erfolgreiche Verteidigung.
Daten sind heute die Schlüsselkomponente in der Wertschöpfung. Ihre sichere und vertrauenswürdige Verarbeitung sind daher essenziell - auch in Cloud-Infrastrukturen, die per se erst mal nicht vertrauenswürdig sind. Während die Daten und der Code der sie verarbeitenden Anwendung hier in gespeicherter Form und bei der Übertragung in der Regel verschlüsselt sind, liegt beides während der Verarbeitung von Anwendungen in einer Cloud-Infrastruktur im Klartext vor und ist somit angreifbar. Auf der Basis von Sicherheitsfunktionen der CPU sorg Confidential Computing dafür, dass Anwendungen mit Code und Daten auf Cloud-Infrastrukturen in isolierter und verschlüsselter Form in sicheren Enklaven verarbeitet werden. Die Inhalte der Anwendung in einer Enklave werden so vor unbefugten Zugriff durch Systemadministratoren und weiteren Personen, die prinzipiell Zugriff auf die Cloud-Infrastruktur haben, geschützt. Technik unterstützt auf diese Weise die sichere und vertrauenswürdige Umsetzung des Datenschutzes.
Das Internet hat sich als globale Kommunikations-, Informations-, Commerce- und Businessinfrastruktur fest in der Gesellschaft etabliert. Mit jedem Grad Zuwachs bei der Digitalisierung wird das Leben einfacher und schneller - aber auch gefährlicher. Die konkrete Gefährlichkeit bleibt dabei bislang oft ein Mysterium - Strategien für die IT-Sicherheit müssen auf Basis von Annahmen und Erfahrungen entwickelt werden. Internet-Kennzahlen und deren systematische Auswertung sollen nun dabei helfen, Probleme, Risiken und Schwachstellen als Trend zu erkennen, um Sicherheitsstrategien proaktiv fokussierter zu gestalten. Auch der Stand der IT-Sicherheit lässt sich durch Messung der Kennzahlen ermitteln und bewerten. Internet-Kennzahlen werden von lokalen und globalen Anbietern bereitgestellt.
Die ehemals vom Grundsatz her separierten Welten der Information Technology (IT) und Operational Technology (OT) wachsen im Zuge der Digitalisierung vermehrt zusammen. Doch was ist dabei aus Sicht der IT/IT-Sicherheit zu berücksichtigen und wem kann oder muss die letztendliche Verantwortung für eine durchgängige IT-Sicherheit des Unternehmens obliegen?
Eine nicht ganz leicht zu klärende Aufgabenstellung – insbesondere mit Blick auf den Aspekt, dass die Schutzziele der beiden Unternehmensbereiche nicht einheitlich sind.
Damit die medizinische Versorgung weiterhin flächendeckend gewährleistet werden kann und den explodierenden Kosten Einhalt geboten wird, muss ein Gesundheitswesen der Zukunft auf digitalen Technologien basieren. Die Kritikalität der entsprechenden Health-Services ruft Cyber-Sicherheit auf den Plan – die Sensibilität der im Gesundheitswesen verarbeiteten Daten den Datenschutz. Ein zukunftsfähiges Gesundheitswesen braucht einen stringenten Rechtsrahmen, eine moderne cloudbasierte Telematikinfrastruktur, die je nach Sicherheitsbedarf in verschiedenen Modellen umgesetzt werden kann, einen restriktiven Umgang mit globalen Public-Cloud-Providern, eine besonders gesicherte, leistungsstarke Forschungsdateninfrastruktur – etwa zur Optimierung von KI-Fähigkeiten, sichere Gesundheitsanwendungen und einiges mehr. Hier ein Ausblick.
Künstliche Intelligenz (KI) ermöglicht es, komplexe Zusammenhänge und Muster aus großen Datenmengen zu extrahieren und in einem statistischen Modell zu erfassen. Dieses KI-Modell kann anschließend Aussagen über zukünftig auftretende Daten treffen. Mit dem zunehmenden Einsatz von Künstlicher Intelligenz rücken solche Systeme auch immer mehr ins Visier von Cyberkriminellen. Der Artikel beschreibt umfassend Angriffsszenarien und mögliche Abwehrmaßnahmen.
Die Beschaffung von IT-Sicherheitslösungen ist für Unternehmen oft eine Herausforderung. So führt die Komplexität der Systeme dazu, dass die für eine Kaufentscheidung erforderlichen Kompetenzen und Informationen nicht immer vorhanden sind. Grundvoraussetzung für eine erfolgreiche Geschäftsbeziehung ist deswegen ein valides Vertrauensverhältnis zwischen Anwender- und Herstellerunternehmen. Das setzt jedoch voraus, dass die Herstellerunternehmen vertrauenswürdig auftreten und im Interesse ihrer Kunden handeln. Eine Studie der Westfälischen Hochschule Gelsenkirchen hat untersucht, welche Vertrauenskriterien Kunden bei Herstellern und deren Produkten wichtig sind. So ist zum Beispiel ein Hersteller bei den Kunden unten durch, wenn er zu viele Buzzwords nutzt.
Vor vier Jahren betrat die Datenschutz-Grundverordnung (DS-GVO) die Bühne und brachte für Unternehmen und Nutzer gleichermaßen Veränderungen mit sich. Doch gerade im dynamischen Umfeld des Online-Marketings tauchen ständig neue und oft knifflige Fragen auf – Fragen, die nun im Rahmen einer wissenschaftlichen Studie etwas genauer unter die Lupe genommen wurden.
Wie Datenräume helfen, neue Geschäftsmodelle zu entwickeln : sicher, vertrauenswürdig und dezentral
(2023)
In der heutigen Zeit werden sehr große Datenmengen generiert und verwaltet, dennoch wird der Wert der Daten in Deutschland und Europa noch nicht voll ausgeschöpft. Die gemeinsame Nutzung von Daten kann und soll datengetriebene Anwendungen noch weiter vorantreiben, bei der Erfüllung regulatorischer Anforderungen helfen sowie einen finanziellen Mehrwert für Firmen schaffen. Viele kleine bis mittelständische Unternehmen zögern derzeit jedoch, Daten untereinander auszutauschen, weil sie befürchten, die Hoheit über ihre Daten zu verlieren und nicht wissen, wer Zugriff auf die Daten hat und wofür die Daten verwendet werden.
Viele Unternehmen beginnen damit, Standards "wild" umzusetzen oder verschiedene Sicherheitsprodukte zu kaufen. Cybersicherheit muss aber auf einem soliden Fundament stehen. Dazu sollten die Verantwortlichen die eigenen Organisationsstrukturen kennen und die drei Schlüsselfaktoren Menschen, Prozesse und Technologie sorgfältig ausbalancieren.
ChatGPT ist ein leistungsstarker Chatbot, der nach Eingabe konkreter Aufforderungen maßgeschneiderte Texte erstellt und Entwickler beim Programmieren unterstützen kann. Dazu bildet das GPT-Modell, ein „Large Language Model“ (LLM), Muster auf ein statistisches Modell ab, die dem Nutzer eine Antwort auf eine Frage generieren. Durch die große mediale Aufmerksamkeit mit der ChatGPT eingeführt wurde haben eine Vielzahl von Nutzern die potenziellen Chancen dieser Technologie kennengelernt. Jedoch birgt ChatGPT auch eine Reihe von Risiken.
In diesem Artikel werden sowohl die Chancen als auch die Risiken von ChatGPT umfassend insbesondere im Bereich Cyber-Sicherheit betrachtet.
Theoretischer Hintergrund: In der psychologischen Führungsforschung zeigt sich ein Shift von traditionellem Management hin zu progressiveren Führungsmodellen, in denen das Gemeinwohl und die nachhaltige Führung von Mitarbeitenden anstelle des Selbstinteresses von Führungskräften treten.
Diese Modelle bewegen sich allerdings weiter im traditionellen Paradigma, dass effektive Führung komplexe Systeme gezielt beeinflussen und auf erwünschte Zielzustände hin ausrichten kann.
Fragestellung: Folgt man dem systemischen Ansatz, so können Führungskräfte das organisationale System nicht beeinflussen, sondern lediglich die Relationen seiner Bestandteile und Rahmenbedingungen für Emergenz schaffen. So lässt es sich beispielsweise aus der Theorie komplexer adaptiver Systeme und dem darauf basierenden Complexity Leadership Ansatz ableiten. Wenngleich viele Wissenschaftler*innen hierin Potential effektiver Führung sehen, mangelt es doch an konzeptionellen und psychometrischen Grundlagen sowie empirischer Evidenz für die Effektivität systemischer Führung.
Methodik: Wir stellen einen Fremdbeschreibungsfragebogen zur Messung systemischer Führung vor (N ges = 8770) sowie die mit diesem Instrument gewonnenen Ergebnisse verschiedener Feldstudien (k = 28) zu Antezedenzien, Auswirkungen und Randbedingungen systemischer Führung. Wir berücksichtigen auch die inkrementelle Varianzaufklärung über transformationale Führung.
Ergebnisse: Das Systemic Leadership Inventory ermöglicht die Einschätzung systemischer Kompetenzen
von Führungskräften.
Diskussion: Zukünftige Forschung sollte sich mit der Entwickelbarkeit systemischer Führung beschäftigen. Limitationen unseres Forschungsprojekts werden diskutiert.
Eine der ersten Informationen, die man von seinem Gegenüber wahrnehmen kann, ist meist das äußere Erscheinungsbild. Wird dies als attraktiv bewertet, wirkt es sich in vielen Lebensbereichen, wie auch im beruflichen Umfeld, vorteilhaft aus (Willis & Todorov, 2006; Marlowe et al., 1996; Langlois et al., 2000; Frieze et al., 1991). Im Rahmen der Bachelor-Thesis wurde der Einfluss physischer Attraktivität in Bezug
auf das Fehlverhalten von Mitarbeitenden in Form einer Vignettenstudie untersucht. Es wurden die folgenden Forschungsfragen formuliert: Werden attraktive Mitarbeitende trotz eines gezeigten Fehlverhaltens als vertrauenswürdiger eingeschätzt als unattraktive Mitarbeitende? Wird eine Bestrafung in Form einer Abmahnung und einer Kündigung bei unattraktiven Mitarbeitenden für angemessener gehalten als bei attraktiven Mitarbeitenden? Es wurde vermutet, dass sich auch hier die physische Attraktivität positiv auswirken kann.
Die postulierten Hypothesen wurden mit einem Stichprobenumfang von N = 679 im Between-Subjects Design eines Online-Experiments untersucht. Insgesamt gab es vier Vignetten, die sich in der Attraktivität einer dargestellten Mitarbeiterin und der Art des kontraproduktiven Arbeitsverhaltens unterschieden. Die Datenanalyse zeigte eine signifikante Interaktion zwischen der physischen Attraktivität und der Art des kontraproduktiven Arbeitsverhaltens auf, F(1,675) = 4.02, p = .046, η² = .01. Im Falle eines interpersonal schädigenden Arbeitsverhaltens wurde eine Kündigung bei der attraktiven Mitarbeiterin als angemessener bewertet. Im Falle eines organisationalschädigenden Arbeitsverhaltens hingegen wurde eine Kündigung bei der unattraktiven Mitarbeiterin als angemessener bewertet. Aus diesen Forschungsergebnissen wurden praktische Implikationen, wie zum Beispiel die Sensibilisierung für derartige Einflüsse durch Schulungen, abgeleitet. Auch Ansätze für zukünftige Forschungen, wie die Variation im Geschlecht der Stimulusperson, wurden vorgeschlagen.
Der sozioanalytischen Theorie folgend argumentieren wir, dass Machiavellismus nur im Falle einer hohen emotionalen Einflusskompetenz zuträglich für den objektiven Karriereerfolg ist.
In den Daten unserer fragebogenbasierten Querschnittsstudie zum jährlichen Bruttoeinkommen mit N = 149 Mitarbeitenden aus der Privatwirtschaft zeigen sich unter Kontrolle von Alter, Geschlecht und Führungsspanne weder signifikante Haupteffekte für Machiavellismus, noch für emotionale Intelligenz, dafür aber ein hypothesenkonformer Interaktionseffekt.
Unter Berücksichtigung methodischer Limitationen, die vorrangig an die Messung der beiden die Studie konstituierenden Konstrukte geknüpft sind, werden wissenschaftliche und praktische Implikationen dieses Befunds diskutiert.
Sowohl im Online-, aber auch im stationären Handel sind schon etliche innovative immersive Anwendungen entstanden, die neue kognitive und affektive Interaktions- und Informationsmöglichkeiten bieten. In den Bereichen Kunst, Immobilien, Architektur, Gaming, Fashion, Stadtplanung und -führungen finden sich ebenfalls mehr und mehr AR/VR Anwendungen. In diesem Beitrag wird nach einer Sichtung ausgewählter immersiver Projekte ein Konzept zur Nutzung von AR bzw. VR für Leerstände in einer ehemals attraktiven Einkaufsmeile in Gelsenkirchen vorgestellt.
Ethische Führung, Arbeitsplatzunsicherheit und soziale Dominanzorientierung: Eine Vignettenstudie
(2019)
Einleitung und Fragestellung
Zahlreiche empirische Befunden sprechen für die positiven Effekte authentischer Führung. Wir untersuchen ihre Antezedenzien.
Theoretischer Hintergrund
Authentische Führung meint Handeln im Einklang mit moralischen Werten. Aus sozialkognitiver Perspektive bezeichnet moralische Identität eine komplexe Wissensstruktur aus moralischen Werten, Zielen und Verhaltensmustern, welche durch Lebenserfahrungen erworben werden. Darin sehen wir eine Basis für authentische
Führung (H1). Sich trotz sozialer Opposition für moralische Prinzipien einzusetzen, ist bezeichnend für Mut. Dieser zeigt sich in selbstkongruentem Verhalten trotz negativer
Konsequenzen. Dem Identitätsprozessmodell folgend, wird Mut notwendig, wenn Identiätsspannungen Inkongruenz zwischen Selbstkonzept und sozialer Identität hervorrufen. Darin sehen wir ein Aktivierungspotenzial für authentische Führung (H2).
Methode
Wir befragten N = 70 Führungsdyaden eines Industriekonzerns. Mut (WSCS; Howard et al., 2016) und moralische Identität(MIS; Aquino & Reed, 2002) wurden als Selbsteinschätzung der Führungskräfte erhoben (Altersdurchschnitt: 46 Jahre, 59% ♂). Authentische Führung (ALQ, Walumbwa et al., 2008) erfassten wir als Fremdeinschätzung durch Mitarbeitende (Altersdurchschnitt: 37, 47% ♂).
Ergebnisse
Moralische Identität und tatsächliches Verhalten müssen scheinbar nicht notwendigerweise übereinstimmen; etwa wenn hohe Kosten für moralisches Verhalten erwartbar sind. Hier setzt sozialer Mut im Arbeitskontext an. Entsprechend
wird eine mutig agierende Führungskraft als authentisch wahrgenommen, vor allem, wenn dieses Verhalten mögliche negative soziale Konsequenzen beinhaltet.
Diskussion
Mutiges Handeln wird durch Persönlichkeit, Selbstwirksamkeit und aktuelle Emotionen geleitet und kann etwa in der Führungskräfteentwicklung gelernt werden.
Hier bieten sich narrative Formate an, die die Selbstreflexion fördern. Auch bzgl. der Entwicklung authentischer Führung verweisen erste Befunde auf die Bedeutung der persönlichen Reflexion, z.B. über die eigene Lebensgeschichte.
Theoretischer Hintergrund: Mut ist ein bislang wenig erforschtes Konstrukt. In der Forschung existieren unterschiedliche Betrachtungsweisen und Annahmen, u.a. hinsichtlich der Art des Konstruktes oder der Einflussfaktoren. Es existieren zudem, insbesondere im deutschsprachigen Raum, nur wenige Instrumente zur Messung von Mut. Diese zeigen zudem oftmals verbesserungsfähige oder unzureichende psychometrische Gütekriterien.
Fragestellung: Auf Basis einer umfangreichen Literaturrecherche ist unser Ziel, neben einem wissenschaftlichen Beitrag zur Klärung des Konstruktes, einen Selbstbeschreibungsfragebogen zur Messung von Mut im Arbeitskontext zu konstruieren, welcher den gängigen psychometrischen Gütekriterien entspricht und perspektivisch im Rahmen der Personalauswahl und Personalentwicklung eingesetzt werden könnte.
Methodik: Der Erstentwurf des Selbstbeschreibungsfragebogens zu Mut im Arbeitskontext besteht aus den Dimensionen sozialer Mut und persönlicher Mut. Zur psychometrischen Überprüfung des Fragebogenentwurfs haben wir eine Querschnittstudie in Form einer Online-Befragung durchgeführt (N = 253). Der Fokus lag auf der Itemanalyse, sowie auf der Überprüfung der Reliabilität und der Validität.
Ergebnisse: Die Reliabilität beträgt α = .92 und α = .91. Die exploratorische Faktorenanalyse stützt das 2-Faktoren-Modell. Es existieren erwartungsgemäß signifikante positive Korrelationen mit inhaltsähnlichen Konstrukten, u.a. arbeitsplatzbezogene Selbstwirksamkeit oder Extraversion und negative signifikante Korrelationen zu Neurotizismus und Psychopathie. Zusätzlich zeigen Mittelwertsvergleiche für
Geschlecht und Führungsverantwortung Ergebnisse gemäß dem aktuellen Stand der Forschung.
Diskussion Der Selbstbeschreibungsfragebogen zeigt klares Potenzial für die Nutzung im Rahmen der Personalauswahl und Personalentwicklung. Im Rahmen der Fragebogenkonstruktion ist es entscheidend das Konstrukt so eng wie möglich einzugrenzen. Die Fokussierung auf eine spezifische Form von
Mut scheint der Schlüssel zu sein, um ein den gängigen Anforderungen an psychometrische Gütekriterien entsprechendes Instrument zu entwickeln.
Desert ants Cataglyphis spec. monitor inclination and distance covered through force-based sensing in their legs. To transfer this mechanism to legged robots, artificial neural networks are used to determine the inclination angle of an experimental ramp from the motor data of the legs of a commercial hexapod walking robot. It is possible to determine the inclination angle of the ramp based on the motor data of the robot legs read out during a run. The result is independent of the weight and orientation of the robot on the ramp and hence robust enough to serve as an independent odometer.
Problem: A group of robots, called a swarm, is placed in an unknown environment and is supposed to explore it independently. The goal of the exploration is the creation of a common map.
Implementation
- Equipping six Kobuki robots with appropriate sensor technology, a large battery, a router and the Jetson board
- Setup of the Jetson-Boards with self-made ROS2 nodes and the set up mesh network
- Writing of launch files for the common start of all functions
- Reinforcement learning is used to train an AI that controls the swarm by selecting points for the robots to approach and navigating to them and navigating them there.
- Setting up a responsive website using Angular and the Bootstrap
Framework.
360° and IR- Camera Drone Flight Test: Superimposition of two data sources for Post-Fire Inspection
(2023)
This video highlights a recent flight test carried out in our cutting-edge robotics lab, unveiling the capabilities of our meticulously crafted thermal and 360° camera drone! We've ingeniously upgraded a DJI Avata with a bespoke thermal and 360° camera system. Compact yet powerful, measuring just 18 x 18 x 17 cm, this drone is strategically engineered to effortlessly navigate and deliver crucial thermal and 360° insights concurrently in post-fire or post-explosion environments.
The integration of a specialized thermal and 360° camera system enables the simultaneous capture of both data sources during a single flight. This groundbreaking approach not only reduces inspection time by half but also facilitates the seamless superimposition of thermal and 360° videos for comprehensive analysis and interpretation.
The dataset is used for 3D environment modeling, i.e. for the generation of dense 3D point clouds and 3D models with PatchMatch algorithm and neural networks. Difficult for the modeling algorithm are the reflections of rain, water and snow, as well as windows and vehicle surface. In addition, lighting conditions are constantly changing.
At the integration sprint of the E-DRZ consortium in march 2023 we improve the information captured by the human spotter (of the fire brigade) by extending him through a 360° drone i.e. the DJI Avata with an Insta360 on top of it. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The hall ist about 70 x 20 meters. When the drone is landed we have all information in 360° degree at 5.7k as you can see it in the video. Furthermore it is a perfect documentation of the deployment scenario. In the next video we will show how to spatial localize the 360° video and how to generate a 3D point cloud from it.
At the integration sprint of the E-DRZ consortium in march 2023 we improve the information captured by the human spotter (of the fire brigade) by extending him through a 360° drone. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The hall ist about 70 x 20 meters. When the drone is landed we have all information in 360° degree at 5.7k as you can see it in the video. Furthermore it is a perfect documentation of the deployment scenario. In the next video we will show how to spatial localize the 360° video and how to generate a 3D point cloud from it.
Gaussian Splatting: 3D Reconstruction of a Chemical Company After a Tank Explosion in Kempen 8/2023
(2023)
The video showcases a 3D model of a chemical company following a tank explosion that occurred on August 17, 2023, in Kempen computed with the gaussian splatting algorithm. Captured by a compact mini drone measuring 18cm x 18cm and equipped with a 360° camera, these images offer an intricate perspective of the aftermath. The computation need 29 minutes and uses 2770 images (~350 equirectangular images). After a comprehensive aerial survey and inspection of the 360° images taken within the facility, authorities confirmed that it was safe for the evacuated residents to return to their homes. See also:
https://www1.wdr.de/fernsehen/aktuelle-stunde/alle-videos/video-grosser-chemieunfall-in-kempen-100.html
ARGUS is a tool for the systematic acquisition, documentation and evaluation of drone flights in rescue operations. In addition to the very fast generation of RGB and IR orthophotos, a trained AI can automatically detect fire, people and cars in the images captured by the drones. The video gives a short introduction to the Aerial Rescue and Geospatial Utility System -- ARGUS
Check out our Github repository under
https://github.com/RoblabWh/argus/
You can find the dataset on kaggle under
https://www.kaggle.com/datasets/julienmeine/rescue-object-detection
This video features a flight test conducted in our robotics lab, showcasing a custom-built thermal camera drone. We've enhanced a DJI Avata with a specialized thermal camera system. With its compact dimensions measuring 18 x 18 x 17 cm, this drone is designed to navigate and provide critical thermal information within post-fire or post-explosion environments. For more insights, be sure to check out our previous videos on this channel.
The video showcases a 3D model of a chemical company following a tank explosion that occurred on August 17, 2023, in Kempen computed with the AI algorithm Neural Radiance Field (NeRF). Captured by a compact mini drone measuring 18cm x 18cm and equipped with a 360° camera, these images offer an intricate perspective of the aftermath. After a comprehensive aerial survey and inspection of the 360° images taken within the facility, authorities confirmed that it was safe for the evacuated residents to return to their homes. See also:
https://www1.wdr.de/fernsehen/aktuelle-stunde/alle-videos/video-grosser-chemieunfall-in-kempen-100.html
Nerf(acto) for the 3D modeling of the Computer Science building of Westfälische Hochschule GE
(2023)
The video shows a very high resolution 3D point cloud !!! of the computer science building of the University of Applied Science Gelsenkirchen. For the recording a 3 minute flight with a M30T was performed. The 105 images taken by the wide-angle camera during this flight were localized within 3 minutes using colmap and processed using Neural Radiance Fields (NeRF). The nerfacto model of Nerfstudio was trained on an Nvidia RTX 4090 for 8 minutes. Thus, a top 3D model is available after about 15 minutes.
The video shown here shows a free camera path rendered at 60 hz (Full HD).
From the 360° images of the former video (
• German rescue robotic center captured... ) we now generate the 3D point cloud. The UAV needs 3 minutes to capture the outdoor scenario and the hall from inside and outside. The 3D point cloud generation is 5x slower than the video. It uses a VSLAM algorithm to localize the k-frames (green) and with 3 k-frames it use a 360° PatchMatch algorithm implemented at a NVIDIA graphic card (CUDA) to calculated the dense point clouds.The hall ist about 70 x 20 meters.
Sperical UAV: Crash Test with 1/2 liter bottle from 2 meters
The video shows the first test of a small spherical UAV (35 cm) with 4 rotors for missions in complex environments such as buildings, caves or tunnels. The spherical design protects the vehicle's internal components and allows the UAV to roll over the ground when the environment allows. The drone can land and take off in any position and come into contact with objects without endangering the propellers and can restart even after crashes.
Ventilanordnung und Verfahren zum Kühlen eines Wärmetauschers eines Fahrzeugs [Offenlegungsschrift]
(2023)
Die Erfindung betrifft eine Ventilanordnung umfassend wenigstens ein durch Gas, insbesondere Luft, durchströmbares Ventilelement (1, 1') mit einer Öffnung, wobei der Öffnung ein Dichtelement zugeordnet ist, mit dem die Öffnung verschließbar und/oder öffenbar ist, wobei das Dichtelement durch einen Dichtflächenbereich eines Plattenelements ausgebildet ist, vorzugsweise eines in zumindest einem möglichen Betriebszustand planen Plattenelements ausgebildet ist, wobei das Dichtelement der Öffnung des wenigstens einen Ventilelements gegenüberliegt und der das Dichtelement bildende Dichtflächenbereich des Plattenelements mittels wenigstens eines Spiralarmes mit einem Randflächenbereich des Plattenelements einstückig und relativ zum Randflächenbereich beweglich verbunden ist und der wenigstens eine Spiralarm von wenigstens einer um den Dichtflächenbereich verlaufenden spiralförmigen und durch Gas durchströmbare Ausnehmung in dem Plattenelement zumindest bereichsweise umgeben ist. Die Erfindung betrifft auch ein Verfahren zum Kühlen eines Wärmetauschers in
einem Fahrzeug.
Dem Thema Nachhaltigkeit kommt zunehmend eine größere Bedeutung zu. Dies liegt nicht zuletzt daran, dass die Pflicht, einen Nachhaltigkeitsbericht zu erstellen, mit dem Jahr 2024 auch auf viele kleine und mittlere Unternehmen ausgeweitet wird. Bislang trifft dies überwiegend auf große Unternehmen zu, welche in der Regel strukturell und hinsichtlich Software sehr gut für die Bewältigung dieser Aufgabe aufgestellt sind. Anders verhält es sich jedoch bei KMU, denn in diesen fehlen meist personelle und finanzielle Ressourcen sowie geeignete softwaretechnische Unterstützungswerkzeuge. In diesem Beitrag werden die Ergebnisse einer Studie der Westfälischen Hochschule vorgestellt, die sich auf das Nachhaltigkeitsreporting von KMU fokussiert. Darüber hinaus werden Herausforderungen aus Informationssicht erläutert und mögliche Unterstützungsbedarfe für KMU diskutiert. Ein Überblick über zukünftige Ansatzpunkte und eine abschließende Diskussion runden den Artikel ab.
Mikrostrukturen auf Oberflächen bestimmen häufig deren physikalische Eigenschaften. Die üblichen Methoden zur Herstellung von mikrostrukturierten Oberflächen wie Fotolithografie sind aber teuer und aufwändig. Daher wird schon lange die schnelle und günstige Methode der Abformung genutzt, um Gegenstände mit Mikrostrukturen herzustellen
[1,2]. Zur Nutzung als Positiv für die Abformung können Oberflächen zum Beispiel mit Fotolithografie hergestellt werden, oder es können mikrostrukturierte Objekte aus der Natur verwenden werden. Mittels Fotolithografie können aber keine gewölbten Oberflächen mit Mikrostrukturen versehen werden und mikrostrukturierte Oberflächen aus der Natur sind meist eher klein. In dieser Arbeit wurde daher nach sehr kleinen mikrostrukturierten Objekten gesucht, die nebeneinander auf eine (auch gewölbte) Oberfläche aufgebracht werden können, um diese anschließend abzuformen. Die besten Resultate ergaben mit Bärlappsporen beschichtete Oberflächen als Positive. Replikate dieser Oberflächen zeigen einen um 30° höheren Kontaktwinkel als das unstrukturierte Material.