Filtern
Erscheinungsjahr
- 2017 (152)
- 2016 (131)
- 2018 (122)
- 2015 (117)
- 2006 (96)
- 2008 (85)
- 2007 (83)
- 2012 (77)
- 2014 (70)
- 2013 (66)
- 2019 (64)
- 2010 (61)
- 2023 (58)
- 2009 (57)
- 2022 (56)
- 2011 (54)
- 2021 (51)
- 2002 (46)
- 2005 (46)
- 2020 (46)
- 2003 (45)
- 2004 (41)
- 2001 (32)
- 2000 (24)
- 1996 (14)
- 1998 (13)
- 1999 (11)
- 1995 (10)
- 1997 (8)
- 1988 (5)
- 1989 (4)
- 2024 (3)
- (2)
- 1983 (2)
- 1987 (2)
- 1992 (2)
- 1994 (2)
- 1985 (1)
- 1986 (1)
- 1990 (1)
- 1993 (1)
Dokumenttyp
- Wissenschaftlicher Artikel (790)
- Teil eines Buches (Kapitel) (278)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (235)
- Buch (Monographie) (204)
- Konferenzveröffentlichung (114)
- Bericht (63)
- Rezension (27)
- Lehrmaterial (14)
- Sonstiges (14)
- Arbeitspapier (9)
- Video (5)
- Audio (3)
- Bachelorarbeit (2)
- Ausgabe (Heft) zu einer Zeitschrift (2)
- Masterarbeit (1)
- Periodikum (1)
Sprache
- Deutsch (1762) (entfernen)
Volltext vorhanden
- nein (1762) (entfernen)
Schlagworte
- Journalismus (13)
- Geldpolitik (6)
- Wirtschaftsjurist (6)
- Building Information Modeling (5)
- Juristenausbildung (5)
- Marketing (5)
- Energiepolitik (4)
- Kühllastberechnung (4)
- Sportökonomie (4)
- World Wide Web 2.0 (4)
Institut
- Wirtschaftsrecht (757)
- Institut für Internetsicherheit (206)
- Institut für Innovationsforschung und -management (182)
- Wirtschaft und Informationstechnik Bocholt (165)
- Informatik und Kommunikation (89)
- Wirtschaft Gelsenkirchen (50)
- Westfälisches Energieinstitut (42)
- Institut Arbeit und Technik (34)
- Westfälisches Institut für Gesundheit (26)
- Strategische Projekte (19)
Um CO2-frei, mit erneuerbaren Technologien, Energie umzuwandeln, zu speichern und Wasserstoff zu produzieren, bedarf es einer Technologie, welche zu hoher Leistungsdichte, Flexibilität und Effizienz fähig ist. Die Polymerelektrolytmembran-(PEM) Wasser-Elektrolyse besitzt das Potential alle diese Attribute in sich zu vereinen, weswegen sie eine Schlüsseltechnologie bei dem Umstieg auf erneuerbare Energien darstellt. Die aktuellen hohen Beladungen der Elektroden mit Katalysatormaterial für die Sauerstoffentwicklungsreaktion (OER) wie Iridium und die bisher noch ungenügend erforschten Alterungsmechanismen dieser über eine längere Nutzdauer, sind bisher die größten Herausforderungen für die großflächige industrielle Nutzung dieser Systeme. Mit diesem Hintergrund stellt sich diese Arbeit der Herausforderung die untersuchten PEM-Anoden mit reduzierter Beladung, hinsichtlich ihrer Stabilität und Alterungsmechanismen zu charakterisieren und den ersten Schritt in Richtung eines Degradationsprotokolls zu machen, um solche Elektroden künftig zu untersuchen. In der vorgegangenen Arbeit, aus welcher die hier untersuchten Proben stammen, wurden Elektroden hergestellt, indem auf ein Titansubstrat eine Supportschicht mit unterstöchiometrischem Titanoxid eingesintert wurde, auf welchem wiederum das Iridium galvanisch gepulst abgeschieden wurde. Die Beladung mit Katalysatormaterial war hier geringer als der der Stand der Technik, doch die katalytische Aktivität wurde durch die optimierte Elektrodenarchitektur erhöht. In dieser Arbeit wurden die Elektroden einem elektrochemischen Degradationsprotokoll unterzogen, welches sich aus Cyclovoltametrie (CV) gefolgt von Chronopotentiometrie (CP) und Chronoamperometrie, mit wechselnden Potentialen, zusammensetzt. Der dabei verwendete Elektrolyt wurde ebenfalls durch Filtration und Titration auf Zerfallsprodukte der Elektroden hin untersucht. Nach erfolgter Degradation wurden die Elektroden auf topografische Änderungen, mittels Rasterelektronenmikroskop (REM), Änderungen der Kristallinität, mittels Röntgendiffraktometrie (XRD) und Änderungen der Elementenkonzentration durch Röntgenfluoreszenzspektroskopie (XRF) hin untersucht.
Diese Arbeit befasst sich mit der Entwicklung einer Titanträgerlage, die anschließend als Supportstruktur für den Anodenkatalysator eines PEM-Elektrolyseurs genutzt werden soll, sowie mit der Parametrisierung der hierfür genutzten Lasersinteranlage.
Dafür wird 1 mg cm-2 unterstöchiometrisches Titanoxid (TiOx) auf eine poröse Titantransportschicht gesprüht und anschließend mit einem gepulsten Laser in Argonatmosphäre gesintert, um beide Materialien zu verbinden und die Oberfläche gezielt verändern zu können. Da die benötigte Menge des unterstöchiometrischen TiOx-Pulvers nicht abschätzbar war, wurden die Arbeiten mit kommerziell verfügbarem Titandioxid-(TiOx) Pulver durchgeführt.
Im ersten Schritt wurde ein bestehender Sprühprozess optimiert. Der Fokus lag dabei auf einem gleichmäßigen Sprühergebnis und dem reproduzierbaren Erreichen einer vorgegebenen Beladung. Die Optimierung wurde auf Titanblech und auf porösen Titansubstraten durchgeführt.
Anschließend wurde das verwendetet Lasersystem, das einen luftgekühlten Neodymdotierten Yttrium-Aluminium-Granat (Nd:YAG)-Festkörperlaser mit einer Wellenlänge von 355 nm nutzt, parametrisiert. Das Erreichen der Bearbeitungsschwelle und die maximalen Spotgrößen bei verschiedenen Diodenströmen wurden untersucht. Anschließend wurde die Frequenz erhöht, dies führte zu geringeren Einzelpulsenergien und daher zu neuen Bearbeitungsschwellen bei den unterschiedlichen Diodenströmen. Die Variierung des Vorschubs führt zu einer Änderung der eingebrachten Energie pro Fläche und wirkt sich direkt auf die Sinterdauer aus. Als letztes wurde der Einfluss des Linienabstandes untersucht. Wenn der Linienabstand unterhalb des Wertes gehalten wird, ab dem eine streifenfreie Oberfläche entsteht, wirkt die Verkleinerung des Linienabstandes wie die Verringerung des Vorschubs.
Um grünen Wasserstoff effizient als Energieträger nutzen zu können, ist die Entwicklung von haltbaren und aktiven Katalysatorschichten für Brennstoffzellen und Elektrolyseuren von äußerster Wichtigkeit. Eine große Herausforderung ist, dass konventionelle C/Pt-Katalysatoren eine starke Korrosionsreaktion durchlaufen und mit hohen Kosten verknüpft sind. Weswegen alternative Kohlenstoffträger wie Kohlenstoffnanofaser-Materialien entwickelt wurden, welche eine längere Haltbarkeit aufweisen können. In dieser Arbeit wurde die Aufbringung von Pt- und Ir-Nanopartikeln auf gesponnene Kohlenstoffnanofaser-Vliese untersucht. Es wurden erstmals in einer Flüssigkeit laserablatierte Pt-Nanoartikel mit einem PAN-Vlies versponnen oder in einem zweiten Syntheseverfahren auf ein Vlies aufgesprüht. Diese Methoden wurden mit der gepulsten galvanischen Abscheidung von Pt auf einem PAN-Vlies verglichen. Die Vliese wurden bezüglich ihres Graphitisierungsgrades, ihrer Partikelverteilung und ihrer Beständigkeit untersucht, einschließlich des Einflusses der Karbonisierungstemperatur. Die Raman- und XRF-Messungen ergaben eine Erhöhung des Graphitisierungsgrades und eine Abnahme der PAN-Reste mit dem Anstieg der Karbonisierungstemperatur. Elektrochemische Messungen und REM-Aufnahmen bestätigten die erfolgreiche Synthese von langzeitstabilen CNF-Vliesen mit einer hohen massenspezifischen aktiven Platinoberfläche und einer guten Nanopartikelverteilung. Diese Ergebnisse tragen zur Entwicklung von ökologischen und ökonomischen Katalysatorschichten bei.
Aufgrund der Energiewende und den steigenden Anforderungen an die technische Gebäudeausrüstung gewinnt der Betrieb von Wärmepumpen in Gebäuden immer mehr an Bedeutung. Inzwischen existiert eine Vielzahl an Wärmepumpen-Systemen, die unterschiedliche Vor- und Nachteile sowie Einsatzmöglichkeiten aufweisen. Sofern die Installation einer Wärmepumpe für den Wohngebäudesektor in Betracht gezogen wird, muss eruiert werden, welches System sowohl ökologisch als auch ökonomisch für das Bauvorhaben am sinnvollsten ist. Hierfür wurde eine Bewertungstool entwickelt, das den Einsatz der unterschiedlichen Wärmepumpensysteme bewertet und auch Nutzern mit wenig Expertise eine Entscheidungshilfe ermöglicht. Für eine möglichst ganzheitliche Betrachtung können verschiedene Szenarien mit Hilfe des Bewertungstools überprüft werden. Hierzu können Indikatoren wie Standortdaten, Gebäudedaten, Parameter für die Trinkwassererwärmung, die Systemtemperaturen der Heizung und die Betriebsweise der Wärmepumpe im Tool variiert werden. Die Ergebnisse des Bewertungstools zeigen, wie die unterschiedlichen Nutzungsanforderungen sich auf die Jahresarbeitszahl und den Energiebedarf auswirken. Zusätzlich werden Investitions- und Verbrauchskosten für die unterschiedlichen Szenarien abgeschätzt und berechnet. Bei der ökologischen Bewertung wird der Fokus der Betrachtung auf den TEWI-Wert gelegt, um den Einfluss von verschiedener Kältemittel im Lebenszyklus der Wärmepumpe zu berücksichtigen.
Einleitung und Fragestellung:
Abusive Supervision wird mit willentlicher Leistungszurückhaltung, verringerter Motivation, erhöhtem Stresserleben, psychosomatischen Beschwerden und Burnout bei Mitarbeitenden assoziiert. Angesichts der hohen Prävalenz destruktiver Führung bleibt bislang die Frage offen, welche
protektiven Ressourcen die genannten Zusammenhänge abpuffern.
Theoretischer Hintergrund:
Abusive Supervision bezieht sich auf das Ausmaß der feindseligen verbalen und nonverbalen Verhaltensweisen einer Führungskraft. Basierend auf dem Anforderungs- Ressourcen- Modell gehen wir davon aus, dass sich personale Ressourcen, die Mitarbeitende in der arbeitsfreien Zeit aufbauen, positiv auf den negativen Effekt zwischen destruktiver Führung und Mitarbeitergesundheit auswirken. Wir fokussieren hier die generalisierte Selbstwirksamkeitserwartung, die sich im Sinne der sozialkognitiven Theorie und zahlreichen empirischen Befunden als gesundheitsrelevante Ressource im
Umgang mit domänenübergreifenden Belastungen herausgestellt hat. Diese sollte durch Bewältigungserfahrung in der arbeitsfreien Zeit gefördert werden. Bewältigungserfahrung in der Freizeit bedeutet die Gelegenheit des Erlebens von Kompetenz und Fachwissen.
Methode:
Die Moderatoranalyse wurde im Rahmen einer Querschnittsbefragung einer anfallenden Stichprobe mit N = 305 Personen getestet. Die Variablen wurden mit der Abusive Supervision Scale (Tepper, 2000), dem REQ (Sonnentag & Fritz, 2007), und der Subskala emotionale Erschöpfung des MBI (Büssing & Perrar, 1992) gemessen.
Ergebnisse:
In dieser Studie zeigen „Mastery Experiences“ einen hypothesenkonformen Puffereffekt, nicht jedoch die anderen Erholungsstrategien, die auch mit getestet wurden. Es zeigt sich also die Tendenz, dass sich Mitarbeitende durch das Erlernen neuer Kompetenzen und den Aufbau von Selbstwirksamkeit vor den gesundheitsschädlichen Auswirkungen destruktiver Führung schützen können. Das
Korrelationsmuster deutet aber vrmtl. auch problematische Aspekte dieser Erholungsstrategie an.
Diskussion:
Limitierend muss erwähnt werden, dass wir die vermutete vermittelnde Variable Selbstwirksamkeit nicht explizit gemessen haben, und dass zukünftige Untersuchungen den Effekt in Form einer mediierten Moderation replizieren müssen.
Nachhaltigkeit von intelligenten Gebäuden - Ein Blick auf die Gesetzgebungen und Praxismöglichkeiten
(2023)
Gebäude sind durch ihre Herstellung und den Betrieb für einen erheblichen Teil der CO2-Emissionen in Europa verantwortlich. Die EU und Deutschland wollen durch milliardenschwere Maßnahmenpakete diese Emissionen bis zum Jahr 2045 (Deutschland) bzw. 2050 (EU) auf null reduzieren. Neben der Gebäudehülle als maßgeblicher Faktor für die Wärmebilanz zum Heizen und Kühlen spielt die Gebäudeautomation eine wichtige Rolle. Wie Gebäude intelligenter und smarter werden und wie sich das auf die Energieeffizienz auswirkt, soll im Folgenden betrachtet werden.
Die neue Aufgabe der internen Kommunikation: schwierige Unternehmenspersönlichkeiten erkennen
(2023)
This paper analyses the status quo of large-scale decision making combined with the possibility of blockchain as an underlying decentralized architecture to govern common pool resources in a collective manner and evaluates them according to their requirements and features (technical and non-technical). Due to an increasing trend in the distribution of knowledge and an increasing amount of information, the combination of these decentralized technologies and approaches, can not only be beneficial for consortial governance using blockchain but can also help communities to govern common goods and resources. Blockchain and its trust-enhancing properties can potenitally be a catalysator for more collaborative behavior among participants and may lead to new insights about collective action and CPRs.
Die Digitalisierung ist die Basis für das Wohlergehen unserer modernen und globalen Informations- und Wissensgesellschaft und schreitet immer schneller voran. Dabei eröffnet die Digitalisierung über alle Branchen und Unternehmensgrößen hinweg enorme Wachstumschancen und führt zu immer besseren Prozessen, die die Effizienz steigern und Kosten reduzieren. Der Digitalisierungsprozess beschleunigt auf allen Ebenen und der Wertschöpfungsanteil der IT in allen Produkten und Lösungen wird immer größer. Die möglichen Erfolgsfaktoren der Digitalisierung sind vielfältig: Die Kommunikationsgeschwindigkeiten und -qualitäten, die mit 5G- und Glasfasernetzen neue Anwendungen möglich machen. Die Smartness der Endgeräte, wie Smartwatches, Smartphones, PADs, IoT-Geräte usw., die viele neue positive Möglichkeiten mit sich bringt. Aber auch immer leistungsfähigere zentrale IT-Systeme, wie Cloud-Angebote, Hyperscaler, KI-Anwendungen usw., schaffen Innovationen mit großen Potenzialen.
Moderne Benutzerschnittstellen, wie Sprache und Gestik, vereinfachen die Bedienung für die Nutzer. Die Optimierung von Prozessen schafft ein enormes Rationalisierungspotenzial, das es zu heben gilt, um wettbewerbsfähig zu bleiben und die Wachstumschancen für unser Wohlergehen zu nutzen. Neue Möglichkeiten mit Videokonferenzen, Cloud-Anwendungen usw., im Homeoffice zu arbeiten und damit die Personenmobilität zu reduzieren und die Umwelt zu schonen.
Self-Sovereign Identity (SSI) sorgt für eine sichere und vertrauenswürdige Digitalisierung. Nutzer können selbstbestimmt ihre digitale Identität und Nachweise wie Ausweis oder Bescheinigungen an Anwendungen weitergeben. Das europäische SSI-Ökosystem löst Abhängigkeiten von Monopolisten und gibt uns die Freiheit, die digitale Zukunft souverän und zügig zu gestalten.
Web measurement studies can shed light on not yet fully understood phenomena and thus are essential for analyzing how the modern Web works. This often requires building new and adjustinng existing crawling setups, which has led to a wide variety of analysis tools for different (but related) aspects. If these efforts are not sufficiently documented, the reproducibility and replicability of the measurements may suffer—two properties that are crucial to sustainable research. In this paper, we survey 117 recent research papers to derive best practices for Web-based measurement studies and specify criteria that need to be met in practice. When applying these criteria to the surveyed papers, we find that the experimental setup and other aspects essential to reproducing and replicating results are often missing. We underline the criticality of this finding by performing a large-scale Web measurement study on 4.5 million pages with 24 different measurement setups to demonstrate the influence of the individual criteria. Our experiments show that slight differences in the experimental setup directly affect the overall results and must be documented accurately and carefully.
Momentan ist der Tenor der meisten Artikel zum Thema Künstliche Intelligenz (KI) relativ konformistisch – unverzüglich wird der Leser dahingehend sensibilisiert, dass sich hierdurch enorme Chancen auftun, die nicht ungenutzt bleiben dürfen, um international nicht abgehängt zu werden. Eher nebenbei erwähnt wird, dass trotz aller Euphorie auch die Risiken in Betracht zu ziehen seien. Da aus diesen jedoch Implikationen für die gesamte Gesellschaft resultieren können, ist es nicht nur ratsam, sondern erforderlich den Einsatz von KI in allen Bereichen – sogar im Kontext der IT-Sicherheit – unter ethischen Aspekten zu bewerten.
Als Identifikations- und Authentisierungsverfahren gewinnen biometrische Systeme immer mehr an Bedeutung. Waren sie bisher eher nur aus Filmen bekannt, wo sie für einen kleinen Mitarbeiterkreis als Zugangskontrolle zu wichtigen Räumen oder Tresoren mit kostbaren Inhalten dienten, finden biometrische Systeme immer mehr Einzug in unseren Alltag. Im elektronischem Pass ist die Speicherung biometrischer Daten bereits Pflicht. Im öffentlichen und kommerziellen Bereich werden biometrische Systeme immer mehr als zusätzliche Option angeboten, um den Zugriff auf Daten, Dienste und den Zutritt zu Räumen zu kontrollieren. Mit der Entsperrung des Smartphones sind biometrische Systeme auch im privaten Bereich angekommen. Erschwingliche Sensoren machen es sogar möglich, privat biometrische Systeme zu entwickeln.
In dieser Arbeit wird eine ganzheitliche Bedrohung für Business-Chat-Anwendungen aufgezeigt und bewertet: Chishing – Phishing über Business-Chats. Die Bedrohung hat ihren Ursprung in den Anfängen der heutigen vernetzten Welt und das zugrunde liegende Problem wird als Spoofing in seiner einfachsten Form bezeichnet. In vier von sechs Business-Chat-Tools, die in dieser Arbeit analysiert werden, ist es möglich, Anzeigenamen, Profilbilder und weitere persönliche Informationen erfolgreich zu fälschen. Dies stellt eine Bedrohung für Unternehmen dar, da es Insider-Bedrohungen Vorschub leistet und unter Umständen auch externen Entitäten dazu einlädt, sich als interne Mitarbeiterin auszugeben.
Aufgrund der zunehmenden IT-Technisierung und damit einhergehend stetigen Veränderung der Lebensbedingungen ist es notwendig, dass Menschen den IT-Lösungen und Unternehmen weiterhin und kontinuierlich vertrauen können. Denn durch den höheren Grad der IT-Technisierung steigt die Komplexität, wodurch es für den Nutzer zunehmend schwieriger wird, einzelne IT-Lösungen und deren Hintergründe zu verstehen sowie zu bewerten. Diese Veränderung hat Auswirkungen: Zum einen macht sie grundsätzlich den Nutzern – den Menschen – Angst, da gewohnte Vorgänge beständig ihre Gültigkeit verlieren. Zum anderen entsteht dadurch sowie durch die Komplexität latent das Gefühl, eine falsche Entscheidung zu treffen, weil nicht alles bedacht werden kann. So fällt dem Aspekt der Interdependenz von Vertrauen und Vertrauenswürdigkeit für deutsche und europäische Unternehmen eine hohe Bedeutung zu, insbesondere auch da sich internationale Tech-Unternehmen zunehmend weniger vertrauenswürdig im komplexen Cyber-Raum verhalten. Dies eröffnet die Möglichkeit, sich über den Aufbau von Vertrauen weltweit gegen internationale Unternehmen nachhaltig zu profilieren und positionieren. Um dieses Ziel zu realisieren, bedarf es einer strategischen Vorgehensweise – zum Beispiel auf Basis des Vertrauenswürdigkeitsmodells.
Der Plan ist klar nachvollziehbar und notwendig: Unrechtmäßig genutzte, urheberrechtlich geschützte oder gar illegale Inhalte dürfen im Internet keine Plattform zur Verbreitung finden. Bisher geschieht das durch Analyse bereits hochgeladener Inhalte. Die Europäische Union möchte aber am liebsten verhindern, dass entsprechendes Material überhaupt ins Netz gelangt. Das ruft sogenannte Upload-Filter auf den Plan, die bereits beim Versuch des Hochladens eine Blockade setzen. So weit, so gut, jedoch lassen sich durch solche Filter zu leicht auch „unliebsame“ Inhalte blockieren – Kritikern solcher Pläne scheint ein Machtmissbrauch durch Kontrolle der zur Veröffentlichung freigegebenen Inhalte vorprogrammiert. Vor diesem Hintergrund beleuchtet folgender Beitrag den Sinn, die technische Umsetzung und Machbarkeit sowie die Risiken von Upload-Filtern.
Das Internet als weltweites Netzwerk von Servern dient schon lange nicht mehr rein der Beschaffung von Informationen oder der persönlichen Kommunikation. Es werden vermehrt mediale Inhalte (Bilder, Audio- und Videodateien) in sozialen Netzwerken gepostet. Ein Großteil dieser Inhalte dient der Selbstdarstellung des Nutzers in Chroniken, Timelines, Stories etc. Allein auf Facebook werden pro Tag etwa 350 Millionen Bilder und 100 Millionen Stunden Videomaterial von Nutzern hochgeladen. Bei YouTube sind es sogar 400 Stunden Videomaterial pro Minute.
In dieser Masse von Daten sind auch unrechtmäßig genutzte, urheberrechtlich geschützte oder illegale Inhalte vorhanden. Diese unerwünschten Inhalte können mit voller Absicht oder aus Versehen und ohne kriminellen Hintergedanken hochgeladen werden. Doch egal aus welchem Grund, solche Inhalte müssen so früh wie möglich entdeckt und gelöscht werden oder sollten gar nicht erst hochgeladen werden können. Aktuelle Lösungen basieren auf einer nachträglichen Erkennung bereits hochgeladener Inhalte durch Erkennungswerkzeuge oder den Menschen.
Dieses Vorgehen ist bereits etabliert und allseits anerkannt. Eine Erweiterung durch gesetzliche Vorgaben, die das Melden, Deaktivieren und Prüfen vereinfacht und beschleunigt, wäre hier ein logischer nächster Schritt. Doch eine Prüfung und Bewertung aller Inhalte von Uploads während des Upload-Prozesses in Echtzeit wird zurzeit favorisiert und stellt eine neue, besondere Herausforderung dar.
Daher könnten in Zukunft Upload-Filter weltweit zum Einsatz kommen. Bild 1 zeigt schematisch den Unterschied zwischen einem Upload ohne Upload-Filter – links unten – und einem Upload mit Upload-Filter – links oben. Hierbei ist die Verbindung des Upload-Filters mit dem Internet nicht obligatorisch.
Ein Upload-Filter wird als eigenständige, unumgängliche Instanz in den Upload-Prozesses integriert. Seine Aufgabe besteht in der Klassifizierung der Inhalte von Uploads.
Kriterien hierfür sind vor allem das Bestehen eines Urheberschutzes für den Upload von Musik, Bildern oder Filmen, und ein eventueller Konflikt mit dem Strafrecht – zum Beispiel Kinderpornografie oder Rassismus.
Vorangetrieben wurde das Thema von der EU – genauer durch die Richtlinie (EU) 2019/790. Der hierin enthaltene Artikel 17 sieht vor, die Plattformen zu verpflichten, Lizenzverträge mit den Inhabern von Urheberrechten zu schließen. Kommen diese nicht zustande, muss die Plattform dafür sorgen, dass entsprechende Inhalte nicht hochgeladen und veröffentlicht werden können. Dieser Artikel war und ist immer noch hoch umstritten. Die EU will damit die unerlaubte Nutzung urheberrechtlich geschützter Werke auf Webseiten verhindern.
Kritiker sehen darin das freie Internet durch eine Zensurmöglichkeit in Gefahr, sollte eine diktatorische Regierung Einfluss aufdie Upload-Filter haben.
Digitalisierung gilt als die Basis für das Wohlergehen der modernen und globalen Informations- und Wissensgesellschaft. Während sie immer mehr Fahrt aufnimmt, zeigt sie gleichzeitig immer deutlicher auch ihre Kehrseite: Altbewährte Verteidigungssysteme gegen Cyberangriffe versagen zunehmend. Die Ursachen werden inzwischen sehr klar: Der klassische Perimeter löst sich dank Cloud und Mobility auf, die Angriffsflächen werden dank unzähliger neu im Netz hinzugekommener Dinge exponentiell größer, und Abwehrmaßnahmen auf herkömmliche Weise dank einer zerklüfteten, kaum integrierten Security-Landschaft immer komplexer. Zeit, die Erfolgsfaktoren der Digitalisierung zu erkennen und für das eigene Unternehmen umzusetzen. Dabei helfen vier grundsätzliche Cybersicherheitsstrategien.
Ein professionelles Digital-Risk-Management-System scannt das Clearnet, Deep Net und Darknet nach auffälligen, potenziell sensiblen Dokumenten und Informationen, um Hinweise für technische oder menschliche Sicherheitsrisiken identifizieren zu können. Die Prävention von Cyberangriffen ist nach wie vor eine entscheidend wichtige Säule, um die Digitalisierung zu meistern, Geschäftswerte langfristig zu schützen und die Anzahl an kritischen Sicherheitslücken im Unternehmen gering zu halten. Im Rahmen eines Master-Projekts hat sich das Institut für Internet-Sicherheit – if(is) mit dem Thema DRM auseinander gesetzt und insbesondere das Tool RISKREX exemplarisch analysiert.
Die Notwendigkeit von Nachweisen findet sich in sehr vielen Bereichen unseres Lebens. Zertifikate, Zeugnisse, Abnahmen, Rechnungen, Quittungen, Urkunden und Bescheinigungen über Fortbildungen sind nur einige Beispiele dafür. Durch die Digitalisierung, die mittlerweile so gut wie überall Einzug gehalten hat, und durch die Corona-Krise einen besonderen Schub erfahren hat, wird die Umsetzung solcher Nachweise heutzutage immer öfters digital statt auf Papier verwirklicht. Digitale Nachweise bieten viel Raum für die Optimierung von Prozessen und liefern gleichzeitig einige Schwachstellen, die zum Betrügen genutzt werden können.
Hier gilt es in der aktuellen Forschung und Entwicklung Lösungen zu finden, die die Sicherheit erhöhen, um somit die Vertrauenswürdigkeit der digitalen Nachweise zu steigern. Ob wir je komplett auf Papier verzichten werden können ist fraglich, jedoch kein unmögliches Ziel. Wer dieses Ziel verfolgt, muss nach und nach die Schwachstellen und Probleme der digitalen Nachweise ausmerzen.
Mit den Reisebeschränkungen in der Corona-Krise ist der Bedarf an einfach zu handhabenden Videokonferenzsystemen sprunghaft gestiegen. Krisengewinner war dabei ohne Zweifel der amerikanische Hersteller Zoom Video Communications.
Mit seinem „Zoom Meeting“-Dienst preschte das junge Unternehmen an bisherigen Branchenlieblingen vorbei. Derzeit gilt Zoom als populärstes Konferenzsystem auf dem Markt. Mitten im Aufstieg ist Zoom jedoch auch heftig in Kritik geraten: Schlechte Umsetzung des Datenschutzes, hohe Angreifbarkeit durch klaffende Schwachstellen und unzureichende Verschlüsselung lauteten die Vorwürfe. Der Hersteller zeigte sich bei der Behebung der Schwachstellen kooperativ. Doch ist jetzt alles sicher und vertrauenswürdig?
Dank der neuen Datenschutzgrundverordnung zum Schutz der Privatsphäre konnte der Sammelwahn einiger Dienstleister bereits abgemildert werden. Dennoch zeichnet sich eine immer stärkere Zentralisierung und Monopolisierung von Datenhaltern und Dienstleistern ab, vor allem in Form großer USA- oder Asien-basierter Technologieunternehmen. Im Umgang mit den eigenen Daten schreiten nur wenige Menschen bewusst zur Tat, sehen meist nur den angepriesenen Vorteil und nicht die möglichen negativen Konsequenzen für ihre Privatsphäre. Eine Self-Sovereign Identity (SSI) könnte Basis für einen fairen Datenaustausch innerhalb der Smart Economy sein und die Integration auch kleinerer Unternehmen in eine offene Infrastruktur unterstützen.
Unternehmen setzen zunehmend auf KI oder planen, dies künftig zu tun. Doch die große Euphorie bleibt in der Industrie aus guten Gründen noch aus. Zum einen fehlt die kritische Masse an Einsatzszenarien, weswegen Unsicherheit besteht, welche Handlungsfelder nachhaltige Erfolge versprechen. Zum anderen ist die Frage der Zuverlässigkeit zu klären, also wie valide KI-generierte Ergebnisse wirklich sind. Im Folgenden geht es um die Mechanismen, die gute Ergebnisse sicherstellen helfen.
2018 wurde das „DNS over HTTPS (DoH)“-Protokoll vorgestellt. Der Vorteil von DoH besteht darin, dass sich die Manipulation von DNS-Anfragen für missbräuchliche Zwecke verhindern lässt. Aus diesem Grund haben Apple, Google, Microsoft und weitere Internetfirmen DoH bereits eingebunden oder haben vor dies zu tun. Doch wie genau funktioniert die Verbesserung beim Schutz der Privatsphäre und bei der Sicherheit auf Protokollebene? Und gibt es auch Nachteile?
Die Art und Weise wie wir leben und wohnen hat sich in den vergangenen Jahren stark verändert, daraus haben sich einige neue Trends für den häuslichen Alltag ergeben. Dies ist unter anderem darauf zurückzuführen, dass das steigende Umweltbewusstsein viele Handlungsentscheidungen beeinflusst. Zudem bedingt die demografische Entwicklung, dass nach neuen Lösungsansätzen für ein eigenständiges Leben im Alter gesucht werden muss. Mittlerweile ist auch das Homeoffice so etabliert, dass daraus neue Gegebenheiten für das heutige und künftige Arbeiten von Zuhause resultieren, die technologische Veränderungen notwendig machen. Insgesamt wird ein Wandel hin zum smarten Zuhause als Chance gesehen, diesen aktuellen Herausforderungen zu begegnen. Aber was
bedeutet Smart Home tatsächlich im täglichen Leben und wie wird dieses in der Zukunft gestaltet werden? Für die Einschätzung hier gilt es, die Vorteile von Smart Home ebenso zu betrachten, wie mögliche Risiken und was berücksichtigt werden muss, um Schäden zu vermeiden. Denn nur so lässt sich eine Akzeptanz in der digitalen Zukunft zu erzielen.
Die digitale Evolution schreitet unaufhaltsam voran. Das führt auch zu der Konsequenz, dass die innovativen Technologien und somit die gesamte Internet-/IT-Infrastruktur nicht nur zunehmend vielschichtig, sondern auch intransparent wird. Daraus resultiert ein gravierendes Dilemma: gegenläufig zu dem steigenden Einsatz sinkt das Wissen über deren Hintergründe und Zusammenhänge. Dies könnte im Weiteren zu folgender Handlungsalternative führen – entweder unverhältnismäßige Ablehnung der Technologie und entsprechender Dienste oder blindes Vertrauen. Beides verhindert eine sinnvolle Nutzung neuer Anwendungen oder innovativer Dienste – auch wenn Vertrauen, im Sinne des Soziologen Niklas Luhmann, grundsätzlich positiv konnotiert ist. Denn gemäß seiner Definition ist Vertrauen ein Mechanismus der Komplexitätsreduktion – also etwas, wodurch sich das Leben leichter gestalten lässt. Doch sollte hier die Interpretation im Sinne des Philosophen und Soziologen Georg Simmel weiter präzisiert werden. Dieser sieht „Vertrauen als einen Zustand zwischen Wissen und Nicht-Wissen, als eine Hypothese künftigen Verhaltens“, auf die Menschen ihr konkretes Handeln gründen. Das zeigt die Relevanz von Vertrauen beim Einsatz innovativer Technologien und unterstreicht gleichzeitig die Notwendigkeit, dass Unternehmen vertrauenswürdig agieren müssen, damit dieses auch gerechtfertigt ist.
Serviceangebote aus der Public Cloud schießen derzeit förmlich durch die Decke. Obwohl Coroana in einzelnen Bereichen Cloud-Projekte verzögert, gehören die Digitalisierung und damit auch Cloud Services zu den eindeutigen Gewinnersn in der Krise: Doch mit der Auslagerung von IT-Services im großen Maßstab in die Cloud, nehmen auch Cyberkriminelle dieses Umfeld mehr und mehr ins Visier. Cloud Service Provider sind zwar in der Regel sicherheitstechnisch immer auf dem neuesten Stand - aber auch sie sind angreifbar. Damit Cyberkriminelle in Cloud-Umgebungen keine Chance haben, den Blicken von Unternehemen und Strafverfolgungsbehörden zu entgehen, ist eine umfassende digitale Forensik erforderlich. In der Praxis bestehen dafür jedoch große Hürden. Deshalb müssen hier jetzt schnell neue, kreative Ansätze gefunden werden.
Im Sinne der Gesellschaft : Wissenschaft als Helfer für angewandte Ethik in der KI-unterstützten IT
(2021)
Im Kontext der Digitalisierung, und insbesondere vor dem Hintergrund der dadurch prädizierten Effizienzsteigerung, wird der Künstlichen Intelligenz (KI) eine hohe Bedeutung beigemessen. Ebenso in Bezug auf die IT-Sicherheit gehen Experten davon aus, dass KI entscheidend dazu beitragen wird, die strategische Abwehr von Cyber-Angriffen zu optimieren. Doch trotz aller Euphorie sollten hier neben den Chancen auch die daraus potenziell resultierenden Risiken in Betracht gezogen werden. Denn der Einsatz von KI ist mit Implikationen verbunden, die auf die gesamte Gesellschaft wirken, von daher ist es nicht nur ratsam, sondern sogar erforderlich Anwendungen – auch im Bereich IT-Sicherheit – unter ethischen Aspekten zu analysieren und bewerten.
Sicheres und vertauenswürdiges Arbeiten im Homeoffice : aktuelle Situation der Cybersicherheitslage
(2021)
Durch die fortschreitende Digitalisierung bekommt die IT einen immer größeren Stellenwert in allen Bereichen. Dadurch steigt die Abhängigkeit von der IT und damit auch das Schadenspotenzial durch Cyberangriffe. Besonders durch die Zunahme des Arbeitsform Homeoffice sowie de Ad-hoc-Verlagerung von Beschäftigten und Geschäftsprozessen in das Homeoffice entstehen durch bisher unzureichende infrastrukturelle Sicherheitsvorkehrungen höhere Risiken. Anbieter von Video-Konferenz- und anderen Kollaborationstools haben durch den enormen Digitalisierungsschub nicht genug Zeit gehabt, ihre Systeme angemessen zu schützen. Dazu kommt, dass die Nutzung von unsicheren oder nicht ausreichend datenschutzkonformen Lösungen, wie Messenger oder sozialen Netzwerken, weitere Risiken für Unternehmen darstellen können. Welche technischen, personellen und organisatorischen Maßnahmen sind also erforderlich, um in der angespannten Lage ein sicheres Homeoffice einzurichten?
Cyber-Sicherheit spielt für unsere digitale Zukunft, sowohl im Alltag, als auch im Berufsleben, eine zentrale Rolle. Aus diesem Grund wird es immer wichtiger, dass wir ausreichend Cyber-Sicherheitsexperten haben, um die Zukunft für unsere Gesellschaft sicher und vertrauenswürdig zu gestalten. Vor diesem Hintergrund wird im folgenden Beitrag die Wichtigkeit der Cyber-Sicherheit aus verschiedenen Blickwinkeln diskutiert und die Möglichkeit der Aus- und Weiterbildung dargestellt.
Social Media Scraper im Einsatz : wie Kriminelle hoch personalisierte Phishing-Attacken vorbereiten
(2021)
Social Engineering ist ein zunehmend beliebter Angriffsvektor, der von Kriminellen verwendet wird, um erfolgreich Menschen zu manipulieren. Das Ziel ist es vordergründig Personen anzugreifen und nicht die IT-Systeme, die sie nutzen. Dazu sammeln die Kriminellen so viele Informationen wie möglich über ihre menschlichen Vorlieben und Interessen. Social-Media-Portale sind dazu eine gute Informationsquelle. In diesem Projekt wird die Vorgehensweise einer entwickelten Software beschrieben, die automatisch einen Link einer Person von offiziellen und seriösen LinkedIn-Profilen zu den privaten Accounts auf Instagram findet. Durch diese Automatisierung und die Analyse der veröffentlichten Inhalte kann eine Risikoeinschätzung gegeben werden, wie viele berufliche und persönliche Informationen für einen erfolgreicheren Social-Engineering-Angriff genutzt werden könnten.
Derzeit dominieren im Cyber-Raum zentralisierte ID-Provider, wie Google, Facebook und Apple die Verwaltung von Identitätsdaten bei sehr vielen IT-Diensten weltweit. Diese Situation schafft eine große Abhängigkeit der Gesellschaft, der Unternehmen und Nutzer in Bezug auf die Entwicklung der Digitalisierung. Außerdem nutzen die monopolistischen ID-Provider die sensiblen personenbezogenen Daten ihrer Nutzer für eigene Werbezwecke oder verkaufen sie aus ökonomischen Interessen an weitere Unternehmen. Das schwächt die Privatsphäre der Nutzer und hat Folgen bezüglich der Akzeptanz unserer digitalen Zukunft. Self-Sovereign Identity (SSI) ist ein Konzept, das die Souveränität und den Schutz der Privatsphäre der Nutzer fokussiert – dabei aber gleichzeitig deutlich einfacher und nutzerfreundlicher umgesetzt werden kann, als das bei aktuellen Identity Lösungen der Fall ist. Folgender Beitrag erklärt die Architektur, die Akteure, die Sicherheitsmechanismen und die Prinzipien von SSI.
Digitale Werte benötigen ein weitaus höheres und vor allem spezifisches Schutzniveau. Da es für Anwender mittlerweile nicht mehr einfach ist, dieses effektiv nachzuprüfen, müssen sie darauf vertrauen, dass die Hersteller alles tun, um den Anforderungen gerecht zu werden. Andererseits sind die Hersteller darauf angewiesen, dass Anwender ihnen Vertrauen gewähren und ihre IT-/Sicherheits-Lösungen tatsächlich nutzen. Um eine hohe Vertrauenswürdigkeit zu erreichen können, müssen Unternehmen Vorgehensweisen wählen, die einigen bestimmten Kriterien erfüllen.
Im Prinzip wollen und müssen Menschen auch in der digitalen Welt vertrauen (können) – nicht zuletzt, um grundsätzlich handlungsfähig zu sein. Aber auch, weil teilweise gar keine andere Wahl besteht, als einfach zu vertrauen, da die IT-Technologien mittlerweile nicht nur so allgegenwärtig, sondern auch so komplex geworden sind, dass der Nutzer sie vielfach gar nicht mehr einschätzen kann. Daher ist es – insbesondere im Sinne der Digitalisierung – wichtig und auch notwendig, dass Nutzern verschiedene Alternativen zur Verfügung stehen, anhand derer sie individuell die Vertrauenswürdigkeit von Unternehmen sowie IT-Lösungen – also jeglicher Produkte, Anwendungen und Dienste – beurteilen können. Aufgrund der steigenden Zahl an Sicherheitsvorfällen in der digitalen Welt sollte speziell die Cyber-Sicherheit dabei im Fokus stehen.
Digitale Sprachassistenten wie Alexa, Google, Siri & Co erfreuen sich auch in Deutschland hoher Beliebtheit - Tendenz steigend. Bei allen genannten und vielen weiteren Systemen handelt es sich um cloudbasierte Architekturen - die gesprochenen Befehle werden in Rechenzentren rund um den Globus übertragen und dort interpretiert. Aus Sicht des Datenschutzes und der Privatsphäre ist das problematisch. Auch die Abhängigkeit zu Cloud-Anbietern kann zu Schwierigkeiten führen, z.B. wenn sich die Sprachassistenten oder Smart-Home-Geräte nicht mehr nutzen lassen, weil der Anbieter seinen Dienst einstellt. Im Rahmen eines internen Forschungsprojekts hat das Institut für Internet-Sicherheit nun einen "dezentralen" Sprachassistenten entwickelt, der im Offline-Betrieb operiert und die Sprachdaten lokal auf dem Gerät verarbeitet, ohne sie in eine entfernte Cloud übertragen zu müssen.
Supply-Chain-Angriffe sind eine akute Bedrohung für jedes Unternehmen. Einen Softwarelieferanten auszunutzen, um eine große Anzahl seiner Kunden zu erreichen, ist eine ausgeklügelte und erfolgreiche Methode aktueller Hacker. Die Spezialisierung der Unternehmen auf ihre Kernkompetenzen, die Globalisierung der Lieferketten (im folgendem wird Supply Chain und Lieferkette synonym verwendet), sowie die Digitalisierung entlang der Wertschöpfungskette sind nur einige Beispiele, wieso Angreifer vermehrt die Vertrauensbeziehung zwischen Kunden und Lieferanten verstärkt für Angriffe ausnutzen. Dieser Artikel erläutert Cyber-Angriffe in Bezug auf eine Supply Chain und zeigt Sicherheitsmechanismen für die erfolgreiche Verteidigung.
Daten sind heute die Schlüsselkomponente in der Wertschöpfung. Ihre sichere und vertrauenswürdige Verarbeitung sind daher essenziell - auch in Cloud-Infrastrukturen, die per se erst mal nicht vertrauenswürdig sind. Während die Daten und der Code der sie verarbeitenden Anwendung hier in gespeicherter Form und bei der Übertragung in der Regel verschlüsselt sind, liegt beides während der Verarbeitung von Anwendungen in einer Cloud-Infrastruktur im Klartext vor und ist somit angreifbar. Auf der Basis von Sicherheitsfunktionen der CPU sorg Confidential Computing dafür, dass Anwendungen mit Code und Daten auf Cloud-Infrastrukturen in isolierter und verschlüsselter Form in sicheren Enklaven verarbeitet werden. Die Inhalte der Anwendung in einer Enklave werden so vor unbefugten Zugriff durch Systemadministratoren und weiteren Personen, die prinzipiell Zugriff auf die Cloud-Infrastruktur haben, geschützt. Technik unterstützt auf diese Weise die sichere und vertrauenswürdige Umsetzung des Datenschutzes.
Das Internet hat sich als globale Kommunikations-, Informations-, Commerce- und Businessinfrastruktur fest in der Gesellschaft etabliert. Mit jedem Grad Zuwachs bei der Digitalisierung wird das Leben einfacher und schneller - aber auch gefährlicher. Die konkrete Gefährlichkeit bleibt dabei bislang oft ein Mysterium - Strategien für die IT-Sicherheit müssen auf Basis von Annahmen und Erfahrungen entwickelt werden. Internet-Kennzahlen und deren systematische Auswertung sollen nun dabei helfen, Probleme, Risiken und Schwachstellen als Trend zu erkennen, um Sicherheitsstrategien proaktiv fokussierter zu gestalten. Auch der Stand der IT-Sicherheit lässt sich durch Messung der Kennzahlen ermitteln und bewerten. Internet-Kennzahlen werden von lokalen und globalen Anbietern bereitgestellt.
Die ehemals vom Grundsatz her separierten Welten der Information Technology (IT) und Operational Technology (OT) wachsen im Zuge der Digitalisierung vermehrt zusammen. Doch was ist dabei aus Sicht der IT/IT-Sicherheit zu berücksichtigen und wem kann oder muss die letztendliche Verantwortung für eine durchgängige IT-Sicherheit des Unternehmens obliegen?
Eine nicht ganz leicht zu klärende Aufgabenstellung – insbesondere mit Blick auf den Aspekt, dass die Schutzziele der beiden Unternehmensbereiche nicht einheitlich sind.
Damit die medizinische Versorgung weiterhin flächendeckend gewährleistet werden kann und den explodierenden Kosten Einhalt geboten wird, muss ein Gesundheitswesen der Zukunft auf digitalen Technologien basieren. Die Kritikalität der entsprechenden Health-Services ruft Cyber-Sicherheit auf den Plan – die Sensibilität der im Gesundheitswesen verarbeiteten Daten den Datenschutz. Ein zukunftsfähiges Gesundheitswesen braucht einen stringenten Rechtsrahmen, eine moderne cloudbasierte Telematikinfrastruktur, die je nach Sicherheitsbedarf in verschiedenen Modellen umgesetzt werden kann, einen restriktiven Umgang mit globalen Public-Cloud-Providern, eine besonders gesicherte, leistungsstarke Forschungsdateninfrastruktur – etwa zur Optimierung von KI-Fähigkeiten, sichere Gesundheitsanwendungen und einiges mehr. Hier ein Ausblick.
Künstliche Intelligenz (KI) ermöglicht es, komplexe Zusammenhänge und Muster aus großen Datenmengen zu extrahieren und in einem statistischen Modell zu erfassen. Dieses KI-Modell kann anschließend Aussagen über zukünftig auftretende Daten treffen. Mit dem zunehmenden Einsatz von Künstlicher Intelligenz rücken solche Systeme auch immer mehr ins Visier von Cyberkriminellen. Der Artikel beschreibt umfassend Angriffsszenarien und mögliche Abwehrmaßnahmen.