Refine
Year of publication
Document Type
- Article (209)
- Conference Proceeding (59)
- Part of a Book (12)
- Book (11)
- Report (4)
- Contribution to a Periodical (2)
- Working Paper (1)
Keywords
- MITRE (1)
- OSINT (1)
- advanced persistent threats (1)
- blockchain (1)
- bloxberg (1)
- consent banner (1)
- cookie banner (1)
- cookies (1)
- cyber kill chain (1)
- dlt (1)
Institute
Internet Sicherheit
(2015)
Internet Situation Awareness
(2008)
Internetstatistik
(2005)
IT-Risiken bei Netzwerk Videoüberwachung. Kamera-Anbieter denken bisher kaum an die Gefährdung
(2008)
In der modernen Informationsgesellschaft nehmen Online-Transaktionen einen wichtigen Teil unseres täglichen Lebens ein. In dieser Arbeit stellen wir ein nutzerzentriertes Protokoll vor, dass es Nutzern erlaubt vertrauenswürdige und sichere Transkationen durchzuführen selbst wenn sie ein nicht vertrau-enswürdiges oder mit Schadsoftware infiziertes Gerät nutzen. Das Protokoll nutzt einen CAPTCHA-artigen Ansatz, der verhindert, dass ein Angreifer eine Transaktion verändert ohne, dass Server oder Client dies bemerken. Dazu stellen wir dem Nutzer eine Aufgabe die kontextsensitive Informationen der Transaktion enthält. Die Aufgabe wird so gestellt, dass sie einfach von Menschen lösbar ist aber nur schwer automatisiert gelöst werden kann. Zur Evaluation des Systems haben wir eine Nutzerstudie (n=30) durchgeführt und berechnet mit welcher Wahrscheinlichkeit ein Angreifer erfolgreich die richtige Antwort auf die Frage erraten kann. Wir zeigen, dass ein Großteil der Transaktionen (> 94%) geschützt werden kann während das System selbst nutzbar bleibt.
Der Plan ist klar nachvollziehbar und notwendig: Unrechtmäßig genutzte, urheberrechtlich geschützte oder gar illegale Inhalte dürfen im Internet keine Plattform zur Verbreitung finden. Bisher geschieht das durch Analyse bereits hochgeladener Inhalte. Die Europäische Union möchte aber am liebsten verhindern, dass entsprechendes Material überhaupt ins Netz gelangt. Das ruft sogenannte Upload-Filter auf den Plan, die bereits beim Versuch des Hochladens eine Blockade setzen. So weit, so gut, jedoch lassen sich durch solche Filter zu leicht auch „unliebsame“ Inhalte blockieren – Kritikern solcher Pläne scheint ein Machtmissbrauch durch Kontrolle der zur Veröffentlichung freigegebenen Inhalte vorprogrammiert. Vor diesem Hintergrund beleuchtet folgender Beitrag den Sinn, die technische Umsetzung und Machbarkeit sowie die Risiken von Upload-Filtern.
Das Internet als weltweites Netzwerk von Servern dient schon lange nicht mehr rein der Beschaffung von Informationen oder der persönlichen Kommunikation. Es werden vermehrt mediale Inhalte (Bilder, Audio- und Videodateien) in sozialen Netzwerken gepostet. Ein Großteil dieser Inhalte dient der Selbstdarstellung des Nutzers in Chroniken, Timelines, Stories etc. Allein auf Facebook werden pro Tag etwa 350 Millionen Bilder und 100 Millionen Stunden Videomaterial von Nutzern hochgeladen. Bei YouTube sind es sogar 400 Stunden Videomaterial pro Minute.
In dieser Masse von Daten sind auch unrechtmäßig genutzte, urheberrechtlich geschützte oder illegale Inhalte vorhanden. Diese unerwünschten Inhalte können mit voller Absicht oder aus Versehen und ohne kriminellen Hintergedanken hochgeladen werden. Doch egal aus welchem Grund, solche Inhalte müssen so früh wie möglich entdeckt und gelöscht werden oder sollten gar nicht erst hochgeladen werden können. Aktuelle Lösungen basieren auf einer nachträglichen Erkennung bereits hochgeladener Inhalte durch Erkennungswerkzeuge oder den Menschen.
Dieses Vorgehen ist bereits etabliert und allseits anerkannt. Eine Erweiterung durch gesetzliche Vorgaben, die das Melden, Deaktivieren und Prüfen vereinfacht und beschleunigt, wäre hier ein logischer nächster Schritt. Doch eine Prüfung und Bewertung aller Inhalte von Uploads während des Upload-Prozesses in Echtzeit wird zurzeit favorisiert und stellt eine neue, besondere Herausforderung dar.
Daher könnten in Zukunft Upload-Filter weltweit zum Einsatz kommen. Bild 1 zeigt schematisch den Unterschied zwischen einem Upload ohne Upload-Filter – links unten – und einem Upload mit Upload-Filter – links oben. Hierbei ist die Verbindung des Upload-Filters mit dem Internet nicht obligatorisch.
Ein Upload-Filter wird als eigenständige, unumgängliche Instanz in den Upload-Prozesses integriert. Seine Aufgabe besteht in der Klassifizierung der Inhalte von Uploads.
Kriterien hierfür sind vor allem das Bestehen eines Urheberschutzes für den Upload von Musik, Bildern oder Filmen, und ein eventueller Konflikt mit dem Strafrecht – zum Beispiel Kinderpornografie oder Rassismus.
Vorangetrieben wurde das Thema von der EU – genauer durch die Richtlinie (EU) 2019/790. Der hierin enthaltene Artikel 17 sieht vor, die Plattformen zu verpflichten, Lizenzverträge mit den Inhabern von Urheberrechten zu schließen. Kommen diese nicht zustande, muss die Plattform dafür sorgen, dass entsprechende Inhalte nicht hochgeladen und veröffentlicht werden können. Dieser Artikel war und ist immer noch hoch umstritten. Die EU will damit die unerlaubte Nutzung urheberrechtlich geschützter Werke auf Webseiten verhindern.
Kritiker sehen darin das freie Internet durch eine Zensurmöglichkeit in Gefahr, sollte eine diktatorische Regierung Einfluss aufdie Upload-Filter haben.
Digitale Sprachassistenten wie Alexa, Google, Siri & Co erfreuen sich auch in Deutschland hoher Beliebtheit - Tendenz steigend. Bei allen genannten und vielen weiteren Systemen handelt es sich um cloudbasierte Architekturen - die gesprochenen Befehle werden in Rechenzentren rund um den Globus übertragen und dort interpretiert. Aus Sicht des Datenschutzes und der Privatsphäre ist das problematisch. Auch die Abhängigkeit zu Cloud-Anbietern kann zu Schwierigkeiten führen, z.B. wenn sich die Sprachassistenten oder Smart-Home-Geräte nicht mehr nutzen lassen, weil der Anbieter seinen Dienst einstellt. Im Rahmen eines internen Forschungsprojekts hat das Institut für Internet-Sicherheit nun einen "dezentralen" Sprachassistenten entwickelt, der im Offline-Betrieb operiert und die Sprachdaten lokal auf dem Gerät verarbeitet, ohne sie in eine entfernte Cloud übertragen zu müssen.
The European General Data Protection Regulation (GDPR), which went into effect in May 2018, brought new rules for the processing of personal data that affect many business models, including online advertising. The regulation’s definition of personal data applies to every company that collects data from European Internet users. This includes tracking services that, until then, argued that they were collecting anonymous information and data protection requirements would not apply to their businesses.
Previous studies have analyzed the impact of the GDPR on the prevalence of online tracking, with mixed results. In this paper, we go beyond the analysis of the number of third parties and focus on the underlying information sharing networks between online advertising companies in terms of client-side cookie syncing. Using graph analysis, our measurement shows that the number of ID syncing connections decreased by around 40 % around the time the GDPR went into effect, but a long-term analysis shows a slight rebound since then. While we can show a decrease in information sharing between third parties, which is likely related to the legislation, the data also shows that the amount of tracking, as well as the general structure of cooperation, was not affected. Consolidation in the ecosystem led to a more centralized infrastructure that might actually have negative effects on user privacy, as fewer companies perform tracking on more sites.
Im Prinzip wollen und müssen Menschen auch in der digitalen Welt vertrauen (können) – nicht zuletzt, um grundsätzlich handlungsfähig zu sein. Aber auch, weil teilweise gar keine andere Wahl besteht, als einfach zu vertrauen, da die IT-Technologien mittlerweile nicht nur so allgegenwärtig, sondern auch so komplex geworden sind, dass der Nutzer sie vielfach gar nicht mehr einschätzen kann. Daher ist es – insbesondere im Sinne der Digitalisierung – wichtig und auch notwendig, dass Nutzern verschiedene Alternativen zur Verfügung stehen, anhand derer sie individuell die Vertrauenswürdigkeit von Unternehmen sowie IT-Lösungen – also jeglicher Produkte, Anwendungen und Dienste – beurteilen können. Aufgrund der steigenden Zahl an Sicherheitsvorfällen in der digitalen Welt sollte speziell die Cyber-Sicherheit dabei im Fokus stehen.
Mit Sicherheit mobil. Lagebild zur Bedrohung der Unternehmenssicherheit durch Smartphones & Co.
(2017)
Digitale Werte benötigen ein weitaus höheres und vor allem spezifisches Schutzniveau. Da es für Anwender mittlerweile nicht mehr einfach ist, dieses effektiv nachzuprüfen, müssen sie darauf vertrauen, dass die Hersteller alles tun, um den Anforderungen gerecht zu werden. Andererseits sind die Hersteller darauf angewiesen, dass Anwender ihnen Vertrauen gewähren und ihre IT-/Sicherheits-Lösungen tatsächlich nutzen. Um eine hohe Vertrauenswürdigkeit zu erreichen können, müssen Unternehmen Vorgehensweisen wählen, die einigen bestimmten Kriterien erfüllen.
Die Digitalisierung ist die Basis für das Wohlergehen unserer modernen und globalen Informations- und Wissensgesellschaft und schreitet immer schneller voran. Dabei eröffnet die Digitalisierung über alle Branchen und Unternehmensgrößen hinweg enorme Wachstumschancen und führt zu immer besseren Prozessen, die die Effizienz steigern und Kosten reduzieren. Der Digitalisierungsprozess beschleunigt auf allen Ebenen und der Wertschöpfungsanteil der IT in allen Produkten und Lösungen wird immer größer. Die möglichen Erfolgsfaktoren der Digitalisierung sind vielfältig: Die Kommunikationsgeschwindigkeiten und -qualitäten, die mit 5G- und Glasfasernetzen neue Anwendungen möglich machen. Die Smartness der Endgeräte, wie Smartwatches, Smartphones, PADs, IoT-Geräte usw., die viele neue positive Möglichkeiten mit sich bringt. Aber auch immer leistungsfähigere zentrale IT-Systeme, wie Cloud-Angebote, Hyperscaler, KI-Anwendungen usw., schaffen Innovationen mit großen Potenzialen.
Moderne Benutzerschnittstellen, wie Sprache und Gestik, vereinfachen die Bedienung für die Nutzer. Die Optimierung von Prozessen schafft ein enormes Rationalisierungspotenzial, das es zu heben gilt, um wettbewerbsfähig zu bleiben und die Wachstumschancen für unser Wohlergehen zu nutzen. Neue Möglichkeiten mit Videokonferenzen, Cloud-Anwendungen usw., im Homeoffice zu arbeiten und damit die Personenmobilität zu reduzieren und die Umwelt zu schonen.
Die Beschaffung von IT-Sicherheitslösungen ist für Unternehmen oft eine Herausforderung. So führt die Komplexität der Systeme dazu, dass die für eine Kaufentscheidung erforderlichen Kompetenzen und Informationen nicht immer vorhanden sind. Grundvoraussetzung für eine erfolgreiche Geschäftsbeziehung ist deswegen ein valides Vertrauensverhältnis zwischen Anwender- und Herstellerunternehmen. Das setzt jedoch voraus, dass die Herstellerunternehmen vertrauenswürdig auftreten und im Interesse ihrer Kunden handeln. Eine Studie der Westfälischen Hochschule Gelsenkirchen hat untersucht, welche Vertrauenskriterien Kunden bei Herstellern und deren Produkten wichtig sind. So ist zum Beispiel ein Hersteller bei den Kunden unten durch, wenn er zu viele Buzzwords nutzt.
Measurement studies are essential for research and industry alike to understand the Web’s inner workings better and help quantify specific phenomena. Performing such studies is demanding due to the dynamic nature and size of the Web. An experiment’s careful design and setup are complex, and many factors might affect the results. However, while several works have independently observed differences in
the outcome of an experiment (e.g., the number of observed trackers) based on the measurement setup, it is unclear what causes such deviations. This work investigates the reasons for these differences by visiting 1.7M webpages with five different measurement setups. Based on this, we build ‘dependency trees’ for each page and cross-compare the nodes in the trees. The results show that the measured trees differ considerably, that the cause of differences can be attributed to specific nodes, and that even identical measurement setups can produce different results.
Papierloses Krankenhaus
(2005)
Advanced Persistent Threats (APTs) are one of the main challenges in modern computer security. They are planned and performed by well-funded, highly-trained and often state-based actors. The first step of such an attack is the reconnaissance of the target. In this phase, the adversary tries to gather as much intelligence on the victim as possible to prepare further actions. An essential part of this initial data collection phase is the identification of possible gateways to intrude the target.
In this paper, we aim to analyze the data that threat actors can use to plan their attacks. To do so, we analyze in a first step 93 APT reports and find that most (80 %) of them begin by sending phishing emails to their victims. Based on this analysis, we measure the extent of data openly available of 30 entities to understand if and how much data they leak that can potentially be used by an adversary to craft sophisticated spear phishing emails. We then use this data to quantify how many employees are potential targets for such attacks. We show that 83 % of the analyzed entities leak several attributes of uses, which can all be used to craft sophisticated phishing emails.
Web measurement studies can shed light on not yet fully understood phenomena and thus are essential for analyzing how the modern Web works. This often requires building new and adjustinng existing crawling setups, which has led to a wide variety of analysis tools for different (but related) aspects. If these efforts are not sufficiently documented, the reproducibility and replicability of the measurements may suffer—two properties that are crucial to sustainable research. In this paper, we survey 117 recent research papers to derive best practices for Web-based measurement studies and specify criteria that need to be met in practice. When applying these criteria to the surveyed papers, we find that the experimental setup and other aspects essential to reproducing and replicating results are often missing. We underline the criticality of this finding by performing a large-scale Web measurement study on 4.5 million pages with 24 different measurement setups to demonstrate the influence of the individual criteria. Our experiments show that slight differences in the experimental setup directly affect the overall results and must be documented accurately and carefully.
Security Analysis of OpenID, followed by a Reference implementation of an nPA-based OpenID Provider
(2017)
In diesem Artikel wird ein Alert-System für das Online-Banking vorgestellt, welches das Schutzniveau im Kontext von Social-Engineering-Angriffen sowohl clientseitig als auch serverseitig erhöhen soll. Hierfür wird durch das Alert-System ein kontinuierliches Lagebild über die aktuelle Gefahrenlage beim Online-Banking erstellt. Bei konkretem Bedarf wird der Nutzer punktuell vor aktuellen Betrugsmaschen gewarnt und zielgerichtet über Schutzvorkehrungen und Handlungsempfehlungen informiert. Für die Berechnung der aktuellen Gefahrenlage wurden unterschiedliche off-the-shelf-Algorithmen des Maschinellen Lernens verwendet und miteinander verglichen. Die Effektivität des Alert-Systems wurde anhand von echten Betrugsfällen evaluiert, die bei einer Bankengruppe in Deutschland aufgetreten sind. Zusätzlich wurde die Usability des Systems in einer Nutzerstudie mit 50 Teilnehmern untersucht. Die ersten Ergebnisse zeigen, dass die verwendeten Verfahren dazu geeignet sind, die Gefahrenlage im Online-Banking zu beurteilen und dass ein solches Alert-System auf hohe Akzeptanz bei Nutzern stößt.
Self-Sovereign Identity (SSI) sorgt für eine sichere und vertrauenswürdige Digitalisierung. Nutzer können selbstbestimmt ihre digitale Identität und Nachweise wie Ausweis oder Bescheinigungen an Anwendungen weitergeben. Das europäische SSI-Ökosystem löst Abhängigkeiten von Monopolisten und gibt uns die Freiheit, die digitale Zukunft souverän und zügig zu gestalten.
Dank der neuen Datenschutzgrundverordnung zum Schutz der Privatsphäre konnte der Sammelwahn einiger Dienstleister bereits abgemildert werden. Dennoch zeichnet sich eine immer stärkere Zentralisierung und Monopolisierung von Datenhaltern und Dienstleistern ab, vor allem in Form großer USA- oder Asien-basierter Technologieunternehmen. Im Umgang mit den eigenen Daten schreiten nur wenige Menschen bewusst zur Tat, sehen meist nur den angepriesenen Vorteil und nicht die möglichen negativen Konsequenzen für ihre Privatsphäre. Eine Self-Sovereign Identity (SSI) könnte Basis für einen fairen Datenaustausch innerhalb der Smart Economy sein und die Integration auch kleinerer Unternehmen in eine offene Infrastruktur unterstützen.
Selfpass: Mit Wearables gegen Depressionen. Sichere und vertrauenswürdige Apps oberstes Gebot
(2018)
Sicheres und vertauenswürdiges Arbeiten im Homeoffice : aktuelle Situation der Cybersicherheitslage
(2021)
Durch die fortschreitende Digitalisierung bekommt die IT einen immer größeren Stellenwert in allen Bereichen. Dadurch steigt die Abhängigkeit von der IT und damit auch das Schadenspotenzial durch Cyberangriffe. Besonders durch die Zunahme des Arbeitsform Homeoffice sowie de Ad-hoc-Verlagerung von Beschäftigten und Geschäftsprozessen in das Homeoffice entstehen durch bisher unzureichende infrastrukturelle Sicherheitsvorkehrungen höhere Risiken. Anbieter von Video-Konferenz- und anderen Kollaborationstools haben durch den enormen Digitalisierungsschub nicht genug Zeit gehabt, ihre Systeme angemessen zu schützen. Dazu kommt, dass die Nutzung von unsicheren oder nicht ausreichend datenschutzkonformen Lösungen, wie Messenger oder sozialen Netzwerken, weitere Risiken für Unternehmen darstellen können. Welche technischen, personellen und organisatorischen Maßnahmen sind also erforderlich, um in der angespannten Lage ein sicheres Homeoffice einzurichten?