Filtern
Erscheinungsjahr
- 2019 (82) (entfernen)
Dokumenttyp
Sprache
- Deutsch (82) (entfernen)
Schlagworte
- Building Information Modeling (4)
- Sportökonomie (3)
- Berufsorientierung (2)
- Bildungsübergang (2)
- Bionik (2)
- Deutschlandwetter (2)
- Digitalisierung (2)
- Energiepolitik (2)
- Großveranstaltung (2)
- Industry Foundation Classes (2)
Der Plan ist klar nachvollziehbar und notwendig: Unrechtmäßig genutzte, urheberrechtlich geschützte oder gar illegale Inhalte dürfen im Internet keine Plattform zur Verbreitung finden. Bisher geschieht das durch Analyse bereits hochgeladener Inhalte. Die Europäische Union möchte aber am liebsten verhindern, dass entsprechendes Material überhaupt ins Netz gelangt. Das ruft sogenannte Upload-Filter auf den Plan, die bereits beim Versuch des Hochladens eine Blockade setzen. So weit, so gut, jedoch lassen sich durch solche Filter zu leicht auch „unliebsame“ Inhalte blockieren – Kritikern solcher Pläne scheint ein Machtmissbrauch durch Kontrolle der zur Veröffentlichung freigegebenen Inhalte vorprogrammiert. Vor diesem Hintergrund beleuchtet folgender Beitrag den Sinn, die technische Umsetzung und Machbarkeit sowie die Risiken von Upload-Filtern.
Das Internet als weltweites Netzwerk von Servern dient schon lange nicht mehr rein der Beschaffung von Informationen oder der persönlichen Kommunikation. Es werden vermehrt mediale Inhalte (Bilder, Audio- und Videodateien) in sozialen Netzwerken gepostet. Ein Großteil dieser Inhalte dient der Selbstdarstellung des Nutzers in Chroniken, Timelines, Stories etc. Allein auf Facebook werden pro Tag etwa 350 Millionen Bilder und 100 Millionen Stunden Videomaterial von Nutzern hochgeladen. Bei YouTube sind es sogar 400 Stunden Videomaterial pro Minute.
In dieser Masse von Daten sind auch unrechtmäßig genutzte, urheberrechtlich geschützte oder illegale Inhalte vorhanden. Diese unerwünschten Inhalte können mit voller Absicht oder aus Versehen und ohne kriminellen Hintergedanken hochgeladen werden. Doch egal aus welchem Grund, solche Inhalte müssen so früh wie möglich entdeckt und gelöscht werden oder sollten gar nicht erst hochgeladen werden können. Aktuelle Lösungen basieren auf einer nachträglichen Erkennung bereits hochgeladener Inhalte durch Erkennungswerkzeuge oder den Menschen.
Dieses Vorgehen ist bereits etabliert und allseits anerkannt. Eine Erweiterung durch gesetzliche Vorgaben, die das Melden, Deaktivieren und Prüfen vereinfacht und beschleunigt, wäre hier ein logischer nächster Schritt. Doch eine Prüfung und Bewertung aller Inhalte von Uploads während des Upload-Prozesses in Echtzeit wird zurzeit favorisiert und stellt eine neue, besondere Herausforderung dar.
Daher könnten in Zukunft Upload-Filter weltweit zum Einsatz kommen. Bild 1 zeigt schematisch den Unterschied zwischen einem Upload ohne Upload-Filter – links unten – und einem Upload mit Upload-Filter – links oben. Hierbei ist die Verbindung des Upload-Filters mit dem Internet nicht obligatorisch.
Ein Upload-Filter wird als eigenständige, unumgängliche Instanz in den Upload-Prozesses integriert. Seine Aufgabe besteht in der Klassifizierung der Inhalte von Uploads.
Kriterien hierfür sind vor allem das Bestehen eines Urheberschutzes für den Upload von Musik, Bildern oder Filmen, und ein eventueller Konflikt mit dem Strafrecht – zum Beispiel Kinderpornografie oder Rassismus.
Vorangetrieben wurde das Thema von der EU – genauer durch die Richtlinie (EU) 2019/790. Der hierin enthaltene Artikel 17 sieht vor, die Plattformen zu verpflichten, Lizenzverträge mit den Inhabern von Urheberrechten zu schließen. Kommen diese nicht zustande, muss die Plattform dafür sorgen, dass entsprechende Inhalte nicht hochgeladen und veröffentlicht werden können. Dieser Artikel war und ist immer noch hoch umstritten. Die EU will damit die unerlaubte Nutzung urheberrechtlich geschützter Werke auf Webseiten verhindern.
Kritiker sehen darin das freie Internet durch eine Zensurmöglichkeit in Gefahr, sollte eine diktatorische Regierung Einfluss aufdie Upload-Filter haben.
Der Beitrag geht (1) auf zentrale Aspekte neoliberaler Wirtschaftspolitik ein, (2) damit verbundene branchenspezifische Strategien und Ideologiemuster sowie (3) auf individuell übernommene Denkfiguren zur marktförmigen Selbstoptimierung. Abschließend werden (4) Alternativen auf kommunaler, wirtschafts- und sportpolitischer Ebene aufgezeigt.
Die Hauptfragen des Beitrags konzentrieren sich auf die Fähigkeit von Städten Großveranstaltungen durchzuführen und welche Zielgruppen konzeptionell im Fokus stehen. Einleitend werden dazu ausgewählte makroökonomischer Daten aufgezeigt und der wirtschaftspolitische Wandel zu einer marktfundamentalen Wirtschaftspolitik verdeutlicht, der sich als „Unternehmen Stadt“ auch im politisch-administrativen Bereich der Kommunen etabliert hat. Im Kontext dieser Logik werden Großveranstaltungen zunehmend in die kommunale Standortpolitik als weicher Standortfaktor für High-Potentials und touristische Zielgruppen eingebunden. Dadurch kommt es zu Funktionalisierungen, Vereinnahmungen von Großveranstaltungen für Partialinteressen, die den zu befördernden kulturellen Kerngedanken bisweilen ignorieren. Die stark anwachsende Zahl an Sportgroßveranstaltungen und eine ungleiche Verteilung der finanziellen Risiken zwischen Veranstaltern und Ausrichtern stoßen seit einigen Jahren auf wachsende Kritik, was durch die ablehnenden Voten der städtischen Bevölkerung zur Bewerbung um Olympische Spiele deutlich wurde. Die Durchführung von Großveranstaltungen bedarf inzwischen einer weitaus umfassenderen und intensiveren konzeptionellen Begründung und vor allem diskursiven Legitimation. Durch die zunehmende Spreizung zwischen schuldenfreien, prosperierenden Städten sowie finanziell prekär ausgestatteten Kommunen geraten jedoch die gesellschaftlichen Akteure nahezu unausweichlich in Konflikte um eine Diskussion der Verwendung öffentlicher Mittel. Notwendig wird eine faire Risikoverteilung zwischen Veranstaltern und Ausrichtern sowie eine Vermeidung von Überkapazitäten. Auf kommunaler Ebene bieten weder Austerität noch (ruinöse) Städtekonkurrenz eine langfristige Lösung. Vielmehr ist eine kritische Diskussion über die derzeitige Mittelverteilung und -herkunft der öffentlichen Trägerschaften für eine annähernd gleichwertig ausgestaltete Daseinsvorsorge und damit auch touristische Attraktivität zu führen.
Das härteste Wettbewerbsumfeld ist die Natur. Ein hoher Selektionsdruck führt dort zu Organismen, die mit geringem Aufwand besser an die herrschenden Bedingungen angepasst sind, als die Wettbewerber. Die hierzu verwendeten Strategien zum Materialeinsatz sind sehr effizient und als Strukturoptimierung abstrahiert auch in der Technik anwendbar. In diesem Vortrag werden Optimierungsmethoden und Vorgehensweisen für einen effizienten Materialverbrauch vorgestellt und diskutiert.
Building Information Modeling (BIM) wird im Bauwesen immer stärker gefordert. Der vorliegende Artikel befasst sich mit dem Datenaustausch für die TGA. Am Beispiel eines RLT-Gerätes werden der Detaillierungsgrad und der Datenaufbau mit IFC erläutert. Insbesondere zeigt sich hierbei, dass der Datenimport aufgrund fehlender Standards und Definitionen mit Datenverlust einhergeht. Damit ergibt sich ein Auftrag an die Softwareunternehmen hier für eindeutige Standards zu sorgen.
TGA-Planung mit BIM-Objekten
(2019)
Die BIM-Methode erfasst in Deutschland mittlerweile alle Gewerke im Bauhauptgewerbe. Für die TGA-Branche hat sich gezeigt, dass die Priorität der Produkthersteller auf der Bereitstellung der Geometriedaten liegt. Weiterführende Metadaten und Attribute (z. B. Material, Masse, Preise, Leistungsdaten) sind oftmals nur in reduzierter Form oder gar nicht vorhanden. An exemplarischen Beispielen von RLT-Reräten und Komponenten werden die geometrischen und semantischen Möglichkeiten beim IFC-Format untersucht.