Refine
Year of publication
- 2019 (64) (remove)
Document Type
- Article (38)
- Part of a Book (9)
- Conference Proceeding (8)
- Book (4)
- Report (2)
- Contribution to a Periodical (1)
- Review (1)
- Working Paper (1)
Language
- German (64) (remove)
Has Fulltext
- no (64) (remove)
Keywords
- Building Information Modeling (4)
- Sportökonomie (3)
- Deutschlandwetter (2)
- Energiepolitik (2)
- Großveranstaltung (2)
- Industry Foundation Classes (2)
- Klimaänderung (2)
- Soziale Marktwirtschaft (2)
- Sportsoziologie (2)
- Wirtschaftsjurist (2)
Besondere Herausforderung: Weiterbildung. BIM: Einbinden von kleinen und mittelgroßen TGA-Büros
(2019)
Die Digitale Transformation im Bauwesen heißt Building Information Modeling, kurz BIM. Damit die zahlreichen kleinen und mittelständischen Ingenieur- und Planungsbüros hier mithalten können, müssen passende Weiterbildungs- und Einführungskonzepte für BIM geschaffen werden. Der Artikel untersucht die Herausforderungen und Hemmnisse dafür in Deutschland.
In vielen TGA-Büros werden bereits heute mehr oder weniger unbewusst wichtige Vorteile der BIM-Methode genutzt, als „Little BIM“ oder Büro-intern als „Big BIM“ bzw. „Closed-BIM“.
Große Potenziale von BIM lassen sich aber erst erschließen, wenn alle relevanten Akteure für die Planung, Errichtung und den Betrieb Software übergreifend an und mit einem gemeinsamen Datenmodell arbeiten (Open BIM).
Der TGA kommt beim BIM eine Schlüsselrolle zu, muss dafür aber viel früher als bisher in die Gebäudeplanung einbezogen werden.
Eine große Herausforderung für die Verbreitung von BIM ist die digitale Transformation der kleinteiligen TGA-Branche in den Segmenten Planung und Installation. Ein wichtiger Schritt dafür ist eine zielgerichtete Weiterbildung, um den individuellen Schulungs- und Investitionsbedarf zu ermitteln.
Soziale Netzwerke dienen politischen Kandidaten dazu, Bürgerinnen und Bürger ungefiltert mit ihren Botschaften zu erreichen. Während des Wahlkampfes spielt die TV-Berichterstattung allerdings noch immer eine wichtige Rolle. Die vorliegende Analyse zeigt am Beispiel von Angela Merkel und Martin Schulz, dass die Profile der Kanzlerkandidaten während des Bundestagswahlkampfes 2017 über keine Thematisierungsmacht für das Fernsehen verfügten. Die Kandidaten vermochten es nicht, ihre Inhalte mithilfe ihrer Auftritte in den sozialen Netzwerken in die großen TV-Nachrichtenmagazine zu transferieren. tagesthemen und heute journal blieben in ihrer Darstellung unabhängig von den Eigendarstellungen der Kandidaten. Ferner zeigt die Analyse, dass sich das Fernsehen stark auf die Performance der Kandidaten konzentrierte, während politische Inhalte im Rahmen der Berichterstattung seltener thematisiert wurden. Merkel verweigerte sich weitgehend inhaltlicher Debatten über soziale Netzwerke; Schulz schaffte es nicht, mit seinen Botschaften zu punkten.
RLT-Geräte werden meist auf eine Lebensdauer von 15 Jahren ausgelegt. Die Erfahrung zeigt jedoch, dass viele Anlagen mehr oder weniger unverändert bis zu 25 Jahren betrieben werden. Damit müssen aktuell projektierte RLT-Anlagen auch bei dem erwarteten Klimawandel die gewünschten Zuluftparameter (Temperatur und Luftfeuchte) einhalten. Der Artikel untersjucht den einfluss des Klimawandels für Deutschland bezogen auf die Klimatisierung einer exemplarischen Krankenhausintensivstation.
Building Information Modeling (BIM) wird im Bauwesen immer stärker gefordert. Der vorliegende Artikel befasst sich mit dem Datenaustausch für die TGA. Am Beispiel eines RLT-Gerätes werden der Detaillierungsgrad und der Datenaufbau mit IFC erläutert. Insbesondere zeigt sich hierbei, dass der Datenimport aufgrund fehlender Standards und Definitionen mit Datenverlust einhergeht. Damit ergibt sich ein Auftrag an die Softwareunternehmen hier für eindeutige Standards zu sorgen.
Der Beitrag geht (1) auf zentrale Aspekte neoliberaler Wirtschaftspolitik ein, (2) damit verbundene branchenspezifische Strategien und Ideologiemuster sowie (3) auf individuell übernommene Denkfiguren zur marktförmigen Selbstoptimierung. Abschließend werden (4) Alternativen auf kommunaler, wirtschafts- und sportpolitischer Ebene aufgezeigt.
Die Hauptfragen des Beitrags konzentrieren sich auf die Fähigkeit von Städten Großveranstaltungen durchzuführen und welche Zielgruppen konzeptionell im Fokus stehen. Einleitend werden dazu ausgewählte makroökonomischer Daten aufgezeigt und der wirtschaftspolitische Wandel zu einer marktfundamentalen Wirtschaftspolitik verdeutlicht, der sich als „Unternehmen Stadt“ auch im politisch-administrativen Bereich der Kommunen etabliert hat. Im Kontext dieser Logik werden Großveranstaltungen zunehmend in die kommunale Standortpolitik als weicher Standortfaktor für High-Potentials und touristische Zielgruppen eingebunden. Dadurch kommt es zu Funktionalisierungen, Vereinnahmungen von Großveranstaltungen für Partialinteressen, die den zu befördernden kulturellen Kerngedanken bisweilen ignorieren. Die stark anwachsende Zahl an Sportgroßveranstaltungen und eine ungleiche Verteilung der finanziellen Risiken zwischen Veranstaltern und Ausrichtern stoßen seit einigen Jahren auf wachsende Kritik, was durch die ablehnenden Voten der städtischen Bevölkerung zur Bewerbung um Olympische Spiele deutlich wurde. Die Durchführung von Großveranstaltungen bedarf inzwischen einer weitaus umfassenderen und intensiveren konzeptionellen Begründung und vor allem diskursiven Legitimation. Durch die zunehmende Spreizung zwischen schuldenfreien, prosperierenden Städten sowie finanziell prekär ausgestatteten Kommunen geraten jedoch die gesellschaftlichen Akteure nahezu unausweichlich in Konflikte um eine Diskussion der Verwendung öffentlicher Mittel. Notwendig wird eine faire Risikoverteilung zwischen Veranstaltern und Ausrichtern sowie eine Vermeidung von Überkapazitäten. Auf kommunaler Ebene bieten weder Austerität noch (ruinöse) Städtekonkurrenz eine langfristige Lösung. Vielmehr ist eine kritische Diskussion über die derzeitige Mittelverteilung und -herkunft der öffentlichen Trägerschaften für eine annähernd gleichwertig ausgestaltete Daseinsvorsorge und damit auch touristische Attraktivität zu führen.
TGA-Planung mit BIM-Objekten
(2019)
Die BIM-Methode erfasst in Deutschland mittlerweile alle Gewerke im Bauhauptgewerbe. Für die TGA-Branche hat sich gezeigt, dass die Priorität der Produkthersteller auf der Bereitstellung der Geometriedaten liegt. Weiterführende Metadaten und Attribute (z. B. Material, Masse, Preise, Leistungsdaten) sind oftmals nur in reduzierter Form oder gar nicht vorhanden. An exemplarischen Beispielen von RLT-Reräten und Komponenten werden die geometrischen und semantischen Möglichkeiten beim IFC-Format untersucht.
Menschen verbringen einen großen Teil ihrer Zeit in Innenräumen. Um dafür die notwendige thermische Behaglichkeit zu gewährleisten, müssen schon bei der Nutzungsplanung die Temperaturen und Luftbewegungen im Raum vorhergesagt werden können. Bei anderen Anwendungen wiederum sind diese Größen relevant für die Prozesssicherheit (z. B. Labore, Operationssaal). Die Vorhersagen erfolgen zum Beispiel durch Strömungssimulationen oder an sogenannten Mock Up Räumen, die eine 1:1 Nachbildung des relevanten Raums darstellen. Bei größeren Räumen wie z. B. Konzertsälen steigt der Aufwand erheblich an.
Eine auf den ersten Blick vergleichsweise einfache Lösung ergibt sich durch Untersuchungen an skalierten Modellräumen. Allerdings ist hier die Ähnlichkeit zwischen Modell und Realausführung bei nicht-isothermen Strömungen nicht gegeben. Die dimensionslosen Kenngrößen Reynolds Zahl Re und Archimedes Zahl Ar sind nicht identisch, da sie mit unterschiedlichen Exponenten bei der charakteristischen Länge skalieren, so dass sie durch die Wahl eines anderen Mediums oder Anpassung der Temperaturen nicht hinreichend kompensiert werden können.
Im Labor für Klimatechnik an der Westfälischen Hochschule sollen mit Hilfe von experimentellen Modelluntersuchungen und dem Vergleich mit der Realausführung Erkenntnisse gewonnen werden, in wie weit ein Kompromiss aus Ähnlichkeit und Genauigkeit gefunden werden kann, um technisch relevante Fragestellungen am Modell zu beantworten.
Die Leitfragen dabei sind:
- Wie lassen sich Modellergebnisse auf reale Raumluftströmungen übertragen?
- Unter welchen Bedingungen ist die Ähnlichkeit zwischen Modell und Realausführung noch gegeben?
- Wie sehen Leitlinien für die praktische Anwendung der Ähnlichkeitsgesetze aus?
Ein Büroraum mit unterschiedlichen Luftführungsvarianten und thermischen Lasten stellt dabei die Realausführung dar. Das Modell ist im Maßstab 1:5 herunterskaliert.
BIM in Lehre und Praxis
(2019)
Der prognostizierte Klimawandel erfordert bereits für die heutige Auslegung von RLT-Geräten eine Berücksichtigung der zukünftigen Wetterdaten in Form von Testreferenzjahren(TRY). Am Beispiel einer Intensivstation eines Krankenhauses werden für alle 15 Klimaregionen in Deutschland die Unterschiede der Heiz- & Kühlleistung sowie der Betriebsstunden analysiert.
Der EuGH senkt den Daumen für den Facebook-Like Button. Eine Lektion in Datenschutzverantwortung
(2019)
Digitalisierung im Verkehr
(2019)
Die Grenzen des Abwerbens eines Arbeitnehmers aus arbeits- und lauterkeitsrechtlicher Perspektive
(2019)
Sogenannte „dunkle Persönlichkeitseigenschaften“ begünstigen zwar den Aufstieg in verantwortungsvolle Positionen, sind aber kaum mit der Effektivität als Führungskraft verbunden. Vielmehr besteht ein positiver Zusammenhang mit destruktivem Führungsverhalten. Die Herausforderung besteht also darin, solche Eigenschaften frühzeitig zu erkennen und ggf. zu intervenieren, um destruktiver Führung vorzubeugen. Bis dato fehlen geeignete Screening-Verfahren, um erste Hinweise auf subklinische Persönlichkeitszüge wie etwa narzisstische, machiavellistische oder psychopathische Tendenzen im Arbeitskontext zu erhalten. Im Folgenden werden die psychometrischen Gütekriterien und Einsatzmöglichkeiten eines Kurztests zur dunklen Triade vorgestellt, der dazu gedacht ist, im Kontext der Management-Diagnostik und Führungskräfteentwicklung die Aufmerksamkeit auf ebensolche Risikofaktoren zu lenken und so ggf. eine tiefergehende Auseinandersetzung anzustoßen. Das Verfahren basiert auf Untersuchungen mit 1.858 Fach- und Führungskräften deutscher Unternehmen.
Ethische Führung, Arbeitsplatzunsicherheit und soziale Dominanzorientierung: Eine Vignettenstudie
(2019)
Der Plan ist klar nachvollziehbar und notwendig: Unrechtmäßig genutzte, urheberrechtlich geschützte oder gar illegale Inhalte dürfen im Internet keine Plattform zur Verbreitung finden. Bisher geschieht das durch Analyse bereits hochgeladener Inhalte. Die Europäische Union möchte aber am liebsten verhindern, dass entsprechendes Material überhaupt ins Netz gelangt. Das ruft sogenannte Upload-Filter auf den Plan, die bereits beim Versuch des Hochladens eine Blockade setzen. So weit, so gut, jedoch lassen sich durch solche Filter zu leicht auch „unliebsame“ Inhalte blockieren – Kritikern solcher Pläne scheint ein Machtmissbrauch durch Kontrolle der zur Veröffentlichung freigegebenen Inhalte vorprogrammiert. Vor diesem Hintergrund beleuchtet folgender Beitrag den Sinn, die technische Umsetzung und Machbarkeit sowie die Risiken von Upload-Filtern.
Das Internet als weltweites Netzwerk von Servern dient schon lange nicht mehr rein der Beschaffung von Informationen oder der persönlichen Kommunikation. Es werden vermehrt mediale Inhalte (Bilder, Audio- und Videodateien) in sozialen Netzwerken gepostet. Ein Großteil dieser Inhalte dient der Selbstdarstellung des Nutzers in Chroniken, Timelines, Stories etc. Allein auf Facebook werden pro Tag etwa 350 Millionen Bilder und 100 Millionen Stunden Videomaterial von Nutzern hochgeladen. Bei YouTube sind es sogar 400 Stunden Videomaterial pro Minute.
In dieser Masse von Daten sind auch unrechtmäßig genutzte, urheberrechtlich geschützte oder illegale Inhalte vorhanden. Diese unerwünschten Inhalte können mit voller Absicht oder aus Versehen und ohne kriminellen Hintergedanken hochgeladen werden. Doch egal aus welchem Grund, solche Inhalte müssen so früh wie möglich entdeckt und gelöscht werden oder sollten gar nicht erst hochgeladen werden können. Aktuelle Lösungen basieren auf einer nachträglichen Erkennung bereits hochgeladener Inhalte durch Erkennungswerkzeuge oder den Menschen.
Dieses Vorgehen ist bereits etabliert und allseits anerkannt. Eine Erweiterung durch gesetzliche Vorgaben, die das Melden, Deaktivieren und Prüfen vereinfacht und beschleunigt, wäre hier ein logischer nächster Schritt. Doch eine Prüfung und Bewertung aller Inhalte von Uploads während des Upload-Prozesses in Echtzeit wird zurzeit favorisiert und stellt eine neue, besondere Herausforderung dar.
Daher könnten in Zukunft Upload-Filter weltweit zum Einsatz kommen. Bild 1 zeigt schematisch den Unterschied zwischen einem Upload ohne Upload-Filter – links unten – und einem Upload mit Upload-Filter – links oben. Hierbei ist die Verbindung des Upload-Filters mit dem Internet nicht obligatorisch.
Ein Upload-Filter wird als eigenständige, unumgängliche Instanz in den Upload-Prozesses integriert. Seine Aufgabe besteht in der Klassifizierung der Inhalte von Uploads.
Kriterien hierfür sind vor allem das Bestehen eines Urheberschutzes für den Upload von Musik, Bildern oder Filmen, und ein eventueller Konflikt mit dem Strafrecht – zum Beispiel Kinderpornografie oder Rassismus.
Vorangetrieben wurde das Thema von der EU – genauer durch die Richtlinie (EU) 2019/790. Der hierin enthaltene Artikel 17 sieht vor, die Plattformen zu verpflichten, Lizenzverträge mit den Inhabern von Urheberrechten zu schließen. Kommen diese nicht zustande, muss die Plattform dafür sorgen, dass entsprechende Inhalte nicht hochgeladen und veröffentlicht werden können. Dieser Artikel war und ist immer noch hoch umstritten. Die EU will damit die unerlaubte Nutzung urheberrechtlich geschützter Werke auf Webseiten verhindern.
Kritiker sehen darin das freie Internet durch eine Zensurmöglichkeit in Gefahr, sollte eine diktatorische Regierung Einfluss aufdie Upload-Filter haben.
Momentan ist der Tenor der meisten Artikel zum Thema Künstliche Intelligenz (KI) relativ konformistisch – unverzüglich wird der Leser dahingehend sensibilisiert, dass sich hierdurch enorme Chancen auftun, die nicht ungenutzt bleiben dürfen, um international nicht abgehängt zu werden. Eher nebenbei erwähnt wird, dass trotz aller Euphorie auch die Risiken in Betracht zu ziehen seien. Da aus diesen jedoch Implikationen für die gesamte Gesellschaft resultieren können, ist es nicht nur ratsam, sondern erforderlich den Einsatz von KI in allen Bereichen – sogar im Kontext der IT-Sicherheit – unter ethischen Aspekten zu bewerten.