Zum Inhalt

Aktuelles aus der Hochschule für Telekommunikation Leipzig

An der Hochschule für Telekommunikation Leipzig (HfTL) gibt es eine Vielzahl unterschiedlicher Veranstaltungen. Hier finden Sie die wichtigsten Informationen rund um dieses Thema.


Ausschreibung wissenschaftlicher Mitarbeiter (m/w/d)

Im Rahmen eines DFG-Forschungsprojektes in Kooperation mit der Universität Erlangen-Nürnberg arbeiten Sie an der Weiterentwicklung und Optimierung eines Verfahrens zu Kompression von Screen-Content-Daten. Dabei kommt es mehrheitlich auf das signaladaptive Schätzen von bedingten Wahrscheinlichkeiten mit Methoden des maschinellen Lernens an, kombiniert mit einer anwendungsspezifischen Bildanalyse.

Mehr erfahren


Verleihung des IfKom-Preises 2020

Foto: v.l.n.r.: Prof. Dr. Michael Einhaus, Ola Hasan Ibrahim Al-Dulaimi (IfKom-Preistr.), Prof. Dr. Christiane Springer (Rektorin der HfTL), Heinz Leymann (IfKom)

Die Ingenieure für Kommunikation e.V. (IfKom) und die Hochschule für Telekommunikation Leipzig (HfTL) verbindet eine langjährige Zusammenarbeit. Bereits seit vielen Jahren lobt die IfKom den sogenannten IfKom-Preis aus für besondere studentische Leistungen. Diesen überreicht stets Heinz Leymann, der Vorsitzende der IfKom, persönlich. In seiner Ansprache betonte Heinz Leymann die von gegenseitigem Wohlwollen getragene gute Zusammenarbeit mit der HfTL und äußerste sein Bedauern über die Schließung der Hochschule. Gleichzeitig wies er daraufhin, dass die IfKom auch im kommenden Jahr den Preis vergeben wird.

Den diesjährigen IfKom-Preis an der HfTL erhielt Frau Ola Al-Dulaimi.
Sie schrieb ihre Masterarbeit „Development of a Demonstration System for Coordinated Multi-Point Operation based on Software Defined Radio“ (Entwicklung eines Demonstrationssystems für koordinierten Multi-Point Betrieb auf der Grundlage von Software Defined Radio). „Sie zeigte perfekt, wie die während des Studiums an der Hochschule vermittelten theoretischen Grundlagen in Kombination mit anwendungsorientierten technischen Konzepten zur Lösung anspruchsvoller Problemstellungen effizient genutzt werden können“, so ihr Betreuer Professor Dr. Michael Einhaus.

Mehr erfahren


DAAD Preis 2020 geht an engagierte Absolventin aus der Ukraine

Preisträgerin des DAAD-Preises 2020 in der HfTL: Iryna Konovalova

„Die Masterarbeit entspricht dem Niveau einer Dissertation“, lobt Professor Dr. Claus Baderschneider die Abschlussarbeit der diesjährigen Preisträgerin des DAAD Preises, Iryna Konovalova.

Iryna Konovalova studierte von 2017 bis 2020 im Masterstudiengang „Information and Communications Technology“ an der HfTL, welcher in Englisch gelehrt wird. Ihre Masterarbeit schrieb sie im Bereich Architekturmanagement unter Leitung von Professor Dr. Hartmann. „Das Thema liegt mit Value Stream Networks, der IT4IT Referenzarchitektur und der FusionSphereOpenStack Infrastruktur weit am vorderen Ende der aktuellen Forschung.

 

Mehr über den DAAD-Preis 2020 und unsere Preisträgerin erfahren


Studierende entwickeln innovative Geschäftsideen

Virtuelle Zusammenarbeit in Zeiten von Corona

Wie sieht eigentlich eine hochschulübergreifende Zusammenarbeit von Studierenden in Zeiten von COVID-19 aus?

Beim SmartSoc 2020 entwickeln Studierende aus verschiedenen Hochschulen auf Basis agiler Methoden innovative Geschäftsmodelle. Die dabei gewonnenen Erfahrungen schildern Studierende in den nachfolgenden Berichten.

Die Hochschule für Telekommunikation Leipzig beteiligte sich mit vier Studierenden (zwei berufsbegleitenden Wirtschaftsinformatikern, zwei Direktstudenten) an dem Projekt “SmartSoc, Education of Future ICT Experts, Based on Smart Society Needs”, initiiert von der Universität Žilina, Slowakei.

Zugegebenermaßen war zu Projektbeginn Anfang März 2020 noch nicht absehbar, dass der geplante Auslandseinsatz im Mai 2020 aufgrund der weltweiten COVID-19-Pandemie zuerst verschoben, dann auf eine virtuelle Phase im September 2020 abgewandelt werden musste.

Mehr erfahren


Best Student Paper Award zur KM-Konferenz 2020

Alexander Leipnitz mit dem Best Student Paper Award der KM-Konferenz 2020

Auf der diesjährigen Knowledge Management-Konferenz (KM 2020) vom 1. bis 3. Juli in Lissabon, die aufgrund der Corona-Beschränkungen als Webkonferenz stattfand, wurde unser Doktorand Alexander Leipnitz für seinen innovativen Beitrag: „The effect of image resolution in the human presence detection - a case study on real-world image data” mit einem Best Student Paper Award ausgezeichnet.

Der Konferenzbeitrag untersucht die Skalierung von Bilddaten zur Detektion kleiner Bildobjekte – z. B. von Menschen in Drohnenfernaufnahmen – mittels sogenannter Convolutional Neural Networks (CNN) und basiert auf Teilresultaten des EU-Projekts „Collaborative Strategies of Heterogeneous Robot Activity at Solving Agriculture Missions Controlled via Intuitive Human-Robot Interfaces (HARMONIC)“ im Bereich der digitalen Landwirtschaft. Mitautoren des Journalartikels sind Prof. Tilo Strutz und Prof. Oliver Jokisch, die das deutsche HARMONIC-Teilprojekt leiten.

Die neunte KM-Konferenz des International Institute for Applied Knowledge Management (IIAKM) ist für Anfang Juli 2021 in Leipzig geplant.

Artikel: Leipnitz, A.; Strutz, T.; Jokisch, O.: The effect of image resolution in the human presence detection - a case study on real-world image data. Online Journal of Applied Knowledge Management (IIAKM), Vol. 8(1), pp. 53-62, July 2020
https://doi.org/10.36965/OJAKM.2020.8(1)53-62

Konferenzwebseite: http://iiakm.org/conference/KM2020/

HARMONIC-Projekt: https://www1.hft-leipzig.de/harmonic/

Das deutsche Teilprojekt wird mit Mitteln des Bundesministeriums für Bildung und Forschung unter dem Förderkennzeichen 01DJ18011 (Projektträger DLR) gefördert."


Modul Gesellschaft und Informatik

In dem von Prof. Andreas Hartmann konzipierten Modul "Gesellschaft und Informatik" untersuchen Studierende der HfTL im Rahmen ihres Studiums aktuelle Themen aus Politik, Wissenschaft und Technik.

Mit wissenschaftlichen Methoden werden gesellschaftliche Entwicklungen, Äußerungen von Politikern im Kontext zu technischen Sachverhalten, verfügbaren Technologien betrachtet, diskutiert und bewertet.

Neben der schriftlichen Dokumentation entstanden zu jedem Thema auch unterhaltsame Videos, welche den Themenkomplex einprägsam erläutern. Alle Videos finden Sie auf den nachfolgenden Seiten oder unserem Youtube-Kanal.

Projektarbeiten unserer Studierenden

Analyse der sicherheitsrelevanten Risiken in Bezug auf den 5G Ausbau durch Huawei in Deutschland

Abb. 1: Exemplarischer Aufbau der 5G-Infrastruktur

Robert Habeck äußerte sich zum 5G-Ausbau mit Huawei-Komponenten in einem Interview mit der Welt am Sonntag, welches am 08.09.2019 veröffentlicht wurde. Seine Aussage wird auf Richtigkeit und Durchführbarkeit seiner Alternativvorschläge untersucht. Dabei wird insbesondere die Netzinfrastruktur des Mobilfunknetzes behandelt. Zusätzlich werden Huawei-Komponenten und ihre Sicherheit beleuchtet. Darüber hinaus werden auch andere Netzkomponentenhersteller wie Cisco, Ericsson usw. thematisiert und als Alternativen zu Huawei analysiert. Die Risiken bzw. die Sicherheitslücken sowie vorhandene und geplante Lösungsmöglichkeiten werden diskutiert.  

Einleitung

"Wir sollten da dem Beispiel der australischen Regierung folgen; sie hat Huawei nicht zugelassen. Nokia und Ericsson sollten das machen", sagte Robert Habeck, Vorsitzender von Bündnis90/Die Grünen, der "Welt am Sonntag" in einem Interview, das am 08.09.2019 veröffentlicht wurde. Der Grünen-Chef befürwortet einen Ausschluss des chinesischen Konzerns Huawei vom deutschen Markt. Habeck fürchtet einen zukünftigen Interessenskonflikt mit China, bei dem die Regierung die chinesische Technik in Deutschland gegen ebendieses verwendet. [We19a]
Es stellt sich die Frage, warum sollte nur Huawei ausgeschlossen werden? Es gibt auch andere Unternehmen, die ebenfalls besorgniserregende Nähe zur jeweiligen Regierung bzw. zu den länderinternen Geheimdiensten haben könnten. Zusätzlich muss auch analysiert werden, ob denn ein Ausschluss technisch überhaupt möglich ist und ob nicht doch zu viel auf Huawei-Technik aufbaut, sodass ein Ausschluss von Huawei zu einem Aufschub des 5G-Ausbaus führt. Anhand dieser Untersuchungen wird die These "Huawei ist keine Gefahr für die Netzsicherheit des deutschen 5G Netzes" geprüft.  

2. Theoretische Grundlagen

2.1 Technologiestandards 2G: GSM/GPRS/EDGE

Das Global System for Mobile Communication (GSM) war das erste digitale Mobilfunksystem und konnte erstmals ab Juli 1992 in Deutschland genutzt werden. Die Besonderheit dieses Mobilfunkstandards war es, dass der Anwender während der Nutzung des Netzes mobil sein konnte und somit nicht auf einen festen Standort angewiesen war. Durch sogenannte Handovers wurden die benötigten Informationen bei dem Verlassen einer Funkzelle an die entsprechende Antenne der neuen Funkzelle weitergegeben. Des Weiteren gab es die neuen Möglichkeiten des Identitätsmanagements, der Quality-of-Service-Dienste und des Roaming.

GSM arbeitet leitungsvermittelt, wie das alte ISDN Netz, und ermöglicht Datengeschwindigkeiten von maximal 9,6 kbit/s. Die Erweiterung des Standards, General Paket Radio Service (GPRS) arbeitet bereits paketvermittelt und ermöglicht Geschwindigkeiten von bis zu 171,2 kbit/s. [Vi19] Die Umstellung auf ein paketvermitteltes Netz vereinfachte den Zugang zum Internet. Die Technologie Enhanced Data Rates for GSM Evolution (EDGE) ist die Verbesserung des GPRS und ermöglicht Datenraten von bis zu 470 kbit/s. Dieser Standard wird oft von Maschinen verwendet, die kleine Pakete über das Internet verschicken. [We19b] EDGE hat in Deutschland eine Abdeckung von fast 100%, da die Funkzellen im Vergleich zu anderen Technologien deutlich größer sind. [Lo19]

 3G: UMTS/HSPA/HSPA+

Das Universal Mobile Telecommunications System (UMTS) ist ein Mobilfunkstandard der dritten Generation (3G), mit dem deutlich höhere Datenübertragungsraten (bis zu 42 Mbit/s mit HSPA+, sonst max. 384 kbit/s) als mit dem Mobilfunkstandard der zweiten Generation (2G) möglich sind. Mit der entsprechenden Hardware im mobilen Endgerät kann auch die Erweiterung High-Speed Packet Access (HSPA) empfangen und damit höhere Up- und Downloadraten ermöglicht werden.
Die Erweiterung des HSPA Standards, High-Speed Packet Access + (HSPA+) benötigte ebenfalls neue Technik in den Mobiltelefonen und der Antennen Technik, und war ein preiswerter Zwischenschritt auf dem Weg zu LTE. [El19a]

3,9G (4G): LTE/LTE+

Long Term Evolution oder kurz LTE wird oft Mobilfunkstandard der vierten Generation genannt. Technisch gesehen ist LTE aber 3,9G und erst die Erweiterung LTE-Advanced (LTE-A) entspricht dem 4G. Denn erst LTE-A erfüllt alle theoretischen Merkmale von 4G. In Marketing Kampanien wurde es hingegen oft 4G+ genannt. [Wi19a]
Je nach verfügbarer Bandbreite ermöglicht LTE eine Downloadrate von bis zu 100Mbit/s und Uploadraten von 50Mbit/s. LTE-A ermöglicht theoretisch auch einen Download von bis zu 1 Gbit/s bei einer Uploadrate von 500Mbit/s. [IT19]
LTE wurde als eine Erweiterung des UMTS Netzes entwickelt.
Durch das Zusammenlegen von Netzelementen im Zugangsnetz wird die Latenz bei der Datenübertragung verringert. Außerdem können die neuen Funkeinheiten (eNodeB) im neuen Zugangsnetz miteinander kommunizieren, um dem Nutzer eine noch lückenlosere Mobilität zu ermöglichen. [Wi19b]
Anfang 2019 betrug die Netzabdeckung der Deutschen Telekom, als größter Provider in Deutschland 98%. [LT19]

5G

5G als Weiterentwicklung von LTE basiert auf dem LTE Kernnetz, dadurch können die 4G-Basisstationen wiederverwendet werden. Im 5G-Netz sind bis zu 100-mal höhere Datenraten als mit 4G möglich, unter der Voraussetzung, dass weitere 5G Basisstationen integriert und das Kernnetz für einen eigenständigen 5G-Betrieb optimiert werden. [El19b]  
Die Architektur des 5G-Netzes ist stark von den Anforderungen der Nutzer vor Ort abhängig. Um das Netz an diese sich ändernden Anforderungen anpassen zu können, gibt es einige Methoden, wie Small Cells, Carrier Aggregation, Beamforming und Network-Slicing. [In19]

5G verwendet eine zweistufige Architektur, mit Macrocell Base Stations (MBS) und Smallcell Base Stations (SBS). Hierbei verbinden sich mehrere SBS mit einer MBS. Diese zweistufige Architektur hat mehrere Vorteile, so können zum Beispiel SBS in Zügen verbaut werden, um so die Anzahl an Handovers der Endgeräte im Zug zu reduzieren. Alle Endgeräte im Zug sind mit der SBS des Zugs verbunden und wenn es zu einem Funkzellenwechsel kommt, muss nur die SBS an eine neue MBS übergeben werden.

Bei 5G wird Network-Slicing eingesetzt. Dabei werden für unterschiedliche Use-Cases unterschiedliche Services angeboten. Die drei Network-Slices in 5G sind Enhanced Mobile Broadband (eMBB), Ultra-Reliable and Low-Latency Communication (URLLC) und Massive Machine Type Communications (mMTC). eMBB versorgt Menschen und Maschinen mit schnellen Down- und Uploadraten im Gigabit-Bereich und macht so zum Beispiel hochauflösendes Streaming möglich. URLLC zeichnet sich durch eine garantierte minimale Latenz aus und legt so den Grundstein für vernetztes autonomes Fahren.  mMTC ermöglicht das Internet der Dinge (IoT) und damit das Vernetzen einer großen Anzahl von Maschinen untereinander, um Informationen austauschen zu können. [ 5G19]

Bei der Kanalbündelung (Carrier Aggregation) werden genutzte Funkfrequenzbereiche eines Netzbetreibers gebündelt. Das erlaubt die Datenrate pro Nutzer zu erhöhen. Dabei werden mehrere Frequenzblöcke einem Nutzer zugewiesen. Dadurch wird auch die Gesamtdatenrate pro Zelle erhöht. Wird eine Frequenz aber mit einer Frequenz gebündelt, die eine geringere Reichweite hat, verringert sich die Gesamtreichweite der gebündelten Frequenz.

Beim Beamforming werden gezielt bestimmte Teilnehmergeräte versorgt. Dafür wird die Antennen-Senderichtung so verändert, dass ein maximales Signal am gewünschten Ort und Endgerät ankommt. Mit Bündelung der Funkwellen kann, statt einer sonst kreisförmigen Ausbreitung der Funksignale, eine präzise Ausrichtung des Signals erreicht werden. Dadurch verringert sich außerdem der Energiebedarf des Senders. [In19]

2.2. 5G-Netzinfrastruktur

Die zuvor beschriebenen Mobilfunktechnologien haben alle verschiedenen Anforderungen an das Zugangsnetz. Generell geht der Trend in die Richtung immer weniger verschiedene Hardware-Komponenten, vor allem im Zugangsnetz zu nutzen und immer mehr Aufgaben durch leicht skalierbare Software-Lösungen erledigen zu lassen. Dieses Software Defined Network (SDN) ist vor allem für das Network-Slicing bei 5G wichtig, kann aber auch schon zur Vorbereitung bei 4G-Netzen verwendet werden. Mithilfe eines virtualisierten Zugangsnetzes kann auf einem Hardware-Element, je nach Anforderung, verschiedene Software ausgeführt werden, welche die benötigten Network-Slices bereitstellt. [Fu19]

Das Kernnetz sieht im Zuge der All-IP Umstellung der Career bei allen Technologien sehr ähnlich aus. Genaue Zahlen über die Menge der verbauten Huawei-Technik im Kernnetz der deutschen Mobilfunknetzbetreiber sind nicht bekannt. [He19]

2.3 Grundlagen zur Sicherheit

Kill-Switch Ein Kill-Switch ist eine technische Sicherheitsvorrichtung. Sie funktioniert in der Regel als eine Art Notausschalter. Bekannt sind solche Vorrichtungen zum Beispiel aus Laboren. Dort kann mit Hilfe eines Zentralschalters der Strom des gesamten Raumes ausgeschaltet werden. In Programmen oder technischen Modulen ist ein Kill-Switch eine Möglichkeit, die Verarbeitung abrupt zu unterbrechen, auch wenn eine hohe Auslastung oder eine feindliche Übernahme durch einen Hacker eigentlich die normalen Eingaben blockiert. Eine Gefahr geht von einem Kill-Switch dann aus, wenn er unentdeckt ist bzw. von einer unbefugten Instanz bedient wird. Der Ausfall einer bestimmten Komponente kann für gewöhnlich schnell identifiziert und behoben werden. [Sp19a]

In der Netztechnik wird auf Redundanz gesetzt, das bedeutet, dass viele Komponenten in doppelter Ausführung vorhanden sind. Unter diesen Umständen muss der Angriff durch einen Kill-Switch beide Ausführungen der Komponente und weitere in der Netzinfrastruktur ausfallen lassen.

Blackbox

Als Blackbox bezeichnet man in der Informatik ein System oder Modul, bei dem nur die Ein- und Ausgabe beachtet wird und nicht die eigentliche Verarbeitung. Ein Beispiel dafür ist ein Drucker. Die Eingaben sind Strom, Papier, Toner und ein Datenstrom, mit Druckinformationen. Die Ausgabe ist ein beschriebenes Blatt. In dieser Betrachtung ist der Drucker eine Blackbox, da die Verarbeitung der Eingabe für den Nutzer nicht bekannt ist. In der Informatik wird dieses Verfahren beispielsweise bei der Nutzung externer Bibliotheken bei der Programmierung angewandt. Der Entwickler bindet die ihm zur Verfügung gestellten Funktionen ein, um die gewünschte Logik nicht selbst umsetzen zu müssen. [Wi19c]

Eine potenzielle Gefahr stellt eine Blackbox nur dann dar, wenn ihr Inhalt nicht ersichtlich ist. Unerwünschte Funktionen können die Funktionsweise stören und ungewollte Ereignisse auslösen.

Backdoor

"Eine Backdoor (engl. Hintertür, auch Trapdoor) bezeichnet einen (oft vom Entwickler eingebauten) Teil einer Software, der es dem User ermöglicht, unter Umgehung der normalen Zugriffssicherung Zugang zum Computer oder einer sonst geschützten Funktion eines Programmes zu bekommen. Ein Beispiel ist eine (meist durch Trojaner heimlich installierte) Software, die einen entsprechenden Fernzugriff auf das Computersystem ermöglicht." [Wi20]

3. Diskussion 

3.1 Exemplarischer Aufbau der Infrastruktur am Beispiel Huawei

Komponenten, die für Mobilfunknetze, wie 5G, gebraucht werden, können in zwei Gruppen aufgeteilt werden. So gibt es zum einen die Komponenten für das Kernnetz und die Komponenten für das Zugangsnetz beim Mobilfunk spricht man dabei von Radio Access Network (RAN). Hersteller von Netzwerktechnik werden "Network Equipment Provider"(NEP) genannt.
Die Infrastruktur muss sich, um den Anforderungen von 5G zu genügen, weiterentwickeln und flexibler werden, um Dinge wie Network-Slicing möglich machen zu können. Dafür wird viel auf ein SDN gesetzt. Dies ermöglicht, dass ein einzelner Hardware Knoten nicht mehr nur noch festgelegte Aufgaben erfüllen kann, sondern je nach Anforderungen verschiedenen Software ausführt und so unterschiedliche Aufgaben ausführen kann. Außerdem wird das Netzwerk so leichter wartbar, da die virtualisierten Software-Lösungen von der Ferne aus gewartet werden können. Des Weiteren kann durch die Verlagerung der Intelligenz an die Funkstation, auf individuelle Bedarfe, wie Datenraten, Kapazität und Zuverlässigkeit, reagiert werden. Unteranderem dafür verwalten Betreiber auf gemeinsamer physischer Infrastruktur mehrere virtuelle Netze, dass nennt man auch Network as a Service. Der genaue Aufbau des RAN hängt dabei von den Anforderungen vor Ort ab.

3.2 Sicherheitsrisiken am Beispiel Huawei

Das Hauptargument für den Ausschluss von Huawei, bei dem Aufbau des deutschen 5G-Netzes ist die Angst vor möglicher Spionage. Durch etwaige Backdoors in Soft- und Hardware könnte sich der chinesische Staatskonzern Zugang zu dem Netz und den darauf gesendeten Daten verschaffen. Viele Netzwerkhersteller haben die Möglichkeit über einen Fernzugriff auf Ihre Hardware zuzugreifen, um beispielsweise neue Updates aufzuspielen oder bei auftretenden Fehlern Fernwartung zu betreiben. Theoretisch könnte dies genutzt werden, um Daten unbemerkt abzugreifen. Jedoch ist nicht davon auszugehen, dass dadurch große Mengen an Daten ausspioniert werden könnten. Denn große Datenmengen würden auffallen. Kleine gezielte Zugriffe auf einzelne Dateien wären jedoch denkbar. Diese Angriffe würden über die sogenannten Backdoors erfolgen. [Sp19b, Sp19c]

Ein weiteres Sicherheitsrisiko stellen Kill-Switches dar, wodurch das deutsche 5G-Netz gezielt gestört werden könnte. Die Ausfälle von vielen Komponenten könnten drastische Folgen haben, da viele autonome Zukunftstechnologien wie das autonome Fahren von dem 5G-Netz abhängig sind. [Go19, Co19]

3.3 Alternativen

Vorab ist zu klären, dass alle Hersteller in der Lage sind unentdeckte Backdoors einzubauen und Blackboxes zu liefern und damit sicherheitstechnisch kein Unterschied zu Huawei besteht. Folgend sind die relevantesten Hersteller als Alternativen zu Huawei betrachtet:

Cisco

Der amerikanische Netzwerkausrüster ist vor allem für Router und Switches, sowie Hardware im Backbone-Bereich bekannt. 5G-Komponenten wie beispielsweise Mobilfunkstationen bietet Cisco zum jetzigen Zeitpunkt nicht an. Damit stellt der Hersteller keine Alternative zu Huawei dar. Der Konzern verkündete, dass allerdings geplant ist, mehrere Milliarden US-Dollar in 5G-Technik zu investieren. Jedoch wurden bei Cisco bereits immer wieder undokumentierte Backdoors und Sicherheitslücken gefunden. [Wi19] Auch im NSA-Skandal soll Cisco beteiligt gewesen sein und dem Geheimdienst mit Backdoors Zugang gewährt haben. Diese Vorwürfe wies der CEO zurück. Dennoch bleiben Zweifel, inwiefern die amerikanische Regierung Zugriff auf die Hardware des Herstellers hat.  [Sp19d]

Nokia

Das finnische Unternehmen hat einen Marktanteil von knapp 15 Prozent und ist damit der größte Konkurrent von Huawei. Dem europäischen Hersteller wird mehr Vertrauen zu gesprochen. Jedoch ist es fraglich, ob Nokia im geforderten Maße Netzkomponenten liefern kann und wie preisintensiv diese Zusammenarbeit wäre. Experten warnen immer wieder davor, dass Nokia nicht die nötigen Kapazitäten besäße. Zudem würde der Ausbau sich verzögern und teurer werden als die Zusammenarbeit mit Huawei. [De19]

Ericsson

Das ebenfalls aus Europa stammende Unternehmen muss sich, genau wie Nokia mit den Argumenten der nicht ausreichenden Kapazitäten beschäftigen. Ericsson plant allerdings in Estland ein neues Werk, um ihr Leistungspotenzial weiter auszubauen. Trotzdem bleibt der Zeit- und Kostenaspekt, denn auch beim Ausbau mit Ericsson würde dies den bisherigen Rahmen übersteigen. [Id19]

ZTE

ZTE ist der zweitgrößte Hersteller im Netzbereich und ist ebenfalls in China ansässig. Das Unternehmen beschäftigt sich hauptsächlich mit dem Ausbau der Infrastruktur. Zu Beginn 2019 musste der Konzern allerdings einen politischen Angriff und die darauffolgenden Sanktionen der USA ertragen. ZTE wurde die Nichteinhaltung von US-Auflagen gegenüber dem Iran und Korea vorgeworfen. Als Folge durften US-Unternehmen den chinesischen Hersteller zeitweise nicht beliefern. Dieser musste daraufhin die Produktion vollständig einstellen. Ein weiterer wichtiger Aspekt ist, dass ZTE qualitativ und quantitativ Huawei unterlegen ist. [Ma19]

3.4 Lösungsansätze

Die betrachtete 5G-Infrastruktur ist ein komplexes technisches System, weshalb Sicherheitslücken nicht vollständig ausgeschlossen werden können. Für Betreiber und Endanwender kann das Risiko nur minimiert werden. In den darauffolgenden Absätzen werden mögliche Lösungsansätze näher betrachtet.

Verschlüsselung

Daten des Endnutzers können durch die End-To-End-Encryption (E2EE) vor dem Zugriff von Unbefugten geschützt werden. Die Verschlüsselung arbeitet mit symmetrischen und asymmetrischen Verfahren. Viele Anwendungen verwenden diese Verschlüsselungstechnik bereits. Beispielsweise wird eine E2EE-Verschlüsselung bei dem Protokoll HTTPS zwischen Webserver und Webbrowser hergestellt. [Ne19] Dabei ist zu beachten, dass gegebenenfalls der Schlüsselaustausch mitgehört und damit die Verschlüsselung aufgelöst werden kann.

Quellcode-Analysen

Unabhängige Stellen wie das Bundesamt für Sicherheit in der Informationstechnik (BSI) können die Quellcodes der eingesetzten Komponenten untersuchen und damit Backdoors und Blackboxes identifizieren. Neue Komponenten und Updates bereits vorhandener Elemente müssen fortlaufend untersucht werden, um auch in Zukunft die Sicherheit innerhalb des Netzes zu gewährleisten.

Hardware-Analysen

Kontrollen der Hardware sind ebenso wichtig. Spionage kann durch eingebaute Backdoors ermöglicht werden. Um stets die Komponenten als sicherheitsunkritisch einstufen zu können, müssen diese fortlaufend kontrolliert werden.

Integration in Entwicklung

Die Aufnahme der unabhängigen Kontrollstellen wie dem BSI bereits in der Entwicklung der sicherheitskritischen Hard- und Software könnte sich effektiver auf die fortlaufende Kontrolle auswirken.  Kritische Komponenten könnten von Entwicklungsbeginn an überprüft werden. Alle Entscheidungen und Änderungen würden dokumentiert und nachvollziehbar sein.

Eigene Herstellung

Die Herstellung der Hard- und Software für das 5G-Netz würde den höchsten Grad an Sicherheit in der deutschen Infrastruktur gewähren. Allerdings fehlt dafür in Deutschland das nötige Fachwissen, um die erforderlichen Komponenten selbst produzieren zu können.

Redundanz

Die Gefahr durch Kill-Switches kann durch die Redundanz verringert werden. Dabei werden zentrale Komponenten in mehrfacher Ausführung eingesetzt, um die Ausfallwahrscheinlichkeit erheblich zu reduzieren.

Multi-Vendor-Sourcing

Betreiber von Telekommunikationsnetzen setzen Hardware von vielen verschiedenen Herstellern ein, dabei werden sogenannte Monokulturen und die Abhängigkeit von einem Hersteller vermieden. Die Sicherheit kann damit erhöht und die Wahrscheinlichkeit, dass viele Komponenten ausfallen, verringert werden.

System-Analyse

Die Überwachung der einzelnen Hard- und Software ist nicht ausreichend, um ein ganzes System als sicher einschätzen können. Zu Gewährleistung der Netz-Sicherheit muss das komplette System in seinem Zusammenspiel überprüft werden.

Sicherheitsanforderungen

Das BSI hat in ihrem Katalog von Sicherheitsanforderungen für das Betreiben von Telekommunikations- und Datenverarbeitungssystemen viele der bereits genannten Punkte aufgefasst und geht auch darüber hinaus. So soll ein Nachweis für die Vertrauenswürdigkeit der Hersteller und Lieferanten eingeholt werden. Allerdings ist es umstritten, ob eine solche schriftliche Vertrauenszusage eine hohe Garantie hat. Das Bundesamt fordert zudem, dass nur eingewiesenes Fachpersonal in Sicherheitsrelevanten Bereichen eingesetzt wird.  [Bu19]    

4.Zusammenfassung

Anhand der technischen Auseinandersetzung mit den bestehenden Mobilfunktechnologien und der Technologie 5G aus den vorhergehenden Kapiteln ist bekannt, dass die neuste Technologie eine Weiterentwicklung des derzeitigen Standards 4G ist. Aus diesem Grund kann die bestehende Infrastruktur weiter genutzt werden. Diese besteht allerdings größtenteils aus Huawei-Komponenten. Aus diesem Grund ist ein Herstellerwechsel kaum sinnvoll.
Dieser Prozess wäre zeit- und kostenintensiv. Weiterhin ist der Wechsel zu anderen Herstellern keine Garantie für höhere Sicherheit. Cisco und Co haben ebenfalls die Möglichkeiten unentdeckte Sicherheitslücken in Form von Backdoors oder Kill-Switches in ihre Hard- und Software einzubauen. Zusätzlich ist Huawei Innovationsführer für 5G und ein möglicher Herstellerwechsel würde zu einem technischen Rückstand führen. Risiken können bei allen Herstellern auftreten.
Aus diesen Gründen muss hinterfragt werden, warum die Diskussion zum Ausschluss von Huawei jetzt auftritt, aber nicht zum Ausbau von 4G. Die Antwort darauf ist geopolitischer Natur. Diese muss weiter beleuchtet werden.
Aus technischer Sicht gilt es, die genannten Risiken und Gefahren zu minimieren, denn eine Garantie für die vollständige Unantastbarkeit des deutschen Netzes gibt es nicht. Um jedoch einen Großteil der Bedrohungen zu reduzieren, müssen bestimmte Sicherheitsmaßnahmen getroffen werden. Dazu zählen, wie aus vergangenen Abschnitten bereits analysiert, die Einführung eines definierten Sicherheitskataloges vom Bundesamt für Sicherheit in der Informationstechnik (BSI).
Des Weiteren gilt es ein ausgebautes Verständnis für die Netzkomponenten und Quellcodes zu erreichen, um sogenannte "Blackboxes" zu vermeiden. Das Analysieren von Hard- und Software als ganzes System mit all seinen Prozessen und Abhängigkeiten ist ebenfalls eine wichtige Maßnahme. Die eigene Herstellung der Komponenten ist eine nicht zielführende Entscheidung, denn in Deutschland fehlt das nötige Knowhow, um die erforderliche 5G-Technik zu produzieren.

Quellen

Aufhebung der Verschlüsselung

Abstrakt

Das Bundesinnenministerium äußerte sich bezüglich eines Entwurfs, die Verschlüsselung für stattliche Dienste abzuschaffen. In der Arbeit wird untersucht, ob eine Aufhebung der Verschlüsselungstechniken für ausgewählte Kommunikationsapplikationen zur Sicherheit im Staat beiträgt. Um die These zu evaluieren, werden aktuelle Verschlüsselungstechniken untersucht und in welchen Anwendungsgebieten die Techniken eingesetzt werden. Des Weiteren werden die Methoden überprüft. Zudem befasst sich die Arbeit mit möglichen Auswirkungen auf das gegenseitige Vertrauen im Gebrauch des Internets. Um eine adäquate Endaussage treffen zu können, bezieht sich die Arbeit auf verschiedene Quellen des Internets, sowie ausgewählten literarischen Quellen, welche im Quellenverzeichnis nachgeschlagen werden können.

 

1. Einleitung

Nach einem Terror-Anschlag in Halle vom 09. Oktober 2019 diskutierte das Innenministerium erneut über die Gefahr von Verschlüsselungen im Hinblick auf die präventive Aufklärung von Verbrechen. Horst Seehofer äußerte sich in dem Kontext fünf Monate zuvor: "Nötig ist ein klarer und technikneutraler Ansatz, der die Freiheit zum Einsatz von Verschlüsselung mit den unabweisbaren Bedürfnissen der Sicherheitsbehörden in Einklang bringt. […]" [1].

Der Plan ist es, dass die Behörden einen Zugang zu standardmäßig Ende-zu-Ende-verschlüsselte Daten von Messenger Diensten wie WhatsApp bekommen sollen. Das geschieht nur auf richterliche Anordnung, um die Ermittlungen bei Straftaten und die Abwehr von Gefahren zu unterstützen. Wie eine staatliche Hintertür eingebaut wird, ist den Messenger Diensten selbst überlassen. Geschieht das nicht, soll eine Sperrung durch die Bundesnetzagentur drohen. (Vgl. [1])

Die These, die im Zusammenhang bearbeitet wird, lautet, dass eine Schwächung oder Aufhebung der Ende-zu-Ende-Verschlüsselung mit der Sicherheit, die geboten werden muss, vereinbar ist. Die These wird in den nachfolgenden Kapiteln auf Richtigkeit überprüft.

2. Theoretische Grundlagen

2.1 Aktueller Stand der Technik

Um dem Leser einen Überblick zum Thema zu geben, werden im Nachfolgenden die relevanten Grundlagen und der aktuelle Stand der Technik erläutert. 

Zu Beginn befassen wir uns mit dem Begriff der Verschlüsselung. Die Verschlüsselung ist ein kryptografisches Verfahren, welche die Daten für Dritte unlesbar macht. Sie dient dem Schutz der Daten und hat das Ziel einen sicheren Datenaustausch zu ermöglichen. Damit die Vertraulichkeit und Integrität von Daten gewährleistet werden kann, werden verschiedene Verfahren von Verschlüsselungen angewandt. Dabei gibt es die symmetrische Verschlüsselung, die asymmetrischen Verschlüsselung und die hybride Verschlüsselung, die beide Arten vereint. 

Auf die drei Verfahren werden wir in dem Bericht nicht näher eingehen. Die asymmetrische Verschlüsselung findet in der Praxis die meiste Anwendung. (Vgl. [2])

Abb. 1: unverschlüsselte Datenübertragung

Bei der unverschlüsselten Variante werden die Daten nicht verschlüsselt. Sie sind somit auf den Endgeräten, auf dem Server und auf den Übertragungswegen für jeden lesbar. In der Abbildung 1 wird das durch die Wahl der Farbe Rot dargestellt.

Eine andere Möglichkeit ist die Ende-zu-Server-Verschlüsselung. Die Daten werden verschlüsselt übertragen, sodass Dritte auf den Übertragungswegen nicht mitlesen können. Das wird durch die grünen Linien und die Schlösser in Abbildung 2 dargestellt. Allerdings liegen die Daten auf dem Server und den Endgeräten von Alice und Bob unverschlüsselt vor.

Eine der gängigsten Verschlüsselungsverfahren ist die Ende-zu-Ende-Verschlüsselung -siehe Abbildung 3. Hierbei werden die Daten während der Übertragung verschlüsselt und können somit während des Transfers nicht von Dritten abgehört werden. Die Daten werden nach Ankunft beim Anwender entschlüsselt und können so eingesehen werden. Das Verfahren arbeitet auf der Netzwerkebene und bietet bei einer korrekten Implementation die höchste Datensicherheit. Zu Beginn werden die Daten vor dem Absenden von der Anwendung verschlüsselt. Nachdem die Daten verschlüsselt beim Empfänger eingetroffen sind, werden die Daten von ihm entschlüsselt. Somit ist der gesamte Datenverkehr geschützt, denn auch wenn der Datenverkehr von Dritten abgehört werden würde, könnte der Angreifer mit den verschlüsselten Daten nicht arbeiten.  (Vgl. [3] und [4])

Wenn wir die Verschlüsselungen nähere betrachten, wird auch der Begriff der Backdoor relevant. Ins Deutsche übersetzt bedeutet Backdoor Hintertür. Wenn wir das auf die Informatik beziehen, ist sie ein "alternativer Zugang zu einer Software oder einem Hardwaresystem" ([5]).
Die Sicherheitsmechanismen werden dabei übergangen und man erlangt den Zugriff zu geschützten Inhalten. Eine Backdoor kann gezielt eingebaut werden. Das wird für Fernzugriffe oder bei Software benutzt, damit Entwickler versteckte Funktionen nutzen können. Sie können allerdings auch von (unbefugten) Dritten heimlich eingebaut werden.

Durch die Verwendung von Backdoors können Probleme entstehen. Jede Backdoor kann von unbekannten Dritten genutzt werden und eine Kontrolle der Personen, welche die Backdoor benutzen, ist nicht möglich. Damit wäre ein Zugriff auf sensible Daten möglich, und das verletzt die Verordnungen zum Datenschutz. Grundsätzlich kann man sagen, dass jede Backdoor eine zusätzliche Schwachstelle eines Systems darstellt. Je komplexer ein System ist, desto schwerer ist es auf Sicherheitslücken inklusive Backdoors zu prüfen. Wenn die Backdoor bei Privatpersonen eingebaut wurde, ist hier auch die Privatsphäre betroffen, sofern die Backdoor nicht öffentlich bekannt ist.
Eine andere Verwendungsart ist eine Backdoor bei der Verschlüsselung einzubauen. Der Schlüssel kann mitgehört werden und beliebige Daten können von Befugten, aber auch Unbefugten entschlüsselt werden. Hier ist nur ein Login der befugten Nutzer möglich. Betroffene Daten können unabhängig von Zeit und Ort entschlüsselt werden. D.h. wenn der gleiche Schlüssel verwendet wird, können Daten der Vergangenheit, der Gegenwart und der Zukunft entschlüsselt werden.
Dabei ist es auch irrelevant, ob die Daten auf dem Server oder auf dem Endgerät liegen oder die Daten gerade übertragen werden. (Vgl. [5])

Neben der Nutzung von Backdoors können auch Trojaner eingesetzt werden. Ein Trojaner, auch Trojanisches Pferd genannt, ist ein getarntes Computerprogramm. Der Trojaner besteht aus einer sichtbaren Anwendung und einem nicht sichtbaren Schadprogramm. Damit der Nutzer sich die augenscheinlich nützliche Anwendung installiert, wird oft Social Engineering eingesetzt.

Das Schadprogramm startet automatisch im Hintergrund und wird meist vom Anwender nicht bemerkt. Durch einen Trojaner kann ein unbefugter Dritter u.a. Zugriff auf den Computer des Betroffenen erlangen oder weitere Schadsoftware installieren. (Vgl. [5] und [6])

Die oben genannte Software hat einen deutlichen Einfluss auf den Datenschutz. Unter Datenschutz versteht man das Recht auf informationelle Selbstbestimmung. Das bezieht sich nur auf personenbezogene Daten und auf die Regelungen, ob und wie die Regelungen erhoben und verarbeitet werden dürfen.

Dagegen bezieht sich die Datensicherheit auf alle Daten in einem Unternehmen, Haushalt und weitere. Sie beinhaltet die Maßnahmen zum Datenschutz und bezieht sich weiterhin auf Datendiebstahl und Datensicherung, zum Beispiel in Form von Sicherheitskopien, um vor dem Verlust der Daten zu schützen. (Vgl. [7])

2.2 Aktueller Stand der Datenethik und des Datenschutzes

Neben dem Stand der Technik, gilt es auch die ethische Seite über unsere Thematik zu betrachten. Hierfür beziehen wir uns auf die Datenethikkommission (kurz DEK), welche am 18. Juli 2018 einberufen wurde. Die DEK befasst sich mit ethischen Grundsätzen und Prinzipien der Technik mit Bezug auf die Sicherheit, die Privatsphäre und die Demokratie.

Die Ergebnisse der Kommission werden in einem Gutachten festgehalten. Zu Beginn detailliert die DEK einige Grundprinzipien. So zum Beispiel ist die Würde des Menschen nur unangetastet, sofern der Mensch nicht völlig transparent für Außenstehende ist oder das Individuum nicht durch Täuschung, Manipulation oder Ausgrenzung verletzt wird.

Ebenso hat ein jeder Mensch das Recht auf informationelle Selbstbestimmung und Privatsphäre. Die Wahrung der Privatsphäre wird durch die Wahrung der Freiheit und Integrität der eigenen Identität beschrieben. Das schließt den Schutz der intimsten Daten ein. Die Sicherheit wird von der Datenethikkommission als körperliche und emotionale Sicherheit des Menschen tiefer definiert. Wenn Akteure wie Unternehmen mit den Daten arbeiten wollen, muss der Umgang immer verantwortungsvoll stattfinden.

Im Voraus müssen mögliche Risiken und Folgen bei der Datenverarbeitung und Datenweitergabe abgeschätzt werden. Betroffen sind hier die Allgemeinheit und Einzelpersonen, die auf Informationssicherheit abzielen. Die Empfehlung des DEK lautet, dass Maßnahmen geschaffen werden sollten, um eine unethische Datennutzung zu verhindern. Einerseits sollen hier die Unsicherheiten von Systemen bedacht werden. Systeme sollten möglichst sicher gestaltet sein, um sie vor äußeren Einflüssen zu wahren. Das bezieht sich auf Fehlfunktionen und Angriffe von Dritten, wodurch Daten manipuliert und ausgespäht werden können. Andererseits bezieht sich das auch auf die Rechte der Einzelperson.

Die Rechte des Menschen, wie zum Beispiel die Privatsphäre, dürfen nicht verletzt werden, indem beispielsweise eine Totalüberwachung erfolgt. Der Nutzer hat das Recht darauf, dass ihm transparent erklärt wird, wie die Daten im System genutzt werden und wie sie geschützt werden. Das erleichtert dem Nutzer eine Entscheidung für oder gegen eine Organisation zu treffen. Der Nutzer sollte dadurch auch feststellen können, ob seine Rechte verletzt worden sind oder nicht. Die Transparenz für die Bevölkerung soll mithilfe der Datenschutz-Grundverordnung (kurz DSGVO) umgesetzt werden. (Vgl. [8])

 2.3 Aktueller Stand der Gesetze

Zur Bekämpfung des Terrorismus und zur organisierten Kriminalität wird eine besondere Form der Überwachung eingesetzt. Mit der Quellen-Telekommunikationsüberwachung wird Kommunikation erfasst, bevor die Daten verschlüsselt werden oder nachdem die Kommunikation entschlüsselt wird. Die Quellen-TKÜ setzt eine richterliche Anordnung heraus und hat einen hohen Personaleinsatz zur Folge. Bei der verwendeten Software handelt es sich je nach Fall um eine Eigenentwicklung oder um eine kommerzielle Software. Als Richtlinie gilt die Standardisierte Leistungsbeschreibung (kurz SLB), welche die Freigabe nach Testverfahren und Feststellung der Konformität erteilt. (Vgl. [9])

Neben der Telekommunikationsüberwachung kann auch eine Online-Durchsuchung durchgeführt werden. Die Online-Durchsuchung beschreibt die verdeckte Durchsuchung von Geräten mit verschlüsselten Daten. Das Ziel ist hier die Verschlüsselung zu umgehen. (Vgl. [9])

Auch die Beugehaft ist eine gesetzliche Methode zur Informationsgewinnung. Eine Beugehaft kann von einem Richter angeordnet werden, wenn der Aussagepflicht nicht nachgekommen wird. Eine Beugehaft ist auf maximal sechs Monate beschränkt. Entgegen der Beugehaft greift das Zeugnisverweigerungsgesetz, welches in Kraft tritt, wenn man in einer verwandtschaftlichen Beziehung mit dem Beschuldigten steht oder sich mit der Beziehung selbst schwer belasten würde. (Vgl. [10])

3. Diskussion

3.1 Technische Sicht

Bei den einzelnen Verschlüsselungsarten Ende-zu-Ende, unverschlüsselt und Ende-zu-Server können verschiedene Angriffspunkte genutzt werden, wie das im Punkt 2.1 erläutert wurde. Die unverschlüsselte Datenübertragung hat ein großen Potential Daten an Unbefugte zu verlieren, da nur ein Gerät gehackt oder die Leitung ausgelesen werden muss, um die gesamte Kommunikation abhören zu können. Da keine Verschlüsselungstechnik angewendet wird, ist die Variante als sehr unsicher einzustufen. Bei der Ende-zu-Server-Verschlüsselung können durch das gezielte Hacken auf die Daten vieler Personen zugegriffen werden. Es gilt das Risiko des Hackings mit dem Nutzen, die Verbrechen besser aufklären zu können, abzuwiegen. Die Bundesregierung kann den Betreiber des Systems im Verbrechensfall dazu zwingen, die Daten und ggf. eine entsprechende Datenanalyse bereitzustellen. Die Methode ist zwar sicherer als eine Datenübertragung ohne Verschlüsselung, aber es gibt noch zu viele Angriffspunkte.
Die Ende-zu-Ende Verschlüsselung verweigert den Zugriff auf die Daten, abgesehen vom Endgerät. Somit muss hier der Staat die Geräte konfiszieren, um die Daten auslesen zu können. Um an die Daten zu kommen, wird der Zugriff auf ein beteiligtes Gerät benötigt, was das Abhören deutlich erschwert. Die Bundesregierung ist in der Lage beispielsweise mit der Hilfe des Bundestrojaners gezielt auf Geräte und deren Daten zuzugreifen. Die Verschlüsselungstechnik kann als relativ sicher angesehen werden.
Würde hier eine Backdoor eingebaut werden, kann die Sicherheit nicht mehr erhalten werden. Abhängig von der Implementierung der Backdoor ist Abhören auf Leitung oder Gerät nicht ausgeschlossen und damit ist die Methode fast der unverschlüsselten Datenübertragen gleichzusetzen. Meist ist es nur eine Frage der Zeit bis Backdoors in Systemen von Unbefugten gefunden und ausgenutzt werden. Abbildung 4 

3.2 Gesellschaftliche Sicht

Aus der Sichtweise der Privatperson stellt sich die Frage, welche Auswirkungen eine Schwächung oder eine Auflösung der Verschlüsselung hätte und ob der Sachverhalt alle Nutzer betreffen würde. Das Einbauen einer Backdoor kann zu erheblichen Datenschutzproblemen führen. Dritte und Unbekannte könnten Zugriff auf die Daten der betroffenen Privatpersonen erlangen. Hierbei besteht für den Nutzer keine Transparenz, wie der DEK es empfehlen würde. Es ist nicht klar, wer genau die eigenen Daten einsehen kann oder was mit den Daten durch Dritte im Verborgenen passiert. Wird die Backdoor durch Behörden genutzt, ist zudem ungewiss, ab wann es tatsächlich zum Zugriff gekommen ist. Anwendungsfälle sind beispielsweise Steuerhinterziehung, Mord oder Terrorismus. Im Falle von Terrorismus wäre jedoch die öffentliche Sicherheit betroffen. Die DEK empfiehlt hier eine Zugangsgewährungspflicht, wenn das zugunsten des Allgemeinwohls und der Öffentlichkeit passiert. Nun ist fraglich, ob die Schwächung der Ende-zu-Ende-Verschlüsselung, die die gesamte Bevölkerung betrifft, oder Terrorismus, bei dem ein relativ kleiner Teil der Bevölkerung betroffen ist, die größere Gefahr ist.

Wenn man die Dienstanbieter betrachtet, sollen sie in der Pflicht sein sich selbst um die Ver- und Entschlüsselung zu kümmern. Allerdings ist hier unklar, wie das geschehen soll. Im Falle eines Verbrechens wäre es das Ziel Verschlüsselungen von bestimmten Nutzern aufzuheben, um die übertragenen Daten für Behörden zugänglich zu machen. Es gibt hier drei Möglichkeiten:

1.          Eine gezielte Aufhebung der Verschlüsselung von bestimmten Nutzern bedeuten für die Anbieter einen enormen Aufwand, welche mit Kosten verbunden sind.

2.          Ein einfacherer Weg wäre es, eine Ende-zu-Server-Verschlüsselung aufzubauen oder die Verschlüsselung ganz aufzuheben. Aber das ist mit Unsicherheiten für alle Nutzer verbunden.

3.          Der Dienstanbieter weigert sich, die Ende-zu-Ende-Verschlüsselung aufzuheben. In dem Fall soll der Dienst durch die Bundesnetzagentur gesperrt werden. Allerdings ist hier fraglich, wie das bei Unternehmen anderer Länder durchgesetzt werden soll.

Bei Möglichkeit 1 und 2 ist die Transparenz, ob die Daten vom Nutzer tatsächlich verschlüsselt sind, gegenüber dem Nutzer nicht gewährleistet. Ist die Verschlüsselung aufgehoben und Angreifer oder andere Firmen nutzen die entstandene Sicherheitslücke, so kann das ebenfalls zu gravierenden Datenschutzproblemen kommen.
Das Vertrauen von Kunden zum Unternehmen würde leiden und das kann wirtschaftliche Folgen haben. Das DEK empfiehlt den Unternehmen ihre Systeme sicher und robust zu gestalten. Das geschieht unter anderem durch gute Verschlüsselungsmechanismen oder Anonymisierung. (Vgl. [8])

Aus Sicht des Staates beziehungsweise der zuständigen Sicherheitsbehörden ist es das Ziel durch die gezielte Überwachung einzelner Personen eine Kostenreduzierung zu ermöglichen. Durch die gewonnene großflächige Überwachung würden viele Personal- und Verwaltungskosten wegfallen. Zum aktuellen Zeitpunkt findet hierfür der Bundestrojaner Einsatz. Der Bundestrojaner hat den Nachteil, dass viele Zielsysteme nicht mit ihm infiziert werden können. Durch eine Aufhebung der Verschlüsselung könnten, die nicht infizierten Systeme abgedeckt werden. (Vgl. [11])

Eine hieraus hervorgehende totale Überwachung könnte im schlimmsten Falle zu politischen Problemen führen, wie die Einschränkung der Meinungsfreiheit bis hin zu einem Bewertungssystem einzelner Personen, wie es in China der Fall ist. Dort wird mit dem “Chinesisches Social-Credit System” jedem Individuum eine Punktzahl zugeordnet. Für politisch negative Auffälligkeiten werden Punkte abgezogen. Eine zu niedrige Punktzahl hat zur Folge, dass den betroffenen Personen Freiheiten verwehrt werden. Beispielsweise können Kinder von Eltern mit niedriger Punktzahl von Schulen ausgeschlossen werden oder Personen mit niedriger Punktzahl können einfach ihren Job verlieren. (Vgl. [12])

Der Konflikt, zwar die gesamte Bevölkerung ausspionieren zu können, dafür allerdings auch eine große Angriffsfläche für Hacker zu bieten, sollte wohl überlegt abgewogen werden. Aus abstrakter Betrachtungsweise muss mit einer deaktivierten Verschlüsselung eine große Menge an Terrorismus verhindert werden, damit sich die Nachteile für die Bevölkerung ausgleichen. Es gilt die Auswirkungen eines Terroranschlags und der Verlust großer Datenmengen durch beispielsweise einen Hacker mit Auswirkung auf die gesamte Bevölkerung abzuwiegen. Auch die wirtschaftlichen Folgen spielen hier eine Rolle.

3.3 Rechtliche Sicht

Zur Erörterung der rechtlichen Sichtweise nehmen wir uns ein Fallbeispiel heran, bei dem eine Datenaushändigung mit vorher erteilter Berechtigung durch eine juristische Gewalt vorangeht. Als erste rechtliche Pflicht greift hier die Zeugnispflicht. Die Regelung zwingt die Person zur Preisgabe der Daten, sofern Kenntnisse über eine Gesetzeswidrigkeit oder Informationen vorliegen, welche bei der Aufklärung des Verbrechens helfen. Eine Ausnahme bildet hier das Zeugnisverweigerungsrecht.
Das Zeugnisverweigerungsrecht tritt ein, sofern die Person in verwandtschaftlicher Beziehung zum Beschuldigten steht oder sich die Person selbst schwer belasten würde. Wenn die Pflicht der Herausgabe nicht nachgekommen wird, dann muss man die verursachten Kosten oder ein Ordnungsgeld zahlen oder eine Beugehaft wird angeordnet. In einigen Härtefällen ist auch eine Kombination aller drei Strafen möglich. Für den Fall der Beugehaft wird ein Erzwingungshaftbefehl ausgestellt, mit der Frist zur Einfindung bei der zuständigen Behörde. Wird dem Ersuchen nicht nachgekommen, so kann eine Personenfahndung angeordnet werden, welche zur Verhaftung führt.
Von der betroffenen Person kann eine Beschwerde eingereicht werden, welche allerdings die Frist nicht außer Kraft setzt. Eine Kooperation und eine Preisgabe der Daten oder deren Zugänge führt zur Entlassung aus der Beugehaft. Im Falle der Zuwiderhandlung wird die Freilassung erst nach Beendigung des Verfahrens stattfinden, allerspätestens aber nach sechs Monaten. Eine erneute Beugehaft für dasselbe Verfahren darf nicht angeordnet werden. (Vgl. [10])

Als Alternative zu der Informationsbeschaffung im oben genannten Fallbeispiel, besitzt der Staat Methoden zur Telekommunikationsüberwachung, wie zum Beispiel den sogenannten Bundestrojaner. Unabhängig davon, welche Software zur Informationsbeschaffung benutzt wird, muss die Software einmal in das Zielsystem eingeschleust werden. Dabei gibt es hauptsächlich drei Möglichkeiten.
Als Erstes könnte die Software durch einen physischen Zugriff auf dem Zielsystem installiert werden. Die Verfahren werden meist als unverhältnismäßig angesehen, da der Eingriff in die Privatsphäre zu groß ist. Außerdem kann die Installation auch nicht mit den offenen Maßnahmen wie einer Wohnungsdurchsuchung verknüpft werden, da die Betroffenen von den Eingriffen in Kenntnis gesetzt werden müssen, was eine geheime Informationensammlung ausschließt.
Die zweite Möglichkeit ist die Täuschung des Betroffenen, bei der die Staatsbehörden ebenfalls nicht viel Freiraum haben. Das Täuschungsverbot und der Grundsatz der Selbstbelastungsfreiheit verbieten es aktive und bewusste Fehlinformationen zu benutzen, sowie den Beschuldigten durch Manipulation zur Selbstinstallation der Überwachungssoftware zu bewegen. Außerdem gibt es noch die Möglichkeit der Ausnutzung von Sicherheitslücken. Um einem Kompromiss zu erzielen, muss die Gesetzgebung dahingehend angepasst werden, dass Behörden, welche Zugang zum Endgerät benötigen, den Zugang auch rechtlich abgesichert bekommen können. Sofern ein richterlicher Beschluss vorliegt, sollte die Überwachung problemlos von der Polizei ausgeführt werden können. (Vgl. [11])

4. Zusammenfassung

Aus den erläuterten Gesichtspunkten wird das Fazit geschlossen, dass die These des Berichts nicht richtig sein kann. Das Verhältnis von Sicherheit und Ende-zu-Ende-Verschlüsselung ist wie ein Gleichgewicht. Nehmen wir an, man würde die Ende-zu-Ende-Verschlüsselung aufheben oder eine Backdoor in das System einbauen: Das hätte negative Auswirkungen auf die Sicherheit der Nutzer und auf die Dienstanbieter. Das betrifft vor allem Datenschutz und Wirtschaftlichkeit, da Daten von Dritten mitgelesen werden können. Um die Sicherheit zu gewährleisten, müsste der Staat demnach die Ende-zu-Ende-Verschlüsselung unterstützen und bei Unternehmen weiter ausbauen. Es besteht trotzdem noch die Gefahr von Terrorismus und Verbrechen.
Das Verhältnis von Informationsgewinn über mögliche Täter und Verletzung der Datenschutzrechte ist hier nicht äquivalent. Damit wäre es nicht ethisch, die Rechte der gesamten Bevölkerung zu schädigen, um verhältnismäßig wenige Täter zu überführen und so das Allgemeinwohl nur mäßig zu verbessern. Wenn die Behörden die schon gegebenen Rahmenbedingungen nutzen und erweitern, dann könnten sie in der Lage sein, die Täter auch ohne Schwächung der Verschlüsselung zu überwachen.
Hierzu könnte die Quellen-Telekommunikationsüberwachung näher begutachtet werden: Wie müsste die Software und die Gesetzeslage angepasst werden, damit die Polizei in der Lage ist, die Quellen-Telekommunikationsüberwachung besser zu nutzen? Bestimmte Themen wie die grundlegenden Arten der Verschlüsselungen wurden nicht näher ausgeführt, da das uns zu weit vom Thema entfernt hätte. Dadurch ist es möglich, dass nicht jeder Leser, der nicht so viel Erfahrung mit Technik hat, abgeholt werden kann. Die Diskussion wurde in drei Teile gegliedert, um die Fachbereiche Technik, Gesellschaft und Recht getrennt voneinander beleuchten zu können. Das hat allerdings den Nachteil, dass sich Inhalte doppeln. Deshalb wurde die Diskussion in mancher Hinsicht flach gehalten.
Bei der Zitierung wurde auf eine technische Form, die Durchnummerierung der Autoren, zurückgegriffen. Die Technik wird allerdings nicht in allen Fachbereichen anerkannt. Des Weiteren entsprechen nicht alle Quellen den wissenschaftlichen Standards. Es wurde u.a. auch auf Foren und ungenaue Inhalte zurückgegriffen.

Quellen

 

 

 

 

 

 

Abb. 1: unverschlüsselte Datenübertragung
Abb. 2: Datenübertragung mit Ende-zu-Server-Verschlüsselung
Abb. 3: Datenübertragung mit Ende-zu-Ende-Verschlüsselung
Abb. 4: Datenübertragung mit Ende-zu-Ende-Verschlüsselung und mit einer eingebauten Backdoor
   

5G ist nicht an jeder Milchkanne notwendig

Abstrakt

Die Bildungsministerin Anja Karliczek (CDU) äußerte sich kritisch zum 5GAusbau. „Sehr gut ausgestattet“ würde Deutschland bereits durch ein flächen-deckendes 4G-Netz sein und „5G ist nicht an jeder Milchkanne notwendig“.[1]

Besondere Relevanz besitzt diese Problematik aufgrund ihrer Aktualität. Die mit der Einführung von 5G einhergehenden Veränderungen sind sehr weitreichend. Dementsprechend muss eine Diskussion des Zitats auf einer fachlich fundierten Basis erfolgen. Alleinstehend lässt sich die Äußerung Karliczeks aufgrund ihres metaphorischen und nichttechnischen Charakters nicht bewerten. Zuerst bedarf es einer genaueren Untersuchung des Kontextes, um eine Analyse durchführen zu können. Zu diesem Kontext gehören sowohl der Standpunkt Karliczeks speziell in der Debatte um 5G, als auch ihre Einstellung zum Fortschritt im Allgemeinen. Einführend werden Grundlagen der 5G-Technologie erläutert. Es wird gezeigt, dass sich Karliczeks Darstellungen im Widerspruch zu derzeitigen Entwicklungen, wie z.B. der fortschreitenden Digitalisierung in der Landwirtschaft, befinden. Abschließend werden Anwendungsszenarien mit 5G exemplarisch erläutert und es wird auf den Nutzen von 5G sowohl in urbanen als auch in ländlichen Regionen hingewiesen.

1. Einführung in das Thema

Das Interesse an 5G ist zurzeit so populär wie nie zuvor. Das liegt vor allem an den Versteigerungen der Lizenzen von 5G, bei denen über 6,5 Milliarden Euro ausgegeben wurden. [2]
Durch das große populistische Interesse wird jedoch oft ein falsches Bild von der neuen Entwicklungsstufe des Mobilfunks dargestellt. Aufgrund der vielseitigen Einsatzmöglichkeiten von 5G ist es sehr komplex eine standardisierte Definition zu formulieren.
5G ist nicht nur eine Weiterentwicklung des aktuellen 4G-Standards, sondern vielmehr eine Technologie mit einem unglaublich großen Anwendungsspektrum. Hierbei steht weitestgehend die Datenkommunikation im Vordergrund. Aufgrund der neuen Anforderungen an das Netz stehen die Netzbetreiber unter immensen Druck den Bedarf an schnelleren Datenverbindungen bereitzustellen. [3]

Die Politik vermittelt aktuell oft falsche Anwendungsszenarien und Möglichkeiten der neuen Technologie. Aus diesem Grund ist die Intention der Arbeit die Aufarbeitung der Funktionsweise und Anwendungsmöglichkeiten von 5G. Weitergehend wird der Einfluss der Politik auf die neue Mobilfunktechnologie, mit Hilfe einer Aussage der Bundestagsabgeordneten Anja Karliczek (CDU), analysiert.
Die Sicht auf das Thema 5G ist aktuell oft noch sehr oberflächlich, wobei hier meist ein falsches Bild von 5G dargestellt wird. So sagte die Bundesministerin für Bildung und Forschung Anja Karliczek beispielsweise
„5G ist nicht an jeder Milchkanne notwendig“ [1].
Zum jetzigen Stand ist der Ansatz 5G flächendeckend bereitzustellen grundsätzlich nicht im Sinne der Technologie. Der flächendeckende Ausbau von 5G wird noch viele Jahre dauern und soll im aktuellen Ansatz kein Ersatz des momentanen Standards 4G darstellen. Vielmehr sollen die Mobilfunknetze 4G und 5G parallel laufen und sich gegenseitig ergänzen. Dabei soll 5G weniger dem flächendeckenden Ausbau dienen, sondern viel mehr den neuen Anforderungen der Kapazitäten, Hochverfügbarkeiten, Echtzeitkommunikation, Energieeffizienz und der steigenden Bandbreite gerecht werden. Der Einsatz des neuen Mobilfunkstandards ist jedoch gerade für ein solches Szenario, wie der Milchkanne, prädestiniert. Aktuell befindet sich die Landwirtschaft in einem digitalen Wandel. Die Digitalisierung bietet hier grundsätzliche Vorteile in der Steuerung und Überwachung des laufenden Betriebes. Die Landwirte können mit den gesammelten Daten frühzeitig entstehende Probleme erkennen und vorbeugen, dadurch kann heute schon der Ertrag eines Hektars Weizen um das Vierfache gesteigert werden.[4]

Durch diese Technologien ist es der Landwirtschaft möglich, viele Einflussfaktoren, die essenziell für den Erfolg sind, besser zu kontrollieren und die Qualität der Produkte frühzeitig zu überwachen. Bei diesem Thema wäre die Unterstützung der Politik von besonderer Wichtigkeit, um die Digitalisierung weiter voranzutreiben.

2. Grundlagenwissen: 5G

Der grundsätzliche Unterschied zum Vorgänger 4G ist die Architektur. Das neue Mobilfunknetz kann sich an die individuellen Anforderungen vor Ort anpassen und die verschiedenen Use Cases, wie zum Beispiel ein Netz mit sehr kurzen Antwort und Reaktionszeiten in Echtzeit für autonomes Fahren, abbilden. An einem anderen Standort kann dann wiederum ein stark breitbandiges Netz mit großer Kapazität errichtet werden. Allerdings ist zu beachten, dass das 5G Netz aufgrund der aktuell verfügbaren Frequenzen nicht ohne Weiteres flächendeckend ausgebaut werden kann. Es wäre aktuell kommerziell und ökonomisch nicht rentabel, da die Anzahl der verfügbaren Funkmasten mehr als verzehnfacht werden müssten. [1] Im Vergleich zu den vorhergehenden Mobilfunkstandards bietet 5G jedoch grundsätzlich neue

Anwendungsbereiche. Technisch gesehen lässt sich durch eine Kanalbündelung und der Zuweisung von mehreren Frequenzblöcken eine sehr hohe Bandbreite unter Berücksichtigung von geringerer Reichweite für den einzelnen Nutzer realisieren. Die Anforderungen an das Netz bezüglich der Kapazitäten wird vor allem durch die steigenden Nutzerzahlen getrieben. Es sollen sich zukünftig nicht nur menschliche Nutzer im Netz befinden, sondern auch mehr physische Gegenstände für den gewerblichen und privaten Zweck. Mit Hilfe von Small Cells werden hier auf kurze Distanz von bis zu 150 Metern neue Zellen für die Gebiete bereitgestellt, wodurch höhere Kapazitäten realisiert werden können.
Zusätzlich kommen Mehrantennen-Systeme zur weiteren Steigerung der Kapazitäten und Zuverlässigkeit zum Einsatz. Dabei wird dem Nutzer das Verwenden mehrerer Sende- und Empfangsantennen zur Kommunikation ermöglicht. Im Zuge der Mehrantennen-Systeme wird mit Hilfe von Beamforming eine gezielte Ausrichtung der Senderichtung zum Endgerät ermöglicht. Die Verbreitung des Signals weg von der kreisförmigen Ausbreitung zur punktuellen Ausrichtung führt zu angepassten Sendeleistungen, Reduzierung des Energiebedarfs im Sender und geringeren Störungen in der Kommunikation.
Oft haben unterschiedliche Nutzer auch unterschiedliche Anforderungen an das Netz. In dem zukünftigen Netz ist es daher von großer Bedeutung das physische Netz in unterschiedliche virtuelle Netze mit klar definierten Qualitätsmerkmalen zu unterteilen. Dabei können dem Nutzer bestimmte Parameter fest zugesichert werden. Networkslicing beschreibt diese Unterteilung der Netze in Scheiben und die Implementierung einer Intelligenz in den Funkstationen.
Entlang dieser technischen Grundprinzipien gibt es viele neue Technologien, um ein intelligenteres und flexibleres Netz zu erstellen. Zusätzlich ist ebenfalls der Glasfaserausbau für 5G von großer Bedeutung, denn ohne die Anbindung der Mobilfunkstationen mit Glasfaserkabeln an das Kernnetz kann die neue Technologie nur begrenzt verwendet werden [5].

3. Analyse – Karliczek

Karliczeks derzeitiger beruflicher Tätigkeit zufolge, liegt die Diskussion um 5G eindeutig in ihrem Zuständigkeitsbereich: Seit Anfang 2018 ist sie als Ministerin im Kabinett Merkel in einem hohen Maß an politischen Entscheidungen unter anderem zum technischen Fortschritt in der Bundesrepublik beteiligt. Sie folgt auf Johanna Wanka, eine Professorin für Informatik und Mathematik. Karliczek selbst hat eine wirtschaftswissenschaftliche Laufbahn absolviert. Ihre Motivation für die Einarbeitung in ihr Amt hat sie bereits bekräftigt: Sie werde „fragen, fragen, fragen“ [6].

Ihre interessierte Haltung wurde bereits von Mitarbeitern des Bundesministeriums für Bildung und Forschung (BMBF) positiv hervorgetan. [7]
In einem Interview, dessen Bedeutung hier allerdings noch nicht weiter untersucht werden soll, nimmt sie unter anderem Stellung zu ihrem „Milchkannen“-Zitat. Auffällig ist dabei vor allem ihre Wortwahl, sie geht davon aus, beizeiten 5G auf ein flächendeckendes 4G-Netz „draufsetzen“ [8] zu können. Wie anfangs bereits erläutert, sind 4G und 5G entgegen der Namensgebung alles andere als äquivalent. Die Vorstellung, 5G handele sich lediglich um ein Inkrement von 4G, das nur die bestehende Infrastruktur weiternutzt, ist nichtzutreffend. Teilweise können vorhandene Basisstationen durchaus um 5G erweitert werden, jedoch unterscheidet sich 5G bezüglich der Netztopologie von seinem Vorgänger. Es ist vorgesehen, dass, abhängig vom Bedarf und anderen Anforderungen, wie z.B. der Anzahl der zu versorgenden Geräte auf einem Fabrikgelände, 5G-Netze mit unterschiedlicher Dichte errichtet werden (s. Abbildung 1).

Da 5G-Funkzellen frequenzbedingt kleiner sind, bedarf es der Errichtung einer großen Anzahl neuer Stationen. [9] Selbst, wenn von einem flächendeckenden 5GAusbau ausgegangen wird, trägt ein gut ausgebautes 4G-Netz nur einen Teil zum 5G-Ausbau bei: Durch gestiegene Anforderungen lassen sich Netzelemente nicht immer einfach um 5G-Komponenten erweitern, sondern müssten teils kostspielig umgerüstet werden, sofern eine Umrüstung in einigen Fällen überhaupt möglich ist. [10]

Es lässt sich eine eher einfache und wenig präzise, wenn nicht gar falsche Wortwahl der Ministerin feststellen. Zwar handelt es sich nur um einen einzelnen Auszug, jedoch ist bereits ein falsches Grundverständnis des Themas erkennbar. Sehr wahrscheinlich ging daher der Äußerung eine nur oberflächliche Auseinandersetzung mit dem Thema voran. Am Tag ihrer Designation als Ministerin des BMBF legte Karliczek den Begriff „konservativ“ als etwas aus, das dem Fortschritt nicht im Weg stünde. [11]

Die Gesamtheit ihrer Handlungen lässt allerdings eine Linie durchblicken, die ihrer Auslegung stark und konsequent widerspricht. Besondere Bekanntheit hat ihre Äußerung erlangt, dass jeder technologische Fortschritt sich hinter dem christlichen Menschenbild einzureihen habe. [12]
Als CDU-Politikerin ist zwar eine konservative Politik ihrerseits zu erwarten. Einige ihrer Standpunkte haben aber bereits innerparteiliche Kritik ausgelöst, darunter ihre Äußerung zu 5G in der Landwirtschaft. [13]
Es zeichnet sich die Problematik ab, dass Karliczek selten alle Fakten zu kennen oder zu berücksichtigen scheint. Ein weiteres Beispiel ist ihre Stellungnahme zum Einfluss der Erziehung von Kindern durch homosexuelle Paare, in der sie Untersuchungen forderte, die schon durchgeführt worden sind und deren Ergebnisse längst bekannt waren. [14]

Besonders fatal ist ein mangelhafter Wissensstand in der Diskussion um den 5G-Ausbau, der sich durch besondere Komplexität auszeichnet und daher ein umfassendes Sachverständnis erfordert. Durch ihre spärliche Begründung ist nicht ersichtlich, weshalb Karliczek dem 5G-Ausbau auf dem Land überhaupt die Priorität abspricht. Die vor allem sehr kurze Aussage, 5G würde nicht an jeder Milchkanne benötigt, lenkt den Fokus auf ihr einziges angeführtes Argument, 4G würde ausreichen. Die beiden Mobilfunkstandards sind konzeptionell schwer zu vergleichen. Sollten Verbindungen mit 4G nur grundlegend schneller sein und neue Funktionen bereitstellen, gestaltet sich eine Analyse von 5G schwieriger.
Für 5G wurden zwar ebenfalls Leistungsmerkmale, wie beispielsweise ein um 90% reduzierter Energieverbrauch, vereinbart. Ebenso in einigen weiteren Punkten ist eine Teilmenge von 5G seinem Vorgänger sehr ähnlich, nämlich wenn es um eine reine Leistungssteigerung bzw. Steigerung von Kennwerten geht. Ferner lässt sich 5G ähnlich wie 4G in Bestandteile, z.B. in ein Kern- und Zugangsnetz aufteilen. Bezeichnend und ein Alleinstellungsmerkmal für 5G ist allerdings ein gewisses Umdenken: Insgesamt soll eine leistungsfähige physikalische Infrastruktur bereitgestellt werden, auf der Softwareschichten abstrahierend aufsetzen. Als große Anwendungsbereiche wurden Massive IoT (mIoT), Enhanced Mobile Broadband (eMBB) und Ultra-Reliable Low-Latency Communications (URLLC) mit entsprechend verschiedenen Anforderungen an das Netz definiert. [15]

5G ist somit flexibler gestaltet, bringt einen erweiterten Funktionsumfang und Zukunftssicherheit mit sich und wird damit einer immer stärker vernetzten Welt gerecht. Der Ausbau von 5G ist daher ein notwendiger Schritt. Jedoch: Angesichts der eher schlechten Mobilfunkabdeckung in Deutschland [16] erscheint jedenfalls ein Teil der Aussage Karliczeks, 5G sollte ein flächendeckendes 4G-Netz zur Grundlage haben, nicht abwegig. Ungeachtet dessen, dass sich 5G nicht ohne Weiteres auf 4G „draufsetzen“ lässt, stellt sich die Frage, an welcher Stelle die Politik Prioritäten zu setzen hat. Sollte sich zuerst auf den Ausbau des flächendeckenden 4G-Netzes konzentriert werden, obwohl andere Länder bereits ihren 5G-Ausbau vorantreiben? Trotz der unterschiedlichen zugrundeliegenden Technologien besitzen beide Netze einen bereits hohen bzw. zunehmenden Stellenwert. Daher kann nicht einfach zugunsten einer Technologie entschieden werden: Auf den weiteren Ausbau des bereits bestehenden 4G-Mobilfunknetzes hinzuweisen ist zwar berechtigt, jedoch sollte Karliczek nicht unmittelbar von einer Notwendigkeit für 5G sprechen. Zwar greift 5G zum Teil stark, vor allem in seiner Anfangsphase, auf bestehende 4G-Infrastruktur zurück. Die unzureichende Abdeckung mit 4G sollte für die Entwicklung von 5G trotzdem nur einen kurz- bis mittelfristigen Mangel darstellen, der akzeptiert und berücksichtigt werden muss, während andererseits der Ausbau des 4G-Netzes bis zur Flächendeckung durchgeführt zu werden hat.

5G als „nicht an jeder Milchkanne notwendig“ zu bezeichnen, zeigt darüber hinaus ein falsches Bild der Realität: „Milchkanne“ synonym für ländliche Regionen zu verwenden bedeutet, 5G würde auf dem Land, insbesondere in der Landwirtschaft, größtenteils nicht benötigt werden. Die Milchkanne als Begriff im Kontext des Zitats weckt Assoziationen, die wenig mit Fortschritt gemeinsam haben. Daher mag Karliczeks Einwand zuerst richtig und 5G möglicherweise sogar als obsolet für die Landwirtschaft erscheinen. Bei näherer Betrachtung fallen einige dazu in Widerspruch befindliche Sachverhalte auf. Im Zuge der Automatisierung und Digitalisierung in allen Arten von Produktionsstätten wurde für die Landwirtschaft im Speziellen das Schlagwort „Landwirtschaft 4.0“ geschaffen. Besonders prägt den Begriff die zunehmende Vernetzung von Maschinen. [17]

Das Fraunhofer-Institut prognostiziert eine Entwicklung bis hin zur vollständigen Autonomie in einigen Teilbereichen der Landwirtschaft. [18] Es lässt sich nicht abstreiten, dass die Landwirtschaft längst einen digitalen Wandel durchlebt (s. Abbildung 2). Den 5G-Ausbau aufgrund mangelnder Anwendungsszenarien verwehren zu wollen, ist nicht nachvollziehbar. Karliczeks Einwand käme einer künstlichen Barriere gleich. Entwicklungen in anderen Bereichen, wie beispielsweise die Digitalisierung für die Industrie 4.0, werden aktiv vorangetrieben. Dazu kommt, dass für den 5G-Standard, ähnlich wie für andere Technologien, Anwendungsfälle anfangs nur teilweise vorhergesehen werden können.
Aus diesem Grund wurden für 5G, wie bereits erläutert, Vorkehrungen für ein gewisses Maß an Zukunftssicherheit getroffen. Mit großer Wahrscheinlichkeit wird 5G deshalb für Anwendungsfelder, die in Zukunft erst noch erschlossen werden, eine Basis darstellen können. Mit keiner Gewissheit kann Karliczek daher behaupten, 5G würde im landwirtschaftlichen Sektor nicht benötigt werden.    

4. Die Zukunft mit 5G

Mit dem flächendeckenden Ausbau, auch auf dem Land, sollten wir uns nicht mehr zu viel Zeit lassen (Vgl. [19]), um von den Vorteilen zu profitieren und den wirtschaftlichen Standpunkt der Bundesrepublik Deutschland weiter auszubauen.
Mit der stetigen Einführung von 5G werden immer mehr Möglichkeiten Realität. Dabei sollte zwischen öffentlich zugänglichen Netzen, die für die allgemeine Bevölkerung zugänglich sind und privaten Netzen unterschieden werden, welche viel genaueren Richtlinien entsprechen und auf den individuellen Einsatz sehr speziell eingerichtet werden können. Die sogenannten Campus-Netze sind Mobilfunknetze für einen speziellen Bereich, wie zum Beispiel einen modernen digitalisierten Bauernhof, aber auch Flughäfen oder Paketverteilzentren sind mögliche Anwendungsgebiete.
Hier könnte für einen Bauernhof ein Netz mit kurzer Reaktionszeit etabliert werden, damit autonomes Fahren auf dem Gebiet möglich ist. Die Getreideernte kann so unterstützt werden, in dem der Traktor autonom das gegebene Feld perfekt abfahren, dabei besonders effiziente Wege finden und so in Echtzeit (1-10 ms Latenz) auf Zustände reagieren kann. Die gesammelten Daten können direkt erfasst und ausgewertet werden und per Maschine-zu-Maschine-Kommunikation kann die intelligente Produktionsstraße exakte Prognosen über die Fertigstellung und Lieferung bieten.
Mittels Echtzeitanalysen kann der Produktionsausstoß erhöht werden [20]. Ferner wird der Einsatz von Internet of Things (IoT) Anwendungen steigen, was für mehr Sicherheit für den Verbraucher sorgt. Zuletzt gab es einen Milchskandal, bei dem durchfallerregende Bakterien in der Milch gefunden wurden [21]. Diese konnten erst nach einer Routineuntersuchung festgestellt werden. Auch in diesem Fall könnte die Produktionsanlage an ein privates 5G-Netz angeschlossen werden, sodass genaue Sensoren die Verunreinigung direkt mitteilen können. Der Verbraucher kann durch die vernetzte Produktion noch besser geschützt werden. IoT mit 5G zusammen bietet sehr gute Lösungen für eine effizientere Arbeitsweise durch die Optimierung von Teilschritten bei der Produktion bis hin zur Auslieferung, da stets die Position und der Zustand von Gütern übermittelt werden können.

Doch nicht nur auf ab-getrennten Bereichen soll 5G eine Rolle spielen. Weitere Anwendungsgebiete liefert auch das Kommunikationsnetz für den privaten Gebrauch. Eine bereits eingeführte Erweiterung der Kartenanwendung Google Maps liefert dem Nutzer nun durch die Kamera des Smartphones und einem AR-Core (Augmented Reality) im Gerät eine neue Ansicht zur Navigation zu Fuß. Der Nutzer kann sich nun umschauen und erhält auf seinem Gerät in der Realität Markierungen an Gebäuden und bekommt damit Informationen dazu. Mit dem neuen Mobilfunkstandard und der geringeren Latenz von bis zu 1 ms können dem Anwender nun Ergebnisse in Echtzeit geliefert werden. Denkbar sind hier auch Tipps für Touristen zu Sehenswürdigkeiten.
Mit der erhöhten möglichen Verbindungsdichte von bis zu 1 Million Geräte per km2 statt 10.000 per km2 im Vergleich zu 5G ist diese neue Technologie auch in Großstädten möglich. Damit rückt der Begriff Smart City [22] in den Vordergrund. Es kann dadurch nicht nur für den Verbraucher ein Vorteil entstehen, sondern für unseren kompletten Planeten. Durch 5G in den Städten kann Strom eingespart werden, wenn smarte Straßenlaternen sich mit Fußgängern beziehungsweise ihren Smartphones vernetzen oder auch annähernden Autos. So kann das Licht herunter gedimmt werden, sofern kein Licht mehr benötigt wird.
Um Schadstoffemissionen von Autos weiter zu reduzieren, ist auch die Idee von smarten Parkplätzen von großer Bedeutung. So kann an das Smartphone übermittelt werden, wo ein freier Parkplatz verfügbar ist und dieser direkt reserviert werden. Dadurch kann eine lange Parkplatzsuche verhindert werden. Auf dem Weg zum Parkplatz kann dabei gleich eine intelligente Ampelschaltung den Verkehr so steuern, dass Ampelsysteme auf herannahende Autos reagieren können und so das Bremsen, verbunden mit dem erneuten Anfahren, vermeiden.

Es zeichnet sich der Trend ab, dass in dicht besiedelten Gebieten die Anwendungsfälle von 5G wesentlich höher sind als auf dem Land, da wesentlich mehr Einzelsysteme von gemeinsam gesammelten Daten profitieren können und diese zielbringend einsetzen können. Außerhalb von Städten, Fabriken und Logistikzentren spielt 5G im Zusammenhang mit Effektivität und Nutzen momentan eine eher untergeordnete Rolle.

5. Evaluation

Um den Bericht an dieser Stelle einmal kritisch zu betrachten, liegt das Hauptaugenmerk auf den Autoren. Sie sind alle Informatikstudenten und dem Thema gegenüber vorbelastet. Man kann davon ausgehen, dass jeder Einzelne, sei es privat oder im Rahmen des Studiums, sich bereits mit dem Thema 5G auseinandergesetzt hat und die ganze Thematik dementsprechend voreingenommen bearbeitet wurde.

Der Artikel wurde, wie bereits beschrieben, von mehreren Autoren verfasst, wobei jeder einzelne für ein Kapitel verantwortlich war. Das Verfassen und das anschließende Zusammenführen einzelner Kapitel bringt natürlich einige Probleme mit sich. Verschiedene Autoren verfassen ihre Texte unterschiedlich, was zu einer inkonsistenten Formulierung führen kann. Zusammenfassend muss man vermerken, dass Frau Karliczek ihre Aussage bereits korrigiert bzw. verändert hat. Laut eigenen Aussagen hat Frau Karliczek ein falsches Bild gewählt, um ihre Nachricht zu übermitteln und sie würde die Aussage auch nicht noch einmal treffen. Dieser Bericht bezieht sich allerdings zu großen Teilen auf das von Frau Karliczek kreierte falsche Bild. Jedoch befasst sich der Artikel auch mit der Revision von Frau Karliczek und wie oben bereits beschrieben, war auch ihre angepasste bzw. veränderte Aussage aus technischer und wissenschaftlicher Sicht wieder nicht korrekt.
Betrachtet man abschließend die Quellen bezüglich des Zitats von Frau Karliczek, bemerkt man, dass hauptsächlich Medienberichte als Quellen verwendet wurden. Bekanntlich sind Medienberichte selten objektiv und in der Regel thematisch voll umfassend. Man muss also bedenken, dass die Quellen möglicherweise nicht detailliert genug, unvollständig oder einfach ungenau gewesen sein können. Angesichts des bisherigen Verlaufs von Ausbauten der vorherigen Mobilfunknetzupgrades ist zu erwarten, dass der Ausbau vorrangig in Großstädten erfolgen wird und die Landwirte sich ein eigenes sog. Campusnetz [23] für ihren lokal begrenzten Anwendungsfall errichten werden, da der Ausbau vorrangig nur dort getätigt werden wird, wo er für die Netzbetreiber wirtschaftlich sinnvoll ist.
Die Deutsche Telekom hat beispiels-weise angekündigt, bis zum Ende des Jahres 2020 bereits die 20 größten Städte Deutschlands an das 5G Netz anzubinden und 300 aktive 5G-Antennen in Betrieb nehmen zu können [24]. Laut Vodafone sollen im Frühjahr 2020 über 160 aktive 5G-Antennen aufgebaut und betriebsbereit sein [25].
Die Implikation der Aussagen Karliczeks, 5G sei nicht überall flächendeckend notwendig, lässt sich vor allem durch den geringeren Energieverbrauch der 5G-Technik mittels Beamforming [26] hinsichtlich der Notwendigkeit eine globale CO2-Ausstoßreduzierung vorzunehmen, widerlegen.

Quellen

  • [2] Stephan Ebmeyer. Gut 6,5 Milliarden Euro für 5G. 12. Juni 2019. auf: https: //www.tagesschau.de/inland/bundesnetzagentur-5glizenzen-101.html (Zugriff am 30. 10. 2019).
  • [3] Was ist 5G? Grundwissen zum Netz der Zukunft. 24. Sep. 2018. auf: https: //www.telekom.com/de/konzern/details/was-ist-5g-grundwissen-zum-netz-der-zukunft-542352 (Zugriff am 31. 10. 2019).
  • [4] Markus Balser. Die Digitalisierung revolutioniert die Landwirtschaft. 18. Jan. 2019. (Zugriff am 30. 10. 2019).
  • [6] ntv. Karliczek überrascht von Ministeramt. 27. Feb. 2018. auf: https:// www.ntv.de/politik/Karliczek-ueberrascht-von-Ministeramt-article20309594.html (Zugriff am 29. 10. 2019).
  • [11] Gerd-Joachim von Fallois. Interview mit Anja Karliczek beim Parteitag der CDU am 26.02.18. 26. Feb. 2018. auf: www.youtube.com/watch? v=Nfe-Jlzfdo0 (Zugriff am 31. 10. 2019).
  • [13] Spiegel Online. Bildungsministerin Karliczek weiter in der Kritik. 25. Nov. 2018. auf: www.spiegel.de/netzwelt/netzpolitik/5g-netza usbau-lars-klingbeil-kritisiert-anja-karliczek-a-1240285.html (Zugriff am 31. 10. 2019).
  • [14] Tagesspiegel. Kritik an Karliczek wegen Äußerungen zur Ehe für alle. 22. Nov. 2018. auf: www.tagesspiegel.de/gesellschaft/queerspiegel/ bundesbildungsministerin-kritik-an-karliczek-wegen-aeusserunge n-zur-ehe-fuer-alle/23668710.html (Zugriff am 12. 11. 2019).
  • [15] Fraunhofer-Gesellschaft. Mobilfunktechnologie 5G. 2019. auf: www. fraunhofer.de/de/forschung/aktuelles-aus-der-forschung/5g-die-zukunft-im-netz.html (Zugriff am 12. 11. 2019).
  • [16] Thiemo Heeg. Deutschland im Mobilfunk nur auf Rang 70 der Welt. 6. Aug. 2019. auf: www.faz.net/aktuell/wirtschaft/diginomics/ netzabdeckung-deutschland-im-4g-mobilfunk-weltweit-auf-platz-70-16321069.html (Zugriff am 11. 12. 2019).
  • [17] Stefan Krempl. Landwirtschaft 4.0: Schwarz-Rot will 5G auf allen Äckern und Wiesen. 16. Mai 2019. auf: www.heise.de/newsticker/meldung/ Landwirtschaft-4-0-Schwarz-Rot-will-5G-auf-allen-Aeckern-und-Wiesen-4424141.html (Zugriff am 11. 12. 2019).
  • [18] Jörg Dörr et al. Autonome Landwirtschaft in 2045? Neue Studie über die Autonomisierung von Landmaschinen. 8. Nov. 2019. auf: www.iese. fraunhofer.de/de/presse/current_releases/PM_2019_1108_autonome-landwirtschaft.html (Zugriff am 13. 12. 2019).
  • [19] 5G ist nicht an jeder Milchkanne notwendig. 21. Nov. 2018. auf: https: //www.faz.net/aktuell/wirtschaft/diginomics/anja-karliczek-5g-muss-an-zentralen-stellen-vorhanden-sein-15902015.html (Zugriff am 29. 10. 2019).
  • [20] Campus-Netze: Telekom startet mit Angeboten für die Industrie. auf: https: //www.telekom.com/de/medien/medieninformationen/detail/camp us-netze-neue-angebote-fuer-die-industrie-584008 (Zugriff am 29. 10. 2019).
  • [22] SMART CITY KONZEPTE MIT 5G. auf: www.telekom.de unterwegs/was-ist-5g/5g-smart-city (Zugriff am 29. 10. 2019).
  • [23] 5G Technologie in industriellen Campus-Netzen. auf: www.telekom .com/de/konzern/details/5g-technologie-in-campus-netzen-556690 (Zugriff am 06. 11. 2019).
  • [24] 5G Mobilfunk: Alles zum neuen Mobilfunknetz. auf: www.telekom. de/unterwegs/was-ist-5g/5g-mobilfunk (Zugriff am 06. 11. 2019).

 

 

 

 

Abbildung 1: Topologie von 4G- und 5G-Funkzellen
Abbildung 2: „Nutzen Sie digitale Anwendungen im Sinne von Landwirtschaft 4.0?“ (in Anlehnung an Bitkom Research 2016)

Nach oben

Künstliche Intelligenz und ihre Machtstellung

Symbolbild Künstliche Intelligenz

Die Entwicklung der künstlichen Intelligenz nimmt immer größere Dimensionen auf. Vom schlauen Staubsauger, der einen Raum automatisch säubert, bis hin zum autonomen Kampfroboter, der einen Soldaten ersetzt. Wir befinden uns aktuell in einer Zeit des Umdenkens und des Aufschwunges bezüglich künstlicher Intelligenz. Diese Seminararbeit beschäftigt sich mit dem Zitat von Vladmir Putin: „It [AI] comes with colossal opportunities, but also threats that are difficult to predict. Whoever becomes the leader in this sphere will become the ruler of the world.“ (09/2017). Dazu wird folgende These aufgestellt: „Wer im Kontext der künstlichen Intelligenz in Führung geht, wird die Welt beherrschen.“ Um diese These zu stützen wird vorerst innerhalb der Grundlagen der Begriff der künstlichen Intelligenz definiert sowie deren Funktionsweise erläutert. Darüber hinaus wird der aktuelle Stand im Allgemeinen und in militärischer Hinsicht beschrieben und anhand von Beispielen veranschaulicht. Grundbegriffe für das allgemeine Verständnis werden aufgezählt und erklärt. Im Analyseteil wird die Aussage Putins zerlegt und zu Basis der zuvor aufgestellten Grundlagen auf Korrektheit geprüft. Im Fazit wird noch ein Rückblick auf die behandelten Themen gegeben und gestellt.

1. Einleitung
In dieser Seminararbeit geht es um die These: „Wer im Kontext der künstlichen Intelligenz in Führung geht, wird die Welt beherrschen.“. Innerhalb der Grundlagen wird der Begriff der künstlichen Intelligenz definiert sowie die Funktionsweise erläutert. Darüber hinaus wird der aktuelle Stand in allgemeiner und militärischer Hinsicht beschrieben und anhand von Beispielen veranschaulicht. Grundbegriffe für das allgemeine Verständnis werden aufgezählt und erklärt. Im Analyseteil wird die Aussage Putins zerlegt und zu Basis der zuvor aufgestellten Grundlagen auf Korrektheit, geprüft. Im Fazit wird noch ein Rückblick auf die behandelten Themen gegeben und gestellt.

2. Grundlagen

2.1 Definitionsansätze von künstlicher Intelligenz

Der Begriff der künstlichen Intelligenz stammt vom englischen Wort „artificial intelligence“ ab. Jedoch kann dieser Begriff nicht genau abgegrenzt werden, da es aktuell keine genaue Definition für „Intelligenz“ gibt. Die Thematik der künstlichen Intelligenz ist bereits seit Jahrzehnten in verschiedensten Bereichen ein fester Bestandteil dieser und lässt sich somit nicht genau definieren.

Im Allgemeinen wird künstliche Intelligenz als ein Oberbegriff für eine Reihe von Computeralgorithmen und Ansätzen, die es Maschinen ermöglichen, so zu fühlen, zu denken, zu handeln und sich anzupassen, wie es Menschen tun oder in einer Weise, die über unsere Fähigkeiten hinausgeht. Die Künstliche Intelligenz kommt zwar aus der Informatik und ist ein Teilgebiet dieser, benötigt jedoch für eine vollfunktionsfähige Funktionalität die Zusammenarbeit mit der Philosophie, der Psychologie, der Linguistik und der Neurowissenschaften.[1]

2.2 Abgrenzung schwache/starke KI

Im Themenbereich der künstlichen Intelligenz wird zwischen der starken und schwachen künstlichen Intelligenz unterschieden. Während sich die schwache künstliche Intelligenz in der Regel mit konkreten Anwendungsproblemen beschäftigt, geht es bei der starken künstlichen Intelligenz darum, eine allgemeine Intelligenz zu schaffen, die der des Menschen gleicht oder sie übertrifft.[2]

Als schwache künstliche Intelligenz lassen sich Systeme bezeichnen, die für einen bestimmten Anwendungsfall konstruiert sind. Als Basis für die Problembewältigung werden hier Methoden aus der Informatik und der Mathematik herangezogen, die speziell für das Problem entwickelt und optimiert werden. Beispiele für eine solche künstliche Intelligenz sind das autonome Fahren oder die Bildanalyse. Bei der Bildanalyse werden einem intelligenten System zunächst Daten wie zum Beispiel Bilder von Verkehrsschildern eingespeist. Am Anfang entscheidet noch größtenteils der Zufall darüber, ob die Verkehrsschilder richtig oder überhaupt erkannt werden.
Da das System jedoch jedes Mal Feedback bekommt, ob es richtig lag, wird die Bewertung mit der Zeit immer besser. Da Computersysteme nicht müde werden und rund um die Uhr lernen, können sie in vergleichsweise kurzer Zeit Lernziele erreichen.[3]

Alle heute existierenden Systeme fallen unter die Kategorie der schwachen KI. [4] Ray Kurzweil beschreibt die starke KI wie folgt: „Die starke KI ist die Form der künstlichen Intelligenz, die die gleichen intellektuellen Fertigkeiten wie der Mensch hat oder ihn darin sogar übertrifft.“ [5]
Das bedeutet, dass sie im Vergleich zu einer schwachen KI alle Aufgaben lösen kann, die auch der Mensch lösen kann. Daraus kann man auch schließen, dass eine solche KI in der Lage ist, aus eigenem Antrieb Entscheidungen zu treffen.

2.3 Funktionsweise

Bei der Entwickelung von künstlicher Intelligenz geht es darum, eine Software zu entwickeln, die im Stande ist Aufgaben zu erfüllen, die der Intelligenz eines Menschen bedarf. Die Anforderung an die intelligente Software ist es, aus gespeicherten Daten korrekte Schlussfolgerungen zu ziehen. Außerdem muss die Software eine Lernfähigkeit besitzen und in der Lage sein, sich flexibel an Probleme anzupassen. Eine wichtige Rolle in der Funktionsweise spielt das „maschinelle Lernen“.
Maschinelles Lernen ist eine Methode um eine künstliche Intelligenz zu trainieren, die auf statistischen Lernmethoden beruht. Der Algorithmus analysiert die vorhandenen Daten, welche als Trainingsdaten bezeichnet werden, und versucht Muster und Zusammenhänge in den eingegebenen Daten und deren erwarteten Ergebnissen zu erkennen. Die Muster sollen später auf neue Daten angewendet werden können, wodurch dann Ergebnisse prognostiziert werden, die mit Hilfe der vorhandenen Daten auf Richtigkeit überprüft werden.
Deswegen wird unterschieden zwischen Trainingsdaten, die nur zum Trainieren der künstlichen Intelligenz genutzt werden und Testdaten, welche dazu benutzt werden, das aufgestellte Ergebnis auf Richtigkeit zu überprüfen.[6]

2.4 Aktueller Stand der Technik

2.4.1 Allgemein

Künstliche Intelligenz bekommt mit der Zeit eine immer wichtigere Rolle zur Verarbeitung der immer größer werdenden Datenmengen. Aufgrund des enormen Aufschwungs der Technologie, setzen immer mehr Firmen auf künstliche Intelligenz.[6]

Aktuell spielt künstliche Intelligenz in der Marketingbranche eine große Rolle, beispielsweise arbeiten sieben von zehn Marketingentscheidern mit KI-Technologien. Ein weiteres Anwendungsgebiet von künstlicher Intelligenz im Marketing sind die Empfehlungen in Online Shops. Die Künstliche Intelligenz befindet sich zurzeit in einer Phase des Umbruches. Hierbei gibt es vier große Bereiche, die diesen Umschwung veranlassen: Größere Rechenleistungen (Cloud-Computing macht Hochleistungsrechner für alle zugänglich), mehr auswertbare Daten (vor allem da Kameras und Sensoren sich vermehren), bessere Algorithmen (Ansätze haben sich von akademischen Kuriositäten zu einer besseren menschlichen Leistung bei Aufgaben wie Leseverständnis entwickelt) und eine verstärkte Investition. [7]

Laut dem Worldwide Artificial Intelligence Systems Spending Guide der International Data Corporation (IDC) werden die Kosten für KI-Systeme im Jahr 2023 97,9 Milliarden Dollar erreichen.[8] Diese waren im Jahre 2019 noch auf einer Höhe von 37,5 Milliarden Dollar. Nach einer Studie von Microsoft die sich mit der Einführung von KI-Systemen in Unternehmen beschäftigt, liegen russische Unternehmen an erster Stelle. Die Studie, an der 800 Führungskräfte aus internationalen Unternehmen mit mehr als 250 Mitarbeiter teilnahmen, zeigt, dass sich 30 Prozent der russischen Unternehmen aktiv für die Einführung von künstlicher Intelligenz einsetzen. Der weltweite Durchschnitt liegt bei 22,3%. [9]

2.4.2 Militär

Im militärischen Aspekt kommt künstliche Intelligenz auf defensiver sowie offensiver Weise zum Einsatz. In der Hinsicht defensiver Weise werden militärische System dafür benutzt, um Lagebeurteilungen für Gebiete zu erstellen. Diese analysieren und bewerten den aktuellen Konflikt und reagieren entsprechend mit einer militärischen Strategie zur Vermeidung dieser. Darüber hinaus können defensive Systeme dafür genutzt werden, um feindliche Angriffe zu erkennen und abzuwehren.

Offensiv gesehen werden militärische Systeme meistens zu Gegengenschlag Maßnahmen, sowie zur Sicherung von Gebieten durch autonome Fahrzeuge, welche die Position der gegnerischen Einheiten ermitteln kann und weiterleitet. Jede offensive und defensive Handlung wird aktuell noch von einem Menschen betreut und somit kontrolliert.[5]
Es wird kritisch darüber diskutiert, ob man „intelligenten“ Systemen die Entscheidungsfreiheit übertragen sollte. Es würden dabei folgende, sogenannte Autonomiegrade in Frage kommen. Die Autonome Steuerung unter menschlicher Steuerungskotrolle ist das permanente Eingreifen von Menschen auf Autonome Roboter. Ein Beispiel hierfür sind Drohnen die vordefinierten Routen abfliegen, wo sie dabei selbstständig die aktuelle Wetterlage berücksichtig. Die autonome Auftragsbewältigung ohne Kontrollsteuerung aber mit Vetorecht ist hingegen die Steuerung beziehungsweise Einschreiten eines Menschen durch einem Veto-Befehl oder mithilfe eines Notausschalters. In diesem Fall ist die Autonomie erforderlich, da die Reaktionszeit eines Menschen die Interaktion ausschließt. [10]

Ein weiteres Beispiel für „intelligente“ Systeme im militärischen Bereich findet man in Korea. So patrouilliert bereits der SGR-A1 Roboter an der Grenze zwischen Süd- und Nordkorea. Dieser - von einer Tochterfirma, von Samsung - gebaute, Roboter ist mit Maschinengewehren ausgestattet und fordert Menschen auf, die Hände hochzunehmen, wenn er sie ausmacht. Der Roboter ist ausgestattet mit Bewegungsmeldern und Hitzemeldern, um potenzielle Ziele schon aus zwei Meilen Entfernung auszumachen. Er soll dabei die gleichen Fähigkeiten haben wie ein menschlicher Soldat.[11]
Momentan wird der Roboter noch ferngesteuert, doch es gibt schon einige erfolgreiche Testversuche den Roboter vollautonom zu betreiben. Auch in der Bundeswehr kommen autonome Systeme zum Einsatz. Beispielsweise wird das Gebirgsjägerbattaillon von einem autonomen Fahrzeug unterstützt, welches bei Feindkontakt selbstständig Drohnen anfordert und sogar die Position der gegnerischen Schützen erkennen kann.[12]

Der russische General der Luftwaffe Virkot Bondarev arbeitet schon seit 2017 an von künstlicher Intelligenz gelenkten Raketen. Diese haben im Vergleich zu herkömmlichen Raketen das Ziel, in mitten des Fluges die Richtung zu wechseln. Das Eingreifen sowie die Steuerung durch den Menschen sind hierbei nicht notwendig. [13] Russland hat selber schon mehrere autonome sowie halbautonome Kampfsysteme getestet. Ein Bespiel hierfür ist das „neuronale Netz“-Kampfmodul von Kalaschnikow. Es ist ein Maschinengewehr, welches mit einer Kamera und einer künstlichen Intelligenz ausgestattet ist. Die Hersteller sagen selber darüber aus, dass das Maschinengewehr ohne menschliches Eingreifen seine eigenen zielgerichteten Urteile fällen kann. [17]
Der Vorstandsvorsitzende der russischen Kronstadt Group sagte, dass es unvermeidlich sei, dass in einer unbestimmten Zeit große Schwärme von unbekannten Drohnen über Kampfzonen fliegen werden. Die Group befasst sich mit luft-, see-, und landgestützten Militärsystemen. Sie haben die erste Drohne entwickelt, die vollständig auf der Basis von im Inland produzierten Komponenten hergestellt wurde. [18]
Die russische Regierung hat sich gegen ein Verbot tödlicher autonomer Waffensysteme ausgesprochen, was schon auf eine Tendenz hinweist. [19]

China ist innerhalb der Thematik mit einem festen Standbein vertreten. Durch die enge Beziehung von China und dem Silicon Valley, welches eine offene Natur der amerikanischen Forschungsgemeinschaft aufweist, können die die fortschrittlichsten Technologien der künstlichen Intelligenz des Westens für China leicht zugänglich gemacht werden. Ab dem Jahr 2017 bis zum Jahr 2030 möchte die chinesische Stadt Peking eine Infrastruktur mit künstlicher Intelligenz im Wert von 150 Milliarden Dollar schaffen. [20] Im Jahre 2017 sagte der chinesische Staat fünf Milliarden Doller und die Stadt Peking zwei Milliarden Dollar für ein Entwicklungspacket zu.[22]
China selbst bezieht jedoch häufig sensible aufstrebende Technologien wie Drohnen von privaten Start-Up Unternehmen, aus China. [21] 2018 berichtete die Japan Times darüber, dass die jährlichen privaten chinesischen Investitionen in der künstlichen Intelligenz knapp bei unterhalb von sieben Milliarden Dollar pro Jahr liegen. Die KI-Start-Ups in China erhielten 2017 fast die Hälft der weltweiten Gesamtinvestitionen der Start-Ups. China meldet fast fünfmal so viele Panter der künstlichen Intelligenz an, wie die Amerikaner. [23]  

2.5 Definition Macht

Die Bedeutung von Macht kann aus verschiedenen Sichtweisen betrachtet werden. Im Allgemeinen lässt sich Macht definieren als Innehaben einer Stellung und Funktion, aus der eine bestimmte Befugnis, Möglichkeit oder Freiheit resultieren, mit der sich über Menschen oder Verhältnisse bestimmen lässt.[14]
Weiterhin lässt sich wirtschaftliche Macht als „Möglichkeit einzelner oder mehrerer zusammenwirkender Wirtschaftssubjekte zur Beeinflussung der Willensentscheidungen anderer Wirtschaftssubjekte zur Förderung der eigenen Interessen“ definieren.[15]

Die Militärische Macht wird heutzutage über den technologischen Fortschritt gemessen. Die Stärke eines Militärs erübrigt sich aus den zu Verfügung stehenden Waffen- und Informationstechnologien.[16]

3. Diskussion

Damit verstanden werden kann, was Putin mit seinem Zitat meint, müssen wir uns erst damit beschäftigen was er mit diesem überhaupt aussagen möchte. Hierfür müssen die Aspekte seiner Aussage einzeln betrachtet und analysiert werden.
Als erstes nimmt er Bezug auf das „wer“. Das „wer“ beschreibt hierbei die Instanz in leitender Form. Die Instanz kann dabei in verschiedensten Formen auftreten. Durch Putins aktuelle Machstellung und im Kontext des erläuterten Vorgehens, kann die Instanz des „wer“ als ein Staat bezeichnet werden. Im nächsten Aspekt gehen wir auf in „Führung gehen“ innerhalb der künstlichen Intelligenz ein.
Wie äußert sich überhaupt wer in Führung geht und wer nicht? Um zu verstehen, wer in Führung geht, muss aufgezeigt werden, was Führung im Kontext bedeutet. Im bisherigen Kontext kann Führung zweideutig verstanden werden: In einer Hinsicht als eine Form der Leitung über Institutionen oder Staaten oder dem Aspekt des aktuellen Stands, sowie die Forschung in einem Gebiet.
In unserem Fall der künstlichen Intelligenz ist es eine Symbiose aus beiden Definitionen. Das eine kann nicht ohne das andere gelingen. Die Rolle der Leitung, welche von einer einfachen Person bis hin zu einem Staat reichen kann, kann nur dann wirksam sein, wenn es auch etwas gibt worüber geleitet werden kann. In Führung gehen bezieht sich im Ganzen auf die Wettbewerbsfähigkeit gegenüber anderen Konkurrenten.
Die Konkurrenz beschränkt sich hierbei auf den aktuellen Stand der Entwicklung in Richtung Künstlicher Intelligenz. Es wird somit in unserem Szenario deutlich, dass derjenige, der in der Entwicklung von künstlicher Intelligenz in verschiedensten Bereichen am weitesten ist, die Position der Führung in Anspruch nehmen kann. Wie sich die Führung äußert, ist jedoch von der Rolle der Leitung abhängig. Wer würde nun von solch einer Führung profitieren? Wer von einer Führung profitiert, ist davon abhängig wer die Führung innehält. Die Führung kann zum Positiven, sowie zum Negativen genutzt werden.
Künstliche Intelligenz ist durch ihr breites Themengebiet und dem daraus resultierenden großen Spektrum an Möglichkeiten vielfältig einsetzbar. In unserem Beispiel des Militärs könnte sie sowohl offensiv, also auch defensiv eingesetzt werden. In defensiver und somit sichernder Funktion ist die künstliche Intelligenz in Bezug auf das Militär somit keine Gefahr für andere, sondern dient zur Abwehr und Verteidigung.
In offensiver und somit angreifender Funktion stellt die künstliche Intelligenz für diejenigen, die angegriffen werden, eine Gefahr dar. Man kann im Allgemeinen sagen, dass nur dann alle Parteien von der Entwicklung der künstlichen Intelligenz profitieren, wenn sie in defensiver Funktion eingesetzt wird und nicht in der offensiven.

Innerhalb seines letzten Aspektes seiner Aussage bezieht sich Putin auf das „Welt beherrschen“. Das „Welt beherrschen“ resultiert aus der Erläuterung des Aspektes der „in Führung gehen“ und der Definition der Aussage über Macht. Im Kontext des Zitates kann man schlussfolgern, dass daraus der größte Einfluss auf weltpolitische Entscheidungen erfolgt.
Im Gesamtzusammenhang der einzelnen Aspekten und den darauf folgenden Ansichten wird erläutert, dass Putin mit seiner Aussage im Kern meint, dass der Staat, welcher den höchsten Stand der Entwicklung und Technologien im Bereich der künstlichen Intelligenz besitzt, den größten politischen und militärischen Einfluss in Bezug auf weltpolitische Entscheidungen innehält. Mithilfe dieser Aussage wurde der Wettkampf innerhalb der künstlichen Intelligenz der einzelnen Länder bekannt gemacht.   
Anhand der dargestellten Abbildung (Abbildung 1) wird deutlich, dass das Wachstum des globalen Geschäftswertes von künstlicher Intelligenz nach aktuellem Stand zu erwartend linearer ist. Dieser lineare Anstieg ist vorausschlich auf das Modell der Investition des militärischen Bereiches zu übertragen.

Wie bereits im Abschnitt „Aktueller Stand der Technik“ im allgemeinen und militärischen Bereich zu erkennen ist, wird der Fokus der einzelnen Länder immer weiter auf die Wichtigkeit der künstlichen Intelligenz gelegt. Deutschland ist jedoch im Vergleich mit China, Korea oder Russland nicht so weit fortgeschritten und investiert nur Bruchteile gegenüber den anderen Ländern. Daraus kann geschlussfolgert werden, dass Deutschland ein Nachzügler auf diesem Gebiet ist und Länder wie Russland und China deutlich mehr Wert auf die Thematik der künstlichen Intelligenz legen. China ist aktuell das Land, welches am meisten in Forschung und Entwicklung im Bereich der künstlichen Intelligenz legt.
Anhand der Recherchen geht dabei hervor, dass China bei der Entwicklung Fokus auf einen allgemeineren Teil der künstlichen Intelligenz legt und nicht gezielt auf Waffen- oder Militärtechnologie. Genauere Aussagen darüber könnten jedoch nicht gemacht werden, da viele Dokumente und Information unzugänglich beziehungsweise vertraulich sind. Zu Russland hingegen können deutlich mehr Dokumente und Aussagen über Waffentechnologien und autonome Systeme gefunden werden. Russische Unternehmen entwickeln bereits autonome sowie halbautonome Waffensysteme, die durch künstliche Intelligenz einsetzen und ohne menschliches Eingreifen ihre eignen zielgerichteten Urteile fällen können.
Sie sagen dazu aus, dass es unvermeidbar wäre, sich in naheliegender Zukunft nicht mehr ohne autonome Drohnen an militärisches Einsetzen sich zu beteiligen.[18]

Weiterhin bekräftigt dies die Analyse der ETH Zürich, welche aussagt, dass künstliche Intelligenz, vor allem im Bereich Drohnentechnik viele Vorteile bietet.[10] Beispielsweise bereitet die Fernsteuerung von Drohnen einige Probleme. Sie schafft große Abhängigkeit von der Kommunikationsinfrastruktur, welche gestört oder verfälscht werden könnte. Zudem müssen für die Fernsteuerung große Datenmengen übertragen werden. Des Weiteren kommt es durch lange Funkdistanzen zu Verzögerungen.
Diese Probleme würden mit einem vollautomatischem Drohnensystem zum großen Teil abgeschafft werden. Darüber hinaus hätte man viel schnellere Reaktionszeiten und bessere Flugleistungen zu erwarten.[24] Anhand dieser Indizien kann auf eine hohe Relevanz von künstlicher Intelligenz im Militär geschlossen werden. Durch die Betrachtung der Gesamtheit aller Element im Kontext der künstlichen Intelligenz lassen sich, durch die großen Investitionen, der Wettkampf um die Vorreiterrolle sowie der Stellenwert in den einzelnen Themenbereichen, Schlussfolgerungen ziehen. Die Schlussfolgerungen belaufen sich dabei auf die Wichtigkeit des Fortschrittes sowie den Stellenwert des Standes der künstlichen Intelligenz eines Staates und der daraus folgenden Machtstellung in Bezug auf den militärischen Aspekten. Putins Aussage ist durch diese Schlussfolgerungen als korrekt einzustufen.

4. Mögliche Gefahren und Risiken

Bei den genannten Möglichkeiten und Vorteilen durch künstliche Intelligenz gibt es allerding auch einige Risiken und Gefahren. Die Gefahren beziehen sich dabei meistens auf den Einsatz von künstlicher Intelligenz im Militär, besonders im Bereich der autonomen Waffensysteme. Experten diskutieren über die Risiken von künstlicher Intelligenz in autonomen Waffensystemen. Laut ihnen geht von autonomen Waffen die Gefahr eines automatisierten Vergeltungsschlages aus.[24]

Aufgrund der von Experten eingeschätzten Risiken und der militärischen Stärke, die von autonomen Waffensystemen beziehungsweise künstlicher Intelligenz im Militär ausgehen haben 26 Staaten bereits einem Verbot von autonomen Waffensystemen zugestimmt. Russland, China, die USA und Indien sprechen sich gegen ein Verbot aus.[25] Des Weiteren äußerte sich auch der CEO von Tesla, Elon Musk zum Thema künstlicher Intelligenz mit einer Reaktion auf die Aussage von Putin: Er ist besorgt, dass Regierungen um die Überlegenheit der künstlichen Intelligenz streiten und dadurch einen dritten Weltkrieg starten. Zudem ist er nicht der Überzeugung, dass Russland seinen technologischen Fortschritt teilen würde, da besonders die russischen Fortschritte auf diesem Gebiet nicht besonders einsehbar sind und Russland wenig von ihren militärischen Informationen preisgibt. Generell warnt Elon Musk vor künstlicher Intelligenz. Seiner Meinung nach ist es einer der größten Bedrohungen der Menschheit und mit seinen Befürchtungen steht es nicht alleine dar. Weiter prominente Personen, wie Bill Gates, Stephen Hawking, und weitere, äußerten sich kritisch zu dem Thema.[26]

4.1 Maßnahmen zur Senkung der Risken

“Was Computer wirklich können sollen, müssen wir entscheiden. Dafür brauchen wir diese ethischen Grundsätze. KI-Systeme müssen fair sein, und es muss eine Art Rechenschaftspflicht bestehen für alle, die KI entwickeln. Bevor wir für den Umgang mit KI neue Gesetze verabschieden, müssen wir uns der universellen Werte bewusst sein, die von den KI-Prinzipien geschützt werden sollen.” [27]
Diese Aussage traf Brad Smith, der Microsoft Präsident, am 22.08.2018, in Berlin. Er fordert einen Verhaltenskodex im Umgang mit künstlicher Intelligenz. Weiterhin fordert der Ethiker Peter Darbrock im Kontext der Benutzung und Programmierung von künstlicher Intelligenz, nicht allein die technischen Kompetenzen zu schulen, sondern allgemein die klassische Bildung bei den Beteiligten voranzutreiben.[28]

5. Fazit

Als abschließendes Ergebnis steht fest, dass die am Anfang genannte These Putins in einer gewissen Form korrekt ist. In welcher Form die These verstanden werden soll ist nicht bekannt, jedoch trifft sie auf das in dieser Arbeit behandelte Szenario im militärischen Bereich zu. Momentan findet ein Wettkampf zwischen den Staaten um die Vorreiterrolle im Thema der künstlichen Intelligenz statt. Deutschland ist in diesem Wettkampf einer der Nachzügler, wohin gegen China und Russland bereits jetzt viel in die Entwicklung und Forschung investieren und voraussichtlich wird einer der beiden Staaten die genannte Vorreiterrolle übernehmen.
Die Experten sind sich auch sicher, dass der Einsatz von künstlicher Intelligenz sehr effektiv ist und dass daraus eine große militärische Macht hervorgeht. Schließlich kann man sagen, dass künstliche Intelligenz eines der größten Zukunftsthemen der nächsten Jahre sein wird und zudem, dass der Vorreiter, unabhängig von der Betrachtungsweise, großen Einfluss in der Welt haben wird. Man kann jedoch zum jetzigen Zeitpunkt nur Vermutungen und Prognosen aufstellen und nichts garantieren.

5.1 Kritischer Rückblick

Im Gesamtkontext kann die Arbeit dahingehen kritisch betrachtet werden, da viele wichtige Dokumente und Quellen nicht für die allgemeine Öffentlichkeit zugänglich und unter Verschluss sind. So mussten Teils Schlussfolgerunden anhand der aufgestellten Grundlagen hergeleitet werden. Darüber hinaus kann nicht eindeutig vorhergesagt werden, wie die Entwicklung der künstlichen Intelligenz in naher Zukunft aussieht, sondern nur Vermutung anhand von früheren Entwicklungen geschlossen werden. Zudem kann man einige Begriffe in diesem Kontext nicht eindeutig definieren und es war nötig sich auf ein spezifisches Szenario zu begrenzen.

5.2 Ausblick

Hinsichtlich des aktuellen Standes sollten weitere Arbeiten in diesem Themenbereich die Entwicklung der künstlichen Intelligenz sowie neue Ergebnisse abwarten, da sich anhand des aktuellen Standes der Technologie noch kein genauer Ausblick auf die Zukunft gegebenen werden kann.


Literaturverzeichnis

  • [1] Handbuch der Künstliche Intelligenz, 3 Auflage, G. Görz, C-R. Rollinger, J. Schneeberger (Hrsg.), München, Wien, Oldenburg 200
  • [5] Künstliche Intelligenz ein moderner Ansatz, 3 aktualisierte Auflage, Stuart Russell, Peter Norvig, 2012´
  • [8] Künstliche Intelligenz ein moderner Ansatz, 3 aktualisierte Auflage, Stuart Russell, Peter Norvig, 2012´
  • [20] "China seeks dominance of global AI industry". Financial Times. 15 October 2017. Retrieved 24 December 2017.
  • [21] China enlists start-ups in high-tech arms race". Financial Times. 9 July 2017. Retrieved 24 December 2017.
  • [22] Metz, Cade (12 February 2018). "As China Marches Forward on A.I., the White House Is Silent". The New York Times. Retrieved 14 February 2018
  • [23] The artificial intelligence race heats up". The Japan Times. 1 March 2018. Retrieved 5 March 2018.
  • [26]https://books.google.de/books?hl=de&lr=&id=TFR3DwAAQBAJ&oi=fnd&pg=PT3&dq=k%C3%BCnstliche+intelligenz+t%C3%B6ten&ots=aiEarcsDAv&sig=srCrpIfXCdJCiH70EWlXEvbC9D4#v=onepage&q=k%C3%BCnstliche%20intelligenz%20t%C3%B6ten&f=false
  • [28] Peter Dabrock: Wir sollten auf klassische Bildung setzen. In: Aufbruch Künstliche Intelligenz - Was sie bedeutet und wie sie unser Leben verändert. Google LLC, SZ Scala GmbH, 2018, S. 34.]

 

 

Nach oben

Sicherheit im digitalen Raum

Symbolbild IT-Sicherheit

Sicherheit im digitalen Raum: Wie Sicherheit im digitalen Raum Schutzräume für Straftäter schafft und inwiefern die Backdoor eine sinnvolle Lösung für dieses Problem darstell.

Ziel dieser Arbeit ist die Beantwortung der These „Sicherheit im digitalen Raum schafft Schutzräume“ und eine Bewertung, ob eine Backdoor für Kommunikationsdienste verpflichtend in Deutschland eingeführt werden sollte. Die These wurde mit Hilfe einer Erklärung der dahinter liegenden Technologien beantwortet. Die Ergebnisse der Arbeit waren, dass die These bestätigt wurde und die Nachteile einer Backdoor die Vorteile überwiegen. Auf dieser Grundlage empfiehlt die Arbeit, keine Backdoor in Deutschland einzuführen.

1. Einleitung

Die Arbeit beschäftigt sich mit dem Zitat „Sicherheit im digitalen Raum darf keine Schutzräume für Straftäter zulassen.“, welches vom CDU-Abgeordneten Josef Oster in der Bundestagsdebatte zum Tagesordnungspunkt 5 „Privatsphäre und Sicherheit im digitalen Raum“ am 28.11.2018 geäußert wurde [De18].
Dieses Zitat wurde ausgewählt, da die Debatte über eine zunehmende Verschlüsselung im digitalen Raum und deren Auswirkungen auf die öffentliche Sicherheit aktuell in vereinfachter Form medial sehr stark beleuchtet wird. Diese mediale Berichterstattung ist global und nicht nur auf Fachmedien begrenzt [BBI19][Br19][Ne19].

Im Folgenden befasst sich die Arbeit mit der These „Sicherheit im digitalen Raum schafft Schutzräume“ und einer Bewertung, ob eine verpflichtende Backdoor für Kommunikationsdienste in Deutschland eingeführt werden sollte.

2. Theoretische Grundlagen

Die Öffentliche Sicherheit beschreibt den Schutz vor Schäden, welche den Bestand des Staates oder die Individualrechtsgüter (Leben, Gesundheit, Freiheit, Ehre, Vermögen) bedrohen [Bo75]. Der digitale Raum ist ein virtueller Raum und somit ein nicht physischer Ort. Zu dessen Entstehung und Zugang sind elektronische, bzw. digitale Medien nötig, bspw. ein Smartphone. Ältere / analoge Kommunikationsdienste beschreiben diejenigen Kommunikationsdienste, welche bereits vor der Erfindung des Internets genutzt wurden, deren Nutzung jedoch aufgrund neuerer Standards stark abnimmt.
Beispiele hierfür wären Briefe, Faxgeräte und das Telefon. Schutzräume beschreiben im Allgemeinen einen Bereich, welcher Schutz vor Gefahren bietet. Ein Schutzraum muss nicht immer physisch sein, sondern kann auch im digitalen Raum oder lediglich in der eigenen Mentalität vorhanden sein. Privatsphäre als Begriff lässt sich nicht eindeutig definieren. Sie kann in vier Dimensionen unterschieden werden: informationelle, soziale, psychische und physische Privatsphäre. Meist wird er jedoch als Zustand der Abgeschiedenheit und Intimität aufgefasst [PP14].

Die Verschlüsselung ist eine Technik, bei der Daten in eine veränderte Form gebracht werden, um einen unautorisierten Zugriff auf deren Inhalte zu verhindern. Dieses Verfahren ist sowohl bei physischen als auch digitalen Daten anwendbar. Verschlüsselungsverfahren werden in symmetrische, asymmetrische und hybride Methoden aufgeteilt. Der Unterschied liegt dabei in der Anzahl der vorhandenen Schlüssel oder auch „Keys“.
Diese Keys sind ausschlaggebend für die angewendete Verschlüsselung und auch Entschlüsselung. Bei der symmetrischen Verschlüsselung gibt es nur einen Key, der sowohl für die Verschlüsselung als auch die Entschlüsselung der Daten verwendet wird. Folglich muss der Key, den man für die Verschlüsselung verwendet hat, auch beim Empfänger vorhanden sein, damit dieser die Daten damit wieder lesbar machen kann. Bei der asymmetrischen Verschlüsselung gibt es zwei Keys, die zueinander gehören. Einer davon ist der private „Private Key“, den nur der Empfänger besitzt und ausschließlich zum Entschlüsseln von Nachrichten benutzt wird.
Der andere Schlüssel ist der öffentliche „Public Key“, der für alle Sender sichtbar und benutzbar ist. Public Keys werden ausschließlich für die Verschlüsselung von Nachrichten benutzt und es ist mit ihm nicht möglich, eine verschlüsselte Nachricht wieder zu Entschlüsseln oder den Private Key davon herzuleiten.
Die hybride Verschlüsselung setzt auf eine Kombination aus symmetrischer und asymmetrischer Verschlüsselung, um die Vorteile beider Verschlüsselungsarten zu kombinieren. Die Transport Layer Security (TLS) Verschlüsselung, besser bekannt unter dem alten Namen Secure Sockets Layer (SSL), ist eine Transportverschlüsselung und die geläufigste Art der Verschlüsselung im Internet.
Sie dient dazu, Informationen sicher von A nach B zu bringen, ohne dass diese dazwischen mitgelesen werden können. Die Verschlüsselung gilt jedoch nur auf dem Transportweg, auf dem Server liegt die Nachricht wieder im Klartext vor. TLS wird hauptsächlich mit HTTPS im Browser eingesetzt.
Man erkennt HTTPS an dem Schloss-Symbol neben der URL oder an dem https in der URL (z.B. de.wikipedia.org).
HTTP Aufrufe (ohne TLS) werden mittlerweile bei Apps, z.B. bei iOS, standardmäßig geblockt [Ap20], sind im Web aber noch weit verbreitet. So nutzen nur 57% aller Webseiten derzeit https [W320]. Die Ende-zu-Ende-Verschlüsselung (E2EE) erweitert das Konzept einer Transportverschlüsselung und verschlüsselt Daten über alle Übertragungsstationen hinweg. So liegen im Gegensatz zu TLS bei der E2EE auf dem Server keine Daten im Klartext vor. Diese Daten können nur von den jeweiligen Gesprächsteilnehmern gelesen werden. Das Dark Web ist ein nicht indexierter Teil des Internets, das nur mit spezieller Software aufgesucht werden kann und besonderen Wert auf Verschlüsselung und Anonymität legt. Daher eignet es sich besonders für illegale Aktivitäten.

3. Diskussion

3.1 Betrachtung und Einordnung der These

Betrachten wir nun die These „Sicherheit im digitalen Raum schafft Schutzräume“. Sicherheit im digitalen Raum kann hauptsächlich über zwei Arten erreicht werden: TLS oder Ende-zu-Ende Verschlüsselung. Es muss also geprüft werden, ob eine der Technologien dazu führen kann, Schutzräume für Straftäter und Kriminelle zu schaffen.
Schafft TLS Schutzräume? Nein. TLS sorgt nur dafür, dass die Datenübertragung geschützt wird. Die Daten auf dem Server sind davon nicht betroffen. TLS unterbindet zwar, dass Sicherheitsorgane sich in private Netzwerke hacken / Internetknoten abhören [Ze18] und dann den gesamten Datenverkehr mit sensiblen Informationen (z.B. Passwörtern im Klartext) mitlesen können.

Es liegen keine Daten vor, wie oft das Hacken von privaten Netzwerken von Sicherheitsbehörden durchgeführt wurde. Jedoch verhindert TLS auch, dass Angreifer in öffentlichen WLAN-Netzen den gesamten Netzwerkverkehr mitlesen können (z.B. in Hotels, Flughäfen) und dadurch z.B. an Online-Banking Logins kommen. Unter dem Gesichtspunkt, dass Sicherheitsbehörden immer noch die Möglichkeit haben, an die Daten zu gelangen, erscheint es nicht als sinnvoll, auf HTTPS zugunsten einer möglicherweise höheren öffentlichen Sicherheit zu verzichten. Befassen wir uns nun mit der zweiten Technologie, mit der Sicherheit im digitalen Raum geschaffen werden kann: Der Ende-zu-Ende-Verschlüsselung.

Diese Art der Verschlüsselung baut meist auf TLS auf und sorgt dafür, dass nur die beiden Kommunikationspartner die Nachricht lesen können. Sie ist vor allem bei Chatdiensten beliebt, z.B. bei WhatsApp, iMessage und Telegram. Wie sind nun die Auswirkungen der Technologie auf die Sicherheitsbehörden? Sie bereitet den Sicherheitsdiensten großes Kopfzerbrechen. So sorgt sie dafür, dass die Nachrichten selbst auf dem Server nur verschlüsselt abgespeichert werden. Damit wird auch eine Überwachung während der Transportphase verhindert. Deshalb können die Behörden, wenn überhaupt, nur noch über Umwege an den Inhalt kommen. So wurde in den USA mehrfach versucht, über automatische Telefonbackups an Nachrichten zu gelangen. Da hierfür aber die Anmeldedaten oder der Zugriff über die Betreiberfirma benötigt werden, gelang dieser Weg bisher nur, nachdem die Straftaten schon begangen wurden [Br20].

Es lässt sich also festhalten, dass die Ende-zu-Ende-Verschlüsselung die Überwachungsoptionen der Sicherheitsbehörden stark einschränkt. Das schafft Schutzräume, in denen Kriminelle ungestört Pläne schmieden können. Dadurch kann man die These als bewiesen ansehen.
Nun stellt sich natürlich die Frage: Was kann der Staat dagegen unternehmen? Ziel ist es, dass Sicherheitsbehörden weiterhin die Möglichkeit besitzen, auf Kommunikationsdaten zugreifen zu können. Dies kann durch eine sogenannte “Backdoor” erreicht werden, quasi eine Hintertür, um die Verschlüsselung zu umgehen. Die Backdoor könnte an mehreren verschiedenen Stellen implementiert werden: Sie könnte als Man-in-the-Middle-Angriff durchgeführt werden, indem das Public-Zertifikat des Empfängers durch das Zertifikat der Behörden ersetzt wird und diese sich damit dazwischenschalten.

Eine Schnittstelle dafür müsste bei jedem Chatdienst installiert werden. Sie könnte aber auch in dem Betriebssystem des Nutzers eingebaut werden, dadurch wären Anpassungen an den einzelnen Chat-Diensten hinfällig. Die Verschlüsselung würde bei diesem Weg unangetastet bleiben, Behörden würde also die bereits entschlüsselte Nachricht beim Absender/Empfänger abgreifen. Die Vor- und Nachteile der beiden genannten Verfahren werden in der folgenden Arbeit noch genauer erläutert. Es ist dementsprechend festzuhalten, dass es technisch möglich wäre, diesen Zugang einzurichten.

3.2 Vorteile einer Backdoor

Die verpflichtende Einführung einer Backdoor verbessert die Sicherheitslage in Deutschland. Die Einführung einer Backdoor erlaubt es den Sicherheitsbehörden, auch die Kommunikation über Ende-zu-Ende verschlüsselte Messangerdienste zu überwachen. Da die Sicherheitsorgane nun wieder in der Lage sind, potenzielle Straftäter zu überwachen, können sie so bei geplanten Straftaten eingreifen, bevor diese stattfinden.
Durch diese Maßnahme sollte die Zahl an verhinderten / aufgeklärten Verbrechen steigen und Befürworter erhoffen sich eine höhere öffentliche Sicherheit. Denn es entstehen keine Schutzräume mehr, in denen Kriminelle ungestört Verbrechen planen können, ohne Gefahr zu laufen, entdeckt zu werden. Solche Schutzräume entstehen derzeit, wenn Ende-Zu-Ende verschlüsselte Dienste, wie z.B. WhatsApp genutzt werden, auf die die Behörden aktuell keinen Zugriff haben. Da die Backdoor jedoch noch in keinem Land eingeführt wurde, liegen für diese Behauptung keine Daten vor.

3.3 Nachteile einer Backdoor

3.3.1 Keine perfekte Umsetzung möglich

Als erstes muss erwähnt werden, dass es keine perfekte Umsetzung der Backdoor gibt. So haben beide angesprochenen Varianten, einmal im Betriebssystem und einmal direkt in jedem Messangerdienst, ihre Vor- und Nachteile. Der Vorteil bei der Umsetzung im Betriebssystem ist, dass nicht jeder Messangerdienst einzeln kooperieren müsste. So müssten nur die einzelnen Betriebssysteme verändert werden, deren Anzahl viel kleiner ist als die der Messangerdienste.
Jedoch wird ein solcher Schritt bei den Betriebssystemherstellern, die die Backdoor implementieren müssten, auf großen Wiederstand treffen. Sie müssten eine Hintertür in ihr System einbauen, welche zumindest mit Leserechten für das ganze System ausgestattet werden müsste. Denn nur so könnten die Ermittler auf die Daten aller Chatanwendungen, auch auf Systemapps wie Nachrichten/iMessage auf iOS, zugreifen. Damit hätten sie aber auch Zugriff auf die Daten von anderen Apps, z.B. von Passwortmanagern, falls diese Daten nicht gesondert verschlüsselt wurden.

Es wird also ersichtlich, dass durch diese Implementierung der Backdoor wichtige Sicherheitsfunktionen des Betriebssystems ausgehebelt werden, z.B. dass nur jede App auf ihre eigenen Daten zugreifen darf, und dass die Backdoor auch Sicherheitsprobleme in anderen Apps und Stellen des Betriebssystems auslösen könnte, die eigentlich nicht direkt von der gesetzgeberischen Mission abgedeckt werden. Da ein solcher Eingriff in ein Betriebssystem massive Sicherheitsbedenken auslösen würde, kann davon ausgegangen werden, dass Betriebssystemhersteller die Backdoor-Verpflichtung gerichtlich bis in die höchste Instanz nachprüfen lassen würden.
Dieser Schritt würde die Einführung verzögern und damit auch mögliche Sicherheitsgewinne. Das wird zum Beispiel am Unternehmen Apple deutlich, dem Entwickler hinter dem mobilen Betriebssystem iOS und dem Desktopbetriebssystem MacOS. So wurde Apple im Jahr 2016 von der amerikanischen Behörde FBI dazu aufgefordert, eine spezielle Version von iOS mit deaktivierten Sicherheitsfeatures für das iPhone eines getöteten Amokläufers zu entwickeln und zu installieren. Apples Weigerung führte zu einer Klage und einem Gerichtsverfahren, welche das FBI einen Monat später zurückzog [DLN16].

Es hatte dieses Mal einen anderen Weg gefunden, an die gewünschten Daten zu gelangen. Jedoch bleibt festzuhalten, dass dies ein Streitthema bleiben wird, solange dazu keine gerichtliche Entscheidung in höchster Instanz gefallen ist. Auch im Jahr 2020 ist das noch der Fall [Br20].
Es muss auch angemerkt werden, dass Firmen, die aktuell keinen hohen Marktanteil in Deutschland besitzen, auf einen Verkauf in Deutschland verzichten könnten, um einer Backdoor Implementierung zu entgehen. Dies würde das Angebot für einen deutschen Konsumenten verringern, was als negativ angesehen werden kann. Gleichzeitig würde das den Unternehmen in anderen Regionen einen Wettbewerbsvorteil gegenüber Mitbewerbern verschaffen, indem sie z.B. besonders den Verzicht auf eine Backdoor betonen. Das gilt natürlich auch für deutsche Unternehmen, die durch ein solches Gesetz auf dem internationalen Markt benachteiligt werden würden.

Das eine solche Benachteiligung keine Hypothese ist, wird besonders an der aktuellen Situation mit dem chinesischen Technikkonzern Huawei deutlich, der im Western wegen Angst vor möglichen Hintertüren Boykottforderungen ausgesetzt ist. Diese Forderungen gelten insbesondere für den lukrativen Aufbau der 5G Infrastruktur [Le19].
Man kann also festhalten, dass beide möglichen Ergebnisse, einen Verzicht auf den deutschen Markt und einen Wettbewerbsnachteil für deutsche Firmen, nicht im Interesse der Politik sein können. Sollte dieses Gesetz jedoch auf europäischer Ebene eingeführt werden, so ist das Argument mit dem Verzicht auf Verkauf in den betroffenen Märkten hinfällig, da der Europäische Wirtschaftsraum als sehr wichtige Wirtschaftszone für die meisten Firmen zu attraktiv sein wird, als dass er boykottiert werden kann. Eine andere Möglichkeit für die Umsetzung der Backdoor ist die Implementierung auf der Anwendungsebene. Bei dieser Variante müsste die Backdoor in jedem Messangerdienst implementiert werden.
Das hat den Vorteil, dass keine Änderungen am Betriebssystem durchgeführt werden müssen. Wie vorhin schon erwähnt, würden solche Änderungen auf massiven Wiederstand der Hersteller treffen, da die sicherheitstechnischen Auswirkungen nicht absehbar wären. Es hat jedoch den Nachteil, dass jeder Messangerdienst dies implementieren muss. Weigert sich ein Dienst, so würde wieder ein Schlupfloch für Straftäter entstehen. Aus diesem Grund ist die praktische Umsetzbarkeit dieser Variante zweifelhaft. Zwar könnte man einen Dienst, der sich weigert, eine Backdoor zu implementieren, in Deutschland verbieten. Das würde jedoch beispielsweise auf dem mobilen Betriebssystem Android wenig nutzen, da man dort jederzeit Apps aus APK-Dateien installieren kann.
Ein Straftäter müsste die gewünschte App also nur irgendwo im Internet finden und könnte sie dann auf seinem Smartphone installieren, obwohl die App in Deutschland verboten ist. Es wäre also sehr einfach für Straftäter, dieses Verbot zu umgehen und dadurch in einen Schutzraum zu verweilen. Dieses Problem wird verschärft durch die riesige Anzahl an Messangerdiensten / Anwendungen mit Chatkomponente. Denn zur Koordination von Verbrechen muss auch nicht zwangsläufig ein vollständiger Messangerdienst genutzt wurden. So wurde in der Vergangenheit beispielsweise die Chatfunktion der PS4, ein Dienst für Kommunikation auf einer Spielekonsole, zur Koordination von Verbrechen genutzt.
Der belgische Innenminister Jan Jambon behauptete 2015 gar: “PlayStation 4 is even more difficult to keep track of than WhatsApp” [Th15].

Hier wird die Problematik des Internets für die Strafverfolgungsbehörden deutlich: Eigentlich jeder kann sich für wenig Geld einen Server und eine Datenbank mieten und mit Hilfe von Internet-Tutorials und geringen Programmierfähigkeiten einen Chatservice programmieren und anbieten. Ob diese dann immer Gesetzeskonform sind, ist fraglich. Für die Sicherheitsbehörden ist es damit eigentlich unmöglich, sehr kleine Chatdienste zu entdecken und zu überwachen. Kriminelle könnten das selbst mit einer verpflichtenden Backdoor ausnutzen. Doch selbst wenn der unwahrscheinliche Fall eintreten würde und alle Anwendungen mit Chatfunktion eine Backdoor integriert hätten, so bleibt Kriminellen dennoch ein Rückzugsort: Das Dark Web.
Dieses zu regulieren, erscheint nach heutigem Stand der Technik als unmöglich. Es wird also ersichtlich, dass es für Behörden und den Gesetzgeber sehr schwierig sein würde, eine umfassende Backdoor Regelung auch durchzusetzen. Und es muss festgehalten werden, dass manche Kommunikation nach derzeitigem Stand der Technik einfach nicht überwacht werden kann.

3.3.2 Backdoor schafft Präzedenzfall

Eine verpflichtende Einführung einer Backdoor schafft einen Präzedenzfall für autokratische Staaten. So würde ein solches Gesetz es autokratischen Ländern deutlich erleichtern, ähnliche Forderungen zu stellen. Diese könnten zur Legitimation des Abhörwunsches auf Deutschland verweisen und behaupten, sie täten das aus den gleichen Absichten. Jedoch ist eine Backdoor ein mächtiges Werkzeug, welche in den falschen Händen großen Schaden anrichten kann. So könnte sie in nicht demokratischen Ländern dazu benutzt werden, Regimekritiker zu entdecken und zu verhaften.
Dieses Vorgehen erscheint nicht unwahrscheinlich, wenn man sich der Lage von Regimekritikern z.B. in Russland oder der Türkei bewusst wird. So wurde laut dem türkischen Innenminister 20.500 Menschen alleine in der Türkei in den vergangenen Jahren der Prozess gemacht aufgrund von Äußerungen in Social-Media-Diensten [Du19].

Es muss davon ausgegangen werden, dass in privaten, vermeintlich sicheren Konversationen kritische Meinungen noch deutlich öfter geäußert werden als in öffentlichen Social-Media-Diensten. Durch eine Backdoor wäre auch ein Zugriff auf diese Nachrichten möglich. Dadurch wird deutlich, wie massiv die Auswirkungen einer Backdoor auf die Meinungsfreiheit von Bürger solcher Länder wären. Es kann nicht im Interesse Deutschlands sein, als Ausrede für die Unterdrückung kritischer Stimmen in autokratischen Ländern zu dienen.

3.3.3 Backdoor kann missbraucht werden

Eine Backdoor ist eine große Sicherheitslücke und kann nicht geheim gehalten werden. Wie schon erwähnt wurde, ist eine Backdoor ein mächtiges Werkzeug, welches in den falschen Händen großen Schaden anrichten könnte. Deshalb ist es von enormer Bedeutung, eine ungewollte Fremdnutzung zu verhindern. Jedoch kann das nie zu 100% ausgeschlossen werden. Sobald die Backdoor implementiert wurde, ist diese Sicherheitslücke vorhanden und wartet nur darauf, von anderen Akteuren gefunden zu werden. Je mehr Mitarbeiter in den Sicherheitsbehörden damit arbeiten, desto wahrscheinlicher ist es, dass Informationen über die Funktionsweise einer Backdoor ins Internet gelangen. Dies kann unabsichtlich passieren, z.B. ein Endgerät wurde an einem öffentlichen Ort vergessen oder auch bewusst, z.B. über einen Whistleblower oder Spion.

Fakt ist, dass eine solche Backdoor ein sehr lukratives Angriffsziel wäre, welches für viele Zielgruppen interessant wäre. So könnte damit zum Beispiel Industriespionage betrieben werden oder private Details von Prominenten und Politikern gesammelt werden. Damit wäre eine solche Lücke auch für ausländische Geheimdienste sehr interessant, die teilweise über enorme Ressourcen verfügen können. Es bleibt also festzuhalten, dass der Schutz einer Backdoor oberste Priorität haben müsste und dieser Schutz sehr wahrscheinlich Angriffen ausgesetzt sein wird.
Wirft man einen Blick in die nähere Vergangenheit, so wird deutlich, dass der Schutz / die Geheimhaltung von Schwachstellen oft nicht funktioniert hat. So wurden im Zuge des NSA-Skandals mehrere Schwachstellen / Tools der NSA von einer Gruppierung namens „Shadow Brokers“ veröffentlicht, die seit Veröffentlichung millionenfach von Kriminellen ausgenutzt wurden [Ne18].

Eine millionenfache Ausnutzung wäre bei einer Backdoor wohl nicht möglich, da die Schnittstelle, abhängig von der Implementierung, wohl vorher abgeschalten werden könnte. Aber es kann nicht ausgeschlossen werden, dass sich Kriminelle oder Geheimdienste unbemerkt den Zugang zur Backdoor beschaffen und diese in kleinem Rahmen für hochrangige Ziele ausnutzen.

3.3.4 Massenhafte Überwachung stellt jeden unter Generalverdacht

Eine massenhafte Überwachung der Kommunikation mit Hilfe einer Backdoor wiederspricht dem Recht auf Privatsphäre und stellt jeden Nutzer unter Generalverdacht. So würde mit Hilfe der Backdoor die Kommunikation aller Bürger überwacht werden, ohne dass ein Fehlverhalten der Person vorliegt. Diese Art der Überwachung würde nicht im gleichen Maße stattfinden wie bei analogen / älteren Kommunikationsdiensten. Bei diesen muss laut dem „Gesetz zur Beschränkung des Brief-, Post- und Fernmeldegeheimnisses“ (Artikel 10-Gesetz) tatsächliche Anhaltspunkte für bestimmte Straftaten vorliegen, damit das Brief-/Post-/Fernmeldegeheimnis verletzt werden darf.
Auch muss für jeden Fall ein begründeter Antrag gestellt werden, in dem auch Umfang und Dauer der Überwachung genannt werden müssen. Eine zeitlich unbegrenzte Überwachung kann also nicht stattfinden. Dieser Antrag wird geprüft und es findet eine Kontrolle über die G10-Komission bzw. entsprechende Stellen der Bundesländer statt. Die Überwachungsmaßnahme muss auch dem Betroffenen nach ihrer Einstellung mittgeteilt werden, sofern keine Gefährdung mehr vorliegt [Ge01].

Viele dieser Punkte wären jedoch bei einer massenhaften Überwachung mit Hilfe einer Backdoor nicht umsetzbar. So würden beispielsweise Bürger überwacht werden, gegen die keinerlei Anhaltspunkte für Straftaten vorliegen. Die Überwachung wäre nicht im Umfang und der Dauer begrenzt, da sie nicht auf eine Zielperson beschränkt wird. Auch wäre es bei der Anzahl an überwachten Personen / Nachrichten schwierig für zuständige Stellen, eine Kontrollfunktion auf Einzelfallbasis wahrzunehmen.
Dadurch wird ersichtlich, dass eine massenhafte Überwachung durch die Backdoor keine ideale Lösung darstellen würde. Jedoch muss auch festgehalten werden, dass eine Backdoor auch verantwortungsbewusst von den Behörden eingesetzt werden könnte. So könnte die Nutzung auf Basis des „Artikel-10 Gesetztes“ umgesetzt werden, mit ähnlichen Rechten und Pflichten. Es muss aber erwähnt werden, dass die Versuchung für die Behörden, die Backdoor missbräuchlich einzusetzen, ungemein höher ist als bei den analogen Kommunikationsdiensten, die vom Artikel-10 Gesetz abgedeckt werden. Denn die Überwachung analoger Kommunikationsdienste ist kompliziert, personalintensiv und skaliert schlecht. So muss z.B. bei der Briefüberwachung der Brief abgefangen, gelesen und wieder versiegelt werden. Da auch Drittunternehmen wie die Deutsche Post an der Überwachung beteiligt sind, werden diese genau prüfen, ob eine Postüberwachung für diese Person auch wirklich genehmigt wurde. Das alles ist aufwendig und skaliert dementsprechend schlecht. Bei der Backdoor jedoch ist die Lücke bereits vorhanden. Diese Lücke ist auch nicht auf eine bestimmte, abzuhörende, Person beschränkt. Sie ist quasi universal einsetzbar.
Das bedeutet, dass mit minimalem Aufwand viel mehr Personen überwacht werden könnten.
Dadurch steigt die Versuchung für Behörden, diese Lücke über ihre Kompetenzen hinaus zu benutzen, um eine vermeintliche höhere öffentliche Sicherheit zu gewährleisten. Das dieses Problem nicht nur theoretischer Natur ist, zeigen Enthüllungen im Zuge des NSA-Skandals. So wurde der amerikanische Telekommunikationsanbieter Verizon gerichtlich dazu gezwungen, die Metadaten aller Telefonanrufe innerhalb der USA oder mit einem Teilnehmer in den USA zwischen dem 25.04.13 und dem 19.07.13 an die Sicherheitsbehörden zu liefern. Laut EFF eine Praxis, die vermutlich seit Jahren und für alle Telekommunikationsprovider in den USA gelten dürfte [CR13].

Es wurden also die Metadaten aller Telefonanrufe von Amerikanern gesammelt und diese damit unter Generalverdacht gestellt, um die öffentliche Sicherheit zu erhöhen. Dieses Verfahren wurde in „ACLU vs. Clapper“ am 7. Mai 2015 vom 2. Berufsgericht der Vereinigten Staaten als nicht rechtmäßig verurteilt, „the telephone metadata program exceeded the authority granted by FISA“ [Un15].
Das Überwachungsprogramm wurde nur aufgrund von Medienenthüllungen entdeckt. Dieses Beispiel verdeutlicht, dass starke Kontrollmechanismen implementiert werden müssten, um eine missbräuchliche Nutzung solcher Überwachungsprogramme zu verhindern / aufzudecken.

3.3.5 Eine Abhörmöglichkeit verhindert nicht automatisch Straftaten

Doch selbst wenn ein Kommunikationsdienst abgehört werden kann, verhindert dies nicht automatisch Straftaten. So wurde der Attentäter vom Berliner Weihnachtsmarkt, Anis Amri, schon 9 Monate vor der Tat vom Landeskriminalamt NRW überwacht und dabei beobachtet, wie er mit mindestens 2 IS-Terroristen aus Libyen über den Messangerdienst Telegram kommuniziert hat. In diesem Chat war in Code-Wörtern sogar von einem geplanten Selbstmordanschlag die Rede [Fl17].

Trotzdem wurde der Anschlag von den Behörden nicht verhindert. Das lag unter anderem auch daran, dass die Interpretation von überwachten Nachrichten für Behörden ein großes Problem darstellt. Es reicht nicht aus, einfach nur Kommunikationsdienste zu überwachen und Daten zu aggregieren. Es müssen auch die richtigen Schlüsse aus diesen gesammelten Daten gezogen werden. So wäre es bei einer vollständigen Überwachung von Messangerdiensten unmöglich, diese manuell von Menschen filtern zu lassen. Das liegt daran, dass bei einer Komplettüberwachung enorme Datenmengen anfallen würden. Alleine bei WhatsApp wurden im Mai 2018 pro Tag weltweit 65 Mrd. Nachrichten versendet [Br18].

Zwar wären viele dieser Nachrichten für deutsche Sicherheitsbehörden irrelevant, da sie Deutschland nicht betreffen. Diese Nachrichten können aber trotzdem nicht von Beginn an ignoriert werden. Denn im Gegensatz zu SMS-Nachrichten, bei denen man sich nur auf Nachrichten fokussieren könnte, die von oder durch ein deutsches Mobilfunknetz gesendet wurden, kann man bei Chatdiensten, die über das Internet funktionieren, seinen Standort sehr leicht verschleiern. Dies gelingt z.B. mit Hilfe eines VPN-Dienstes. Würde man also nur Nachrichten von deutschen IP-Adressen beachten, so würde man ein gefährliches Schlupfloch für Kriminelle und Straftäter schaffen. Dieses Schlupfloch könnte sogar von absoluten Laien ausgenutzt werden. Auch eine Begrenzung auf deutsche Telefonnummern, also das mindestens ein Gesprächspartner eine deutsche Nummer besitzen muss, würde nicht funktionieren. So müssten Straftäter nur SIM-Karten im EU-Ausland kaufen / bestellen und wären vor einer Überwachung geschützt. Sie hätten nur geringe Nachteile zu einer deutschen SIM und könnten in Deutschland normal damit agieren.

So lässt sich also festhalten, dass eine Vorabfilterung nicht umsetzbar ist, ohne erneut große Schutzräume zu schaffen. Es müssten daher alle Nachrichten in Betracht gezogen werden, die über Messangerdienste verschickt werden. Dies führt wieder zur aktuellen Problemstellung zurück, dem Interpretieren der Nachrichten. Da die Anzahl der verschickten Nachrichten (wie vorher erwähnt 65 Mrd. alleine bei WhatsApp) zu groß ist für eine menschliche Bearbeitung, müssten die Nachrichten zuerst mit Hilfe von Algorithmen analysiert und gefiltert werden. Erst dann könnten relevante Nachrichten einem Menschen zur Prüfung vorgelegt werden.
Diese Aufteilung hätte den Vorteil, dass ein Algorithmus viel besser mit den verschiedenen Sprachen umgehen könnte, in denen die Nachrichten verfasst wurden. Jedoch hat die Bearbeitung mit Hilfe eines Algorithmus auch einen gravierenden Nachteil: Algorithmen sind aktuell noch sehr schlecht darin, Nachrichten richtig zu interpretieren. So müsste ein Algorithmus entscheiden, ob eine Nachricht unwichtig ist oder eine potenzielle Gefahr darstellt. Um diese Entscheidung fundiert treffen zu können, müsste bei jeder Nachricht auch der Kontext und die bisherige Konversation betrachtet werden.
Ob dies jedoch aktuell in dem benötigten Umfang umgesetzt werden kann, ist aufgrund der benötigten Rechenkapazität und Komplexität der Algorithmen fraglich. Deshalb wären Sicherheitsbehörden aktuell wohl nur in der Lage, die Nachrichten nach bestimmten Schlüsselworten zu durchsuchen. Diese Methode funktioniert jedoch reaktiv. Sie sucht also nur nach denjenigen Schlüsselwörtern, die Sicherheitsbehörden bereits bekannt sind. Dadurch besteht die Gefahr, Nachrichten zu übersehen, wenn Kriminelle ihre Codewörter oft verändern. Gleichzeitig besteht die Gefahr, dass je nach den benutzten Schlüsselwörtern auch viele ungefährliche Nachrichten im Ergebnis landen.
Das erhöht wiederum die Wahrscheinlichkeit, gefährliche Nachrichten zu übersehen und daraus resultierende Straftaten geschehen zu lassen. Es bleibt also festzuhalten, dass selbst mit einer vollständigen Überwachung Schutzräume bestehen bleiben würden bzw. das aktuelle System relativ leicht ausgetrickst werden könnte. Daher ist es fraglich, ob diese Überwachung aktuell einen großen Zugewinn an Sicherheit bringen würde. Das kann sich jedoch in Zukunft mit der Nutzung neuerer und besserer Technologien ändern.

4 Zusammenfassung

4.1 Fazit

Zusammenfassend muss gesagt werden, dass sowohl Vor- als auch Nachteile für eine Implementierung der Backdoor vorhanden sind. Jedoch ist es fraglich, wie groß der Zugewinn an öffentlicher Sicherheit durch die erneute Ermöglichung der Kommunikationsüberwachung wirklich wäre. Auf der anderen Seite schafft die Einführung der Backdoor einen Präzedenzfall, der zur Unterdrückung kritischer Stimmen in anderen Staaten führen könnte. Es kann nicht ausgeschlossen werden, dass die Backdoor Kriminellen in die Hände fällt, die diese Schwachstelle ausnutzen.
Und die Privatsphäre jedes Einzelnen kann eingeschränkt werden. Im Endeffekt muss daher immer eine Abwägung getroffen werden zwischen der Privatsphäre eines Individuums und der öffentlichen Sicherheit für die Allgemeinheit. Die Gesellschaft muss entscheiden, was sie bereit ist aufzugeben, um höhere Sicherheit zu schaffen. Diese Entscheidung kann nur mit Hilfe der Wahlurne getroffen werden.
Im Falle der Backdoor jedoch überwiegen die Gefahren und Nachteile die vermeintlichen Vorteile. Daher kann diese Arbeit keine Empfehlung dafür aussprechen, ein Gesetz zur verpflichtenden Implementierung der Backdoor auf den Weg zu bringen.

 4.2 Kritischer Rückblick auf die wissenschaftliche Arbeit

Es mussten viele Annahmen getroffen werden, da ein solches Gesetz bisher noch in keinem Land einführt wurde. Dies könnte problematisch sein, da die Annahmen vor allem auf dem aktuellen Stand der Technik bzw. Vorkommnissen in der Vergangenheit basieren. Daher ist es möglich, dass viele der Nachteile z.B. durch neue, bessere Technologien behoben werden, wodurch das Fazit der Arbeit nicht mehr zutreffen muss. Auch hat sich die Arbeit hauptsächlich mit Internetquellen auseinandergesetzt, da wegen der Aktualität des Themas noch wenig Fachliteratur zum Thema Backdoor vorhanden war.

4.3 Ausblick

In einer weiteren Arbeit könnte insbesondere der Konflikt zwischen Privatsphäre und öffentlicher Sicherheit genauer beleuchtet werden, der Demokratien in Zukunft noch öfter beschäftigen wird. So könnte eine Studie durchgeführt werden, ob und wie viel Privatsphäre Bürger bereit sind zu opfern, um eine höhere öffentliche Sicherheit gewährleisten zu können.

Quellen

  •  [Bo75] Bongen, W.: Schranken der Freizügigkeit aus Gründen der öffentlichen Ordnung und Sicherheit im Recht der Europäischen Wirtschaftsgemeinschaft. In: Tübinger Schriften zum internationalen und europäischen Recht, Duncker & Humblot, Berlin, 1975
  • [PP14]  Porsch, T.; Pieschl, S.: Neue Medien und deren Schatten: Mediennutzung, Medienwirkung und Medienkompetenz, Hogrefe Verlag, 2014

 

 

Nach oben

Beeinflussung des politischen Diskurses durch automatisierte Social-Media-Accounts

Symbolbild Chatbot

In der Politik wird immer häufiger über die möglichen Gefahren diskutiert, welche von sogenannten Socialbots ausgehen sollen. Zum Beispiel sagt Konstantin von Notz [No18]: Die Manipulationsversuche demokratischer Willensbildungsprozesse unterlaufen [...] das Vertrauen in unsere Demokratie und das ist für Rechtsstaaten ein massives Problem.

Ob es um bewusst lancierte Falschmeldungen geht, die dann mit Trollarmeen oder Socialbots Meinungsführerschaft vorgaukeln [...]

In dieser Arbeit wird untersucht, inwiefern hinter solchen Aussagen Fakten stecken, um die Frage zu beantworten, ob Socialbots einen nennenswerten und gefährlichen Einfluss auf den politischen Diskurs haben. Um diese Frage zu beantworten, analysieren wir, wozu Socialbots aktuell zumindest theoretisch in der Lage sind. Anschließend analysieren wir, inwiefern Socialbots in der realen Welt Anwendung finden und welche Verfahren eingesetzt werden können, um verschiedene Arten von Socialbots zu detektieren. Diese Arbeit zeigt, dass bewiesenermaßen existierende Socialbots nur ein austauschbares Mittel zum Zweck sind, während die Existenz komplexerer Arten der Socialbots aktuell nicht empirisch belegbar ist.

1. Definitionen

Aufgrund der inflationären Benutzung des Begriffs Socialbot verlieren diese zunehmend an Klarheit. Deshalb bedarf es für die folgende wissenschaftliche Analyse einer Arbeitsdefinition des Begriffs Socialbot. Um diesen zu definieren, bedarf es weiterhin einer Definition des Begriffs Social-Media-Plattform.

1.1 Social-Media-Plattform

Social Media bezeichnet eine Variation von Plattformen mit einer Vielzahl an Kommunikationsmitteln zur gegenseitigen Vernetzung. Im Fokus steht immer der Austausch von Informationen, die entsprechenden Reaktionen und der mögliche Aufbau einer digitalen sozialen Beziehung. Zur Realisierung dieser sozialen Interaktionen greifen die Plattformen auf Medien wie Text, Bild, Audio und Video zurück.
Des Weiteren bieten sie dem Nutzer durch Funktionen wie Kommentare, Bewertungen oder Empfehlungen einen aktiven Bezug auf Inhalte und somit auch Einfluss auf die Verbreitung dieser. Da Social-Media-Plattformen im digitalen Raum agieren, können Nutzer anonym auftreten oder selbstständig über ihre Identität entscheiden. Dieses Paper bezieht sich primär auf die Plattform Twitter. 

1.2 Socialbots

Socialbots bezeichnen wir als Softwareprogramme, die automatisiert Aktionen über Social Media Accounts ausführen. Da diese Definition sehr breit gefasst ist, differenzieren wir zwischen Socialbots ohne die Fähigkeit ihr Verhalten selbstständig zu optimieren (folglich als statische Bots bezeichnet) und Socialbots, die mit Hilfe von beispielsweise Machine Learning arbeiten um eine solche Optimierung vorzunehmen (folglich als dynamische Bots bezeichnet).

1.3 Statische Socialbots

Socialbots, die ihr Verhalten nicht selbstständig und dynamisch optimieren können, definieren wir als Programme, welche ihren Output nicht verändern. Sie erfüllen einfache Aufgaben, welche auch von Menschen erfüllt werden können, zum Beispiel das Retweeten aller Tweets eines bestimmten Users. Diese Socialbots können bei näherer Betrachtung relativ einfach erkannt werden [BF16], da ihr systematisches Verhalten leicht von Menschen unterschieden werden kann.
Im Vordergrund steht bei diesen Bots die möglichst schnelle Verbreitung eines bestimmten Contents oder einer bestimmten Meinung.

1.4 Dynamische Socialbots

Mit dem heutigen Wissen im Bereich des Machine Learnings ist es bereits möglich, scheinbar hochkomplexe Algorithmen zu entwickeln, welche mit zunehmender Trainingszeit „dazu-lernen“. Eine solche Lernstrategie ist auch im Bereich der Socialbots denkbar. Nachfolgend werden deshalb Bots, welche ihr Verhalten verändern und anpassen können, als dynamische Socialbots bezeichnet. Zu dieser Kategorie zählen auch Socialbots, welche unter Anderem selbständig dynamischen Content generieren können.
Durch die Interaktion mit anderen (menschlichen) Usern, sammelt ein solcher Bot Daten, welche zur Verbesserung/Veränderung seines Verhaltens genutzt werden. Durch ihre Lernfähigkeit ist es durchaus denkbar, dass diese Art der Socialbots- mit genügend Trainingszeit, menschliches Verhalten glaubhaft nachahmen und/oder glaubhafte Nachrichten und Content generieren können.

2. Socialbots und Machine Learning

Insbesondere die dynamischen Socialbots könnten von Technologien aus dem Bereich der künstlichen Intelligenz, vorrangig dem Machine Learning (ML), profitieren. Daher stellt sich die Frage, wozu Machine Learning im Bereich des Textverständnisses und der Textkreation in der Lage ist. Diese Teilbereiche werden Natural-language understanding (NLU) und Natural-language generation (NLG) genannt, der Überbegriff für diese Teilbereiche ist Natural-language processing.

2.1 Nützlichkeit für Socialbots

NLG ist für dynamische Bots deshalb von Relevanz, da diese das Ziel haben, ohne menschlichen Input neuen Content zu generieren. Ein idealer dynamischer Bot könnte so eine Konversation mit einem Menschen halten, demnach also den Turing-Test bestehen [Tu50]. Zum Halten einer Konversation muss zuerst der Text des Gegenübers verstanden und anschließend ein menschlich wirkender Text als Antwort formuliert werden. Hierfür könnten NLU und NLG mit ML geeignet sein.

2.2 Natural-language Understanding

Das Verstehen von Texten wird als AI-complete-Problem angesehen [Ya13], gehört also zu den schwierigsten Problemen im Bereich der künstlichen Intelligenz. AI-complete-Probleme werden als äquivalent zur Strong AI, also künstlicher Intelligenz, die der des Menschen gleichkommt, gesehen [Sh92]. Im Bereich der NLU gab es in den letzten Jahrzehnten große Fortschritte, sodass NLU bereits heute eingesetzt wird, etwa in der maschinellen Übersetzung. Dennoch gibt es bis heute keine vollständig akkurate Software zum Verstehen natürlicher Sprache [Kh17].

2.3 Natural-language Generation

Das Ziel von NLG ist die vereinfachte Interaktion von Mensch und Maschine. Da der Bedarf für solche Interaktionen in den letzten Jahren durch die fortschreitende Digitalisierung immer größer wurde, hat sich ein großer Markt für NLG entwickelt. So kann etwa das Quelloffene Programm ZombieWriter mit genug Trainingsdaten selbstständig Zeitungsartikel verfassen [Al17].
Das Feld der NLG ist sehr fortgeschritten, sodass schon heute etwa ganze Wikipedia-Artikel automatisch generiert werden können [SB09].

2.4 Stand der Technik

Das Feld des Natural Language Processing hat sich in den letzten Jahren stark weiterentwickelt und wird bereits in vielen Anwendungsbereichen kommerziell eingesetzt. Durch Technologien wie Machine Learning hat das Fachgebiet stark profitiert. Dennoch ist es mit dem heutigen Stand der Technik selbst den besten Chatbots nicht möglich, den Turing-Test zu bestehen, wie Bradeöko; Mladenic [BM19] feststellen. Daher wäre es auch einem dynamischen Socialbot nicht möglich, einen Menschen perfekt zu imitieren.

3. Reale Existenz

3.1 Detektionsmaßnahmen

Um menschliche Social Media Accounts von automatisierten Accounts zu unterscheiden, wurden bisher zahlreiche Verfahren entwickelt. Auch die Social-Media-Plattformen setzen selbst auf bestimmte Verfahren, um automatisierte Accounts zu erkennen und gegebenenfalls zu sperren.

3.2 Automatisierte Detektionsmaßnahmen

Facebook hat weltweit über 2,2 Milliarden aktive monatliche Nutzer. Twitter kommt auf circa 326 Millionen aktive monatliche Nutzer [WHD19]. Um diese große Menge an Accounts effizient auf „Echtheit“ zu untersuchen, werden automatisierte Tools eingesetzt. Eines dieser Verfahren wird am Beispiel des Tools Botometer (ehem. Bot-or-not; vgl. botometer.iuni.iu.edu, abgerufen am 30.12.2019) erklärt. Bei diesem Tool werden die Eigenschaften eines einzelnen zu untersuchenden Accounts analysiert. Hier lassen sich zum Beispiel die benutzen Hashtags, die Zeitpunkte der veröffentlichten Inhalte und Interaktionen, Informationen wie etwa der Username, das Alter des Accounts und die Anzahl der Inhalte nutzen, um die Analyse durchzuführen [Fe16].

Der dahinterstehende Algorithmus wurde mit 15.000 Socialbot Accounts und weiteren 16.000 menschlichen Accounts trainiert. Mit diesem Verfahren wurden zwischenzeitlich Erfolgsraten von circa 95% erreicht. Mittlerweile liegt die Erfolgsquote vermutlich unter diesem Wert, da die ursprünglichen Trainingsdaten inzwischen veraltet sind [Da16].
Ein klarer Vorteil des genannten Verfahrens ist die nahezu vollständige Automatisierung. Es können also mit relativ wenig Zeit und Aufwand auch größere Mengen an Accounts untersucht werden. Jedoch ist diese Methode nicht immer in der Lage, eine korrekte Unterscheidung zwischen Menschen und Maschine zu erzeugen. So kann es passieren, dass „echte“ Accounts, die nur selten benutzt werden, als Bot klassifiziert werden, da sie ein Verhalten darlegen, dass dem eines Bots ähnelt. Diese false positives dürfen also nicht vernachlässigt werden.

3.3 Manuelle Detektionsmaßnahmen

Ein anderer Ansatz, um Accounts in Menschen und Bots aufzuteilen, ist der Einsatz von Menschen. In diesem Crowdsourcing-Verfahren werden Menschen verdächtige Accounts und die dazugehörigen Daten vorgelegt. Sie sollen dann eine Entscheidung treffen, ob dieser Account von einem Bot geführt wird oder nicht. In der Regel fällt es Menschen leicht diese Bots von Menschen zu unterscheiden.
Damit nicht die Entscheidung eines einzelnen Menschen über die „Echtheit“ eines Accounts entscheidet, werden die Ergebnisse von mehreren Menschen zusammen ausgewertet. Ist die Mehrheit für eine Klassifizierung als Bot, so ist diese Aussage mit hoher Wahrscheinlichkeit korrekt. Dieses Mehrheitsverfahren erbringt eine sehr geringe Rate an false positives [Fe16].

Die Vorteile eines manuellen Verfahrens sind die hohe Erfolgsrate und beinahe nicht vorhandenen False Positives [Wa12]. Jedoch ist dies mit einem großen Aufwand verbunden. Es müssen viele Mitarbeiter damit beauftragt werden, dieses Verfahren durchzuführen. Die Anzahl der benötigten Arbeiter skaliert dabei mit der Anzahl der zu untersuchenden Accounts. Es ergibt sich also ein immenser Personalbedarf, um diese Analysen durchführen zu können. Immer häufiger machen sich Nutzer auch Sorgen um die Sicherheit ihrer Daten und ihre eigene Privatsphäre. Da bei der Analyse durch Menschen quasi der gesamte Inhalt des Accounts einsehbar gemacht wird, stellt dies ein weiteres Problem in der immer größer werden Sorge um die Wahrung der Privatsphäre dar.

3.4 Detektion von dynamischen Bots

Die naheliegende Methode zur Detektion dynamischer Bots ist der sog. Turing-Test. Im Turing-Test stellt ein Mensch je einen anderen Menschen und einem Computer über ein schriftliches Interface verschiedene Fragen. Anhand der Antworten muss der Tester anschließend entscheiden, wer von den zwei Antwortenden die Maschine ist. Gelingt es dem Tester nicht, den Computer als solchen zu identifizieren, hat die Maschine den Turing-Test bestanden [Tu50].

Ein ähnliches Verfahren lässt sich auch für die Identifizierung von computergesteuerten Accounts in den sozialen Netzwerken einsetzten. Da jedoch für jeden Test mindestens ein menschlicher Tester gebraucht wird, ist hier ein erheblicher Aufwand nötig, um große Mengen von Accounts zu überprüfen.

3.5 Existenzbeweise

Die genannten Detektionsverfahren zeigen, dass zumindest statische Socialbots relativ zuverlässig von Menschen unterschieden werden können. Mit der Nutzung solcher Verfahren kann demnach geschätzt werden, in welcher Anzahl diese erkennbaren Socialbots in der realen Welt existieren. Vor der US-Präsidentschaftswahl 2016 wurden die Diskussionen auf der Social-Media-Plattform Twitter durch Bessi; Ferrara [BF16] analysiert.

Dazu wurden händisch Hashtags ausgewählt, welche mit den Präsidentschaftskandidaten und den Wahlen generell in Ver-bindung standen. In einem Zeitraum von sechs Tagen wurden ca. 20,7 Mio Tweets erfasst und ausgewertet. Zur Identifikation möglicher Bots wurde das Tool Botometer (ehem. Bot-Or-Not, vgl. botometer.iuni.iu.edu, abgerufen am 30.12.2019) 14 benutzt. Unter den 50.000 aktivsten Accounts in dieser Zeitspanne befanden sich 7.183 Twitter-Accounts, welche vom Botometer als mögliche Bot-Accounts eingestuft wurden. Diese Accounts waren für 18,45% der aufgezeichneten Tweets verantwortlich. Auch die französischen Präsidentschaftswahlen 2017 wurden nach einem ähnlichen Prinzip analysiert [Fe17].

Auch hier wurden Tweets anhand einer vorgefertigten Liste relevanter Hashtags aufgezeichnet. Zusätzlich wurden hier noch sogenannte mentions, also das Nennen anderer User in eigenen Tweets, als Filterkriterium betrachtet. Auch bereits gelöschte Accounts konnten dank veränderter Analysemethoden betrachtet werden. Von rund 99.300 Usern wurden in dieser Diskussion circa 18.300 als Bots eingestuft. Auffällig ist, dass bei beiden Wahlen KandidatInnen des rechtspopulistischen Spektrums angetreten sind. Ein weiterer Angriffspunkt für Socialbots ist die generelle Verbreitung von sogenannte Fake-News.
Eine Studie von Shao et al. [Sh17] zeigt, dass bei der Verbreitung von Fake-News - besonders kurz nach Veröffentlichung - die meisten Accounts, welche solche Artikel verbreiten, Bot-ähnliches Verhalten zeigen. Dabei ist besonders auffällig, dass die Accounts, welche am aktivsten Fake-News verbreiten, auch deutlich wahrscheinlicher von Bots gesteuert werden. Obwohl mit diesen Studien Anhaltspunkte gegeben werden, dass Socialbots in der realen Welt existieren und einen nicht unerheblichen Einfluss haben, kann keine der Studien eine Aussage darüber treffen, ob diese Bots eigenen, glaubwürdigen Content (wie z.B. Tweets) generieren können, oder ob sie lediglich bereits vorhandenen Content verbreiten. Somit können diese Bots nur als statische Bots eingestuft werden.

4. Realer Einfluss

Da die Existenz von Socialbots in großer Anzahl bewiesen ist, bleibt die Frage inwiefern diese Bots einen spürbaren Einfluss auf die Meinungsbildung menschlicher User haben. Generell gibt es zu diesem Thema nur wenige, belastbare Aussagen, da es schwer zu messen ist, inwiefern Socialbots die Meinung einzelner Menschen beeinflussen. In einer Studie von Hagen et al. [HAW17] wurden Personen per Telefonbefragung zu ihrer politischen Einstellung in bestimmten Themen befragt. Es wurde festgestellt, dass die Polarisierung bei Menschen, welche oft Social-Media benutzen, tendenziell größer ist, Meinungen sich also eher an den Extremen des politischen Spektrums ansiedeln. Jedoch wurde auch festgestellt, dass bei Menschen mit höheren Bildungsgraden, die Nutzung von Social-Media tatsächlich den gegenteiligen Effekt zur Folge hat.

Diese Arbeit trifft zwar keine Aussage darüber, ob diese Ergebnisse durch Socialbots begründet sind, jedoch ist es sehr wahrscheinlich, dass regelmäßige Social-Media Nutzer auch regelmäßig mit Socialbots in Kontakt geraten. In einer Arbeit von Mitter et al. [MWS13] wurde der Einfluss durch Socialbots auf die Bildung neuer Kontakte zwischen menschlichen Usern untersucht. Laut dieser Arbeit konnten Socialbots in einem Experiment bis zu ca. 11,51% der neu gebildeten Kontakte herbeiführen. Jedoch wurde auch festgestellt, dass äußere Einflüsse, wie z.B. Offline-Begegnungen verschiedener Menschen, den wohl größten Einfluss auf Kontaktbildung hat.

Diese Arbeit trifft jedoch keine Aussage darüber, ob diese Socialbots auch einen nicht unerheblichen Einfluss auf die Meinungsbildung der betroffenen Personen haben könnten. Zwar lässt sich aus diesen Ergebnissen mutmaßen, dass Socialbots einen Einfluss auf Meinungsbildung ausüben, jedoch lässt sich das keinesfalls empirisch belegen.

4.1 Der Mensch hinter dem Content

Bei der gesamten gesellschaftlichen Debatte um das Thema Socialbots, sind diese lediglich ein Werkzeug. Wichtig ist das Ergründen, warum ein solches Werkzeug eingesetzt wird. Wie bereits in 3.5 beschrieben, werden Bots bei besonders kontroversen Wahlen eingesetzt, bei denen häufig KandidatInnen des rechtspopulistischen bis rechtsextremes Spektrum antreten. Diese fallen häufig durch ihre Ablehnung demokratischer Institutionen, wie etwa der Presse auf [La18].

Dem liegt der in Sich antidemokratische Charakter von Socialbots zugrunde: Sie sind eine Technologie, mit der sich mit wenig Aufwand eine bestimmte Meinung sehr weit streuen lässt. Das zentrale Element einer jeden Demokratie, der offene, demokratische Diskurs, wird somit vollständig oder teilweise automatisiert. Dies kann zur Folge haben, dass eine gesellschaftliche Diskussion überflutet wird mit Meinungen, welche im Zweifelsfall zwar Nischenmeinungen sind, durch die automatisierte Verbreitung allerdings zur Mehrheitsmeinung hochstilisiert werden.
Durch ihren antidemokratischen Charakter werden sie also vorrangig von Kräften eingesetzt, welche ohnehin zu demokratiefeindlichen Praktiken neigen. So kündigte etwa die rechtsnationale Partei „Alternative für Deutschland“ gegenüber dem SPIEGEL an, im Bundestagswahlkampf 2017 Social Bots einzusetzen [SP16]. Jedoch wäre es falsch, die Manipulation sozialer Medien durch antidemokratische Kräfte lediglich Socialbots zuzuschreiben und deren Verbot als Lösung darzustellen. Socialbots automatisieren zwar das Streuen bestimmter Meinungen, machen jedoch nichts, was ein Mensch nicht ebenfalls könnte. So fluten internetaffine rechtsextreme Netzwerke wie „Reconquista Germanica“ regelmäßig Kommentarspalten von Internetbeiträgen oder bestimmte Hashtags mit Hasskommentaren [AR18].

Auch andere Räume im Netz werden von diesen Gruppierungen besetzt. So besetzen über Imageboards wie 4Chan organisierte Rechte die Gaming-Szene, um ihr Gedankengut zu verbreiten [Pa20]. Dies gipfelte darin, dass der antisemitische Attentäter Stephan B. seinen Anschlag auf die Synagoge von Halle vom 9. Oktober 2019 auf Twitch live übertrug, einer Streamingplattform für Videospiele [He19].

5. Fazit

In dieser Arbeit wurde gezeigt, dass zumindest statische Socialbots in großer Anzahl existieren und auf Social-Media-Plattformen agieren. Ob diese Bots einen erheblichen Einfluss auf die Meinungsbildung menschlicher User haben, wurde bisher nicht empirisch bewiesen. Belegbar ist aktuell lediglich die Tatsache, dass statische Socialbots u.A. dazu genutzt werden, um Fake-News zu verbreiten und Präsenz in Diskussionen aller Art zu zeigen. Auch bestimmte Meinungsbilder werden von statischen Socialbots stark vertreten. Da sie keinen eigenständigen Content generieren, sind sie ein Mittel zum Zweck und ihre Aufgaben könnten auch von Menschen übernommen werden.

Im Gegensatz zu menschlichen „Click-Armeen“ können Bots aber kostengünstiger und rund um die Uhr eingesetzt werden, weshalb auch statische Bots eine potenzielle Gefahr darstellen. Die Existenz von dynamischen Socialbots hingegen bleibt weiterhin fragwürdig, da es noch keine Studien gibt, welche belegen können, dass existierende Socialbots eigenständig glaubwürdigen Content generieren, geschweige dem den Turing-Test bestehen können. Ein massenhafter Einsatz von dynamischen Socialbots scheint aktuell unrealistisch, ist jedoch in der Zukunft keinesfalls undenkbar.

 

Quellen

  • [AR18] ARD: Infokrieg mit allen Mitteln./, 13. Dez. 2018,    : www. tagesschau.de/faktenfinder/inland/organisierte-trolle-101.html, Stand: 23. 01. 2020.
  • [BF16] Bessi, A.; Ferrara, E.: Social bots distort the 2016 U.S. Presidential electiononline discussion, Technical Paper, firstmonday, 7. Nov. 2016,    : https: //papers.ssrn.com/sol3/papers.cfm?abstract_id=2982233, Stand: 02. 12. 2019.
  • [BM19] Bradeöko, L.; Mladenic, D.: A Survey of Chabot Systemsthrough a Loebner Prize Competition, Research paper, Artificial Intelligence laboratory, Jozef Stefan Institute, Ljubljana Slovenia, 28. Juni 2019,    : pdfs. semanticscholar.org/9447/1160f13e9771df3199b3684e085729110428. pdf, Stand: 09. 01. 2020.
  • [Da16] Davis, C. A.; Varol, O.; Ferrara, E.; Flammini, A.; Menczer, F.: BotOrNot: A System to Evaluate Social Bots, Technical Paper, Communications of the ACM, 2016,    : dl.acm.org/doi/pdf/10.1145/2872518.2889302, Stand: 03. 01. 2020.
  • [Fe17] Ferrara, E.: Disinformation and Social Bot Operations in the Run Up to the 2017 French Presidential Election, Paper, University of Southern California -Information Sciences Institute, 30. Juni 2017,    : papers.ssrn. com/sol3/papers.cfm?abstract_id=2995809, Stand: 01. 01. 2020.
  • [HAW17] Hagen, L. M.; in der Au, A.-M.; Wieland, M.: Polarisierung im Social Web und der intervenierende Effekt von Bildung: eine Untersuchung zu den Folgen algorithmischer Medien am Beispiel der Zustimmung zu Merkels "Wir schaffen das!" kommunikation @ gesellschaft/18, S. 1–20, 2017,    : www. ssoar.info/ssoar/bitstream/handle/document/51503/ssoar-ketg-2017-Hagen_et_al-Polarisierung_im_Social_Web.pdf?sequence=3& isAllowed=y&lnkname=ssoar-ketg-2017-Hagen_et_al-Polarisierung_ im_Social_Web.pdf, Stand: 06. 01. 2020.
  • [Kh17] Khurana, D.; Koli, A.; Khatter, K.; Singh, S.: Natural Language Processing: State of The Art, Current Trends and Challenges. CoRR abs/1708.05148/, 2017, arXiv: 1708.05148,    : arxiv.org/abs/1708.05148.
  • [MWS13] Mitter, S.; Wagner, C.; Strohmaier, M.: Understanding The Impact Of Socialbot Attacks In Online Social Networks, Paper, Graz University of Technology u.A., 2013,    : arxiv.org/ftp/arxiv/papers/1402/1402.6289.pdf, Stand: 06. 01. 2020.
  • [No18] von Notz (Bündnis 90/Die Grünen), K.: 6. Netzpolitische Soirée: Hacked democracy? Demokratie schützen!, Youtube, 4. Dez. 2018,    : https: //youtu.be/jtmFg5iu15w?t=854, Stand: 30. 12. 2019.
  • [Pa20] Parbel, L.: Wenn Faschisten Faschisten spielen./, 7. Jan. 2020,    : https: //netzpolitik.org/2020/wenn-faschisten-faschisten-spielen/, Stand: 23. 02. 2020.
  • [SB09] Sauper, C.; Barzilay, R.: Automatically Generating Wikipedia Articles:A Structure-Aware Approach, Research paper, 2009,    : people. csail.mit.edu/regina/my_papers/wiki.pdf, Stand: 20. 01. 2020.
  • [Sh92] Shapiro, S. C.: Artificial Intelligence, Book, 1992,    : cse.buffalo. edu/~shapiro/Papers/ai.pdf, Stand: 18. 01. 2020.
  • [Tu50] Turing, A. M.: Computing machinery and intelligence, Research paper, Mind journal, 1. Okt. 1950,    : academic.oup.com/mind/article/LIX/ 236/433/986238, Stand: 09. 01. 2020.
  • [Wa12] Wang, G.; Mohanlal, M.; Wilson, C.; Wang, X.; Metzger, M.; Zheng, H.; Zhao, B. Y.: Social Turing Tests: Crowdsourcing Sybil Detection, Technical Paper, Department of Computer Science der U.C. Santa Barbara u.A., 7. Dez. 2012,    : arxiv.org/abs/1205.3856, Stand: 30. 12. 2019.
  • [WHD19] We are Social; Hootsuite; DataReportal: Die weltweit größten Social Networks nach Anzahl der User, Statista, 1. Jan. 2019,    : de.statista.com statistik/daten/studie/181086/umfrage/die-weltweit-groessten-social-networks-nach-anzahl-der-user/, Stand: 03. 01. 2020.
  • [Ya13] Yampolskiy, R. V.: Turing Test as a Defining Feature of AI-Completeness, Re-search paper, University of Louisville, 2013,    : cecs.louisville. edu/ry/TuringTestasaDefiningFeature04270003.pdf, Stand: 09. 01. 2020.

 

 

Die Technische Umsetzbarkeit der EU-Direktive 2019/790 Artikel 17 und die Problematik des Upload-Filters

Das vorliegende Paper beschäftigt sich mit den gesetzlichen Vorgaben der Urheberrechtsreform der EU und ihrer technischen Umsetzbarkeit. Im Fokus steht dabei die Frage, ob die Reform ohne einen „Upload-Filter“ umsetzbar ist, wie der Politiker Axel Voss behauptet. Nach einer Begriffsklärung wird bereits deutlich, dass ein softwarebasierter Filter unumgänglich ist. Im Anschluss wird diskutiert, ob eine fehlerfreie, technische Implementierung mithilfe moderner Algorithmen möglich ist. Dazu werden mehrere aktuelle Methoden zur Identifizierung von urheberrechtlich geschützten Inhalten erörtert und evaluiert. Die theoretischen Ausarbeitungen bilden die Grundlage für die Diskussion und die im Fazit gegebene Empfehlung zur Umsetzung der Urheberrechtsreform. Das Paper konzentriert sich auf den technischen Aspekt, gibt aber kein Versuchsbeispiel. Die Ausarbeitung ist primär für Studenten im Bereich der Informatik verfasst.

1. Einleitung

Durch die stetige Weiterentwicklung des World Wide Web hat sich die Art des Content-Konsums verändert. Um ein möglichst weitrechendes Publikum zu erreichen, stellen viele Künstler ihre Werke kostenlos zur Verfügung. Die verfügbaren Werke werden von einigen Nutzern rechtswidrig verwendet. Bislang lag die Verantwortung, sich gegen solche Verstöße zu wehren, bei den Urhebern selbst. Aus diesem Grund sah sich das Europaparlament gezwungen zu handeln.

2. Urheberrechtsreform

Der Ursprung des Urheberrechts lässt sich in Form von Druckprivilegien bis ins 15. Jahrhundert zurückverfolgen. Im 18. Jahrhundert wurden in Frankreich und England die ersten Urheberrechtsgesetze niedergeschrieben. Das in Deutschland heute gültige Gesetz über Urheberrecht und verwandte Schutzrechte (UrhG) wurde am 9. September 1965 erstmals erlassen [FAZ12].

In ihren Grundzügen hat sich die Rechtsprechung seitdem nicht mehr geändert. Das Gesetz definiert die verschiedenen Rechte eines Urhebers und welche Voraussetzungen eine geistige Schöpfung erfüllen muss, um geschützt zu werden. Dabei zählt gemäß § 7 UrhG jede natürliche Person, die Schöpfer ihres jeweiligen Werks ist, als Urheber. Ein besonderer Schwerpunkt der Reform ist es, ein hohes Maß an Schutz für Rechteinhaber im digitalen Raum zu garantieren und die „Klärung von Rechten“ zu erleichtern.  Primär soll die Verantwortung für die rechtmäßige Verwendung urheber-rechtlich geschützter Inhalte fortan bei den Online-Dienstanbietern liegen. Zugleich soll die Reform zukunftstauglich sein, damit der technische Fortschritt nicht behindert wird.
Ins Augenmerk der Öffentlichkeit geriet die Reform jedoch nicht im Sinne der Vereinfachung der Urheberrechte im Internet sondern als potenzielle Einschränkung der Meinungsfreiheit aufgrund des Einsatzes von „Upload-Filtern“. Besonders brisant dabei ist Artikel 17 (ehemals Artikel 13) der EU-Richtlinie 2019/790. Axel Voss, Mitglied des Europäischen Parlaments und zuständiger Berichterstatter für Upload-Filter, äußerte sich zu den Besorgnissen, dass künftig jeder Upload durch einen Filter geprüft werden müsse, wie folgt:

 „Eine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern lehnen wir als unverhältnismäßig ab.“[Lo19]

„Wenn also Lizenzen vorliegen, müssen große Plattformen „nur“ verhindern, dass solche Werke nicht hochgeladen werden, für welche die Rechteinhaber konkret mitgeteilt haben, dass sie nicht auf den Webseiten erscheinen sollen. Dies bedeutet, dass z.B. Identifizierungssoftware nur auf die Daten reagieren müsste, welche die Rechteinhaber vorher den Plattformen zur Verfügung gestellt haben.“[Vo19]

Axel Voss nutzt in diesem Zusammenhang einige homonyme Begriffe. Zur Schaffung einer gemeinsamen Basis werden nun die Kernbegriffe definiert. Der Begriff „Plattform“ bezeichnet in der Informatik grundsätzlich alle Schichten, auf denen Anwendungspro-gramme ausgeführt oder entwickelt werden [Fl19].

Im Kontext bezieht sich Voss aber nur auf Webseiten als Plattformen, besonders auf jene, die dem Austausch und der Kommunikation dienen (unter anderem YouTube, Twitter, Facebook). Des Weiteren betont er, es seien „große Plattformen“, die mit Rechteinhabern kooperieren müssten. Eine genauere Definition befindet sich dazu in der EU-Direktive unter Artikel 17 Absatz 6 [Sv19].
Es handelt sich demzufolge um Dienstanbieter, deren Jahresumsatz zehn Millionen EUR bzw. deren durchschnittliche monatliche Besucherzahl fünf Millionen überschreitet. Zudem werden in Artikel 2 Absatz 1 alle Forschungsorganisationen, welche nicht gewinnorientiert operieren oder alle Gewinne in die Forschung reinvestieren, ausgeschlossen.

Der Begriff des Upload-Filters existiert noch nicht lange und ist dementsprechend kaum fachliterarisch definiert. Till Junker, Bachelor of Arts in Politikwissenschaft und Geschichte absolvierte seine Bachelorarbeit an der Universität Greifswald und definiert darin den Upload-Filter als einen Algorithmus, der von Nutzern generierte Inhalte (user-generated content) in einem Zwischenspeicher (Cache) des jeweiligen Dienstleisters ablegt und diese erst nach einer Untersuchung auf Urheberrechtsverstöße freigibt [Ju19].
Im Gesetzestext wird der Upload-Filter nicht erwähnt. Die EU-Direktive definiert keinerlei Vorgaben hinsichtlich der Umsetzung. Bei dem Vergleich von Axel Voss Aussage mit der obigen Definition eines Upload-Filters ist eine entscheidende Gemeinsamkeit zu erkennen.
In beiden Fällen ist von einer eigenständigen Identifizierungssoftware die Rede, die auf Inhalte, über deren Rechte die Plattform nicht verfügt, reagiert und sie blockiert. Somit besteht ein Widerspruch zu Herrn Voss erster Behauptung, nach der eine Verpflichtung zum Einsatz von Upload-Filtern nicht erforderlich sei. Die praktische Umsetzung der Urheberrechtsreform ist ohne Upload-Filter nicht möglich. YouTube gibt an, dass mehr als 400 Stunden Videomaterial pro Minute auf der Plattform hochgeladen würden [An17].

Eine menschliche Überprüfung ist damit unter Erfüllung der Wirtschaftlichkeit nicht möglich. Eine Automation ist die einzige Möglichkeit für Dienstanbieter, die geforderte Überprüfung durchzuführen. Die Einführung eines allgemeinen Upload-Filters wurde bereits 2012 von dem Gerichthof der Europäischen Union als unzulässig erklärt. Das Urteil wurde aufgrund einer Klage der belgischen Verwaltungsgesellschaft SABAM gegen den Pattform-Betreiber Netlog gefällt. Laut dem Europäischen Gerichtshof verstößt ein solcher Filter gegen die Informationsfreiheit sowie gegen das Verbot einer allgemeinen Überwachungspflicht [Os12].

3. Technische Umsetzung

Die maschinelle Bildanalyse gehört zu den komplexesten Themen in der modernen Informationswissenschaft und erforscht verschiedene Ansätze zur Muster- und Bildidentifikation. Das Themengebiet wird oft als Computervision oder maschinelles Sehen bezeichnet und reicht von einfachen Hash-Verfahren zur Erkennung von Bildkopien oder einfachen, vordefinierten Objekten in einer großen Datenbank von Bildern bis hin zu komplexen, selbstlernenden Systemen, welche mithilfe von Deep-Learning-Verfahren selbstständig Muster extrahieren können.
Da im Zusammenhang mit Upload-Filtern die Wiedererkennung urheberrechtlich geschützten Materials im Mittelpunkt steht, wird nun detaillierter auf die Bilderkennung mittels virtueller Fingerprints eingegangen. Herkömmliche Hashing-Algorithmen wie MD5 oder das SHA-1 funktionieren für das Anwendungsfeld der Bilderkennung nicht, da sie zu sensibel auf Bildmodifizierungen reagieren.
So berechnen diese Verfahren selbst bei kleinsten Änderungen in der Bitfolge der Bilddatei vollkommen unterschiedliche Hash-Werte. Deshalb wurden spezielle Hash-Verfahren für das Image Hashing entwickelt. Bekannte Algorithmen sind zum Beispiel Block Hashing und der “Perceptual Hash“-Algorithmus (pHash), der auf der diskreten Kosinustransformation basiert [Bl18].

3.1 Difference Hashing

Um zu verstehen, wie ein solcher Fingerprint (Hash-Wert) eines Bildes berechnet wird, wird im Folgenden der “Difference Hash“-Algorithmus (dHash) im Detail betrachtet [Ro17]. Der Algorithmus lässt sich in vier Schritte zergliedern. Zuerst wird das Original-bild in ein Graustufenbild konvertiert. Der Hintergedanke dieses Schritts ist, dass man nur noch einen Farbkanal, und zwar den Graukanal, untersuchen muss. Hierdurch wird Rechenleistung und Zeit gespart. Außerdem ist es durch diesen Schritt möglich, Bilder zu vergleichen, die dasselbe Motiv darstellen und sich nur hinsichtlich der Farbgebung unterscheiden.
Im zweiten Schritt wird das Bild auf eine Größe von 9 x 8 Pixeln gestaucht. Dabei wird das Format ignoriert. In den meisten Fällen erfordern diese beiden Schritte am meisten Zeit und Rechenleistung. Im dritten Schritt wird der Hash-Wert berechnet. Hierfür werden benachbarte Pixel hinsichtlich ihrer Gradienten miteinander verglichen. Zur Vereinfachung wird nur getestet, ob d linke Pixel heller ist als das rechte. Wenn dies der Fall ist, wird eine „1“ in das Ergebnis geschrieben, andernfalls eine „0“.

<source> if(P[x] > P[x+1]) then 1 else 0</source>

Da das Bild auf 9 horizontale Pixel verkleinert wurde, erhält man pro Zeile acht Vergleichswerte. Aufsummiert über die acht Zeilen des Bildes erhält man 64 Binärzeichen. Diese lassen sich wahlweise als Bitmap visuell darstellen oder als 64-Bit-langer Integer-Wert in einer Datenbank abspeichern.

1111000000110000101110001100111010000110010011001000111010001110

Den erhaltenen Hash-Wert bezeichnet man als Fingerprint oder Signatur des Bildes. Fingerprints lassen sich zur Identifikation beziehungsweise zum Vergleichen von Bildern verwenden. Difference Hashing ist sehr performant im Vergleich zu anderen Image-Hashing-Verfahren. Außerdem lassen sich auch Bilder miteinander vergleichen, die sich nur hinsichtlich der Größenverhältnisse oder der Farbgebung unterscheiden – Eigenschaften, die den Hashwert nur geringfügig verändern.

Auch wenn der Fingerprint durch verschiedene Formateigenschaften nur geringfügig verändert wird, muss eine gewisse Fehlertoleranz berücksichtigt werden, um sicherzustellen, dass ähnliche Kopien erkannt werden können. Ein möglicher Ansatz ist die Berechnung der Hamming Distance der untersuchten Hash-Werte. Dieser Wert gibt an, um wie viele Bits sich die Hashes unter-scheiden. Dr. Neal Krawetz von HackerFactor empfiehlt dabei einen Toleranzbereich von 1 bis 10. Dies bedeutet, dass es sich bei Bildern, deren Hash-Werte um bis zu 10 Bits unterschiedlich sind, höchstwahrscheinlich um Kopien mit leichten Formatvariationen handelt [Ro17].

3.2 Average Hashing

Ein weiteres, mit dem Difference Hashing verwandtes Verfahren ist das Average Hashing. Auch hier wird das Originalbild verkleinert, jedoch auf eine Größe von 8x8 Bildpunkten. Das hier dargestellte Bild besitzt eine Auflösung von 500x400 Pixeln. Um dieses Bild auf eine Größe von 8x8 Pixeln zu stauchen, wird das Bild in Blöcke mit einer Größe von 500/8x400/8=62.5x50 Pixeln unterteilt. Diese Blöcke ergeben das gestauchte Bild.

Abbildung 1 - Originalbild

Abbildung 1 - gestauchtes Bild (8x8)

Anschließend wird das Bild farblich auf seine Graustufen reduziert, um die Effizienz des Algorithmus zu erhöhen.  Im nächsten Schritt unterscheidet sich das Verfahren zum Difference Hashing. Zunächst wird der Mittelwert über die RGB-Werte der 64 Pixel des Bildes ermittelt. Anschließend wird aus dem 8x8-Graustufenbild eine 8x8-Matrix erstellt, indem man den RGB-Wert jedes einzelnen Pixels mit dem erhaltenen Mittelwert vergleicht. Ist der Wert größer als der Mittelwert, wird eine „1“ an die jeweilige Stelle der Matrix geschrieben, ansonsten eine „0“. Die Konstruktion des Hash-Werts oder Finger-prints passiert nun nach demselben Prinzip wie beim Difference Hashing. Die Werte aus der Matrix werden aneinandergereiht und ergeben die binäre Repräsentation des Integer-Werts des Fingerprints [Ro17].

3.3 Fingerprintverfahren

Die Fingerprintverfahren stellen die Grundlage vieler heutiger Integritätsprüfungsalgorithmen dar, unter anderem für die PhotoDNA-Technologie. Microsoft bietet PhotoDNA als Azure Service auch für kleine Unternehmen und Organisationen an. Dadurch können auch kleine und mittelständische Unternehmen den Content ihrer Kunden auf Integrität prüfen, ohne teure Eigenlösungen entwickeln zu müssen.
PhotoDNA wurde von Microsoft in Kooperation mit der Universität Dartmouth entwickelt, um Fotos anhand eines robusten Fingerabdrucks zu identifizieren. Diese Signatur ist gegenüber kleineren Bildveränderungen, wie Farbveränderungen oder Modifizierung der Größe, unempfindlich.

Die konkrete Berechnung des Fingerprints unterscheidet sich hierbei von der bereits beschriebenen Difference-Hashing-Variante. Zunächst wird das Originalbild wieder in ein Graustufenbild interpoliert und verkleinert. Nun wird es mittels Raster in viele Einzelbilder zerteilt. Für jedes dieser Einzelbilder wird der Gradient berechnet. Aus diesen Gradienten wird anschließend der Hash-Wert des Bildes erstellt. PhotoDNA kann nicht nur urheberrechtlich geschütztes Material erkennen und Kopien aufspüren, sondern auch Muster erkennen. Hierfür werden Algorithmen aus dem Gebiet des Machine Learning angewandt. Diese Technik wird hauptsächlich zur Identifizierung von illegalen, expliziten Inhalten wie Kinderpornografie oder Missbrauch eingesetzt.

PhotoDNA hat seit seiner Einführung nachweislich zur Bekämpfung dieser Inhalte beigetragen. So schätzt Cecelia Gregson, Rechtsanwältin der Washington Internet Crimes Against Children Task Force, dass es sich aktuell bei etwa 90% der untersuchten Fälle um CyberTipline-Berichte handelt, die von Unternehmen erstellt wurden, die PhotoDNA nutzen [La18]. Microsoft hat kürzlich die neue Lösung „PhotoDNA for Video“ veröffentlicht, über die auch Videos mithilfe der PhotoDNA-Technik überprüft werden können. Hierbei werden Videos in einzelne Bilder aufgeteilt. Die Key Frames werden nun mithilfe der bereits beschriebenen Fingerprintverfahren auf explizite Inhalte geprüft. Microsoft stellt PhotoDNA kostenlos über seine Website zur Verfügung [MS19].

Ein weiteres Verfahren zur Analyse von Videos auf urheberrechtliche Verstöße ist Content ID, welches von Google entwickelt wurde. Das „Content ID“-System wird seit 2007 genutzt und stetig weiterentwickelt [Go18].
Hierbei handelt es sich um ein skalierbares System zur automatisierten Identifizierung von geschütztem Bild- und Audiomaterial und dessen Schutz vor monetärer Ausbeutung. Es ist sogar möglich, Musikstücke nur anhand der Melodie und unabhängig vom verwendeten Instrument zu identifizieren. Rechteinhaber haben durch diese Technologie die Möglichkeit, YouTube-Inhalte, die ihre geschützten Werke verwenden, zu verfolgen, zu monetarisieren oder gar komplett sperren zu lassen. Falls ein zur Nutzung von Content ID berechtigter Partner monetären Anspruch auf ein Video mit seinen rechtlich geschützten Inhalten erhebt, kann dort Werbung geschaltet werden, deren Erträge dem Rechteinhaber zufließen.
Damit ein Urheberrechtsinhaber Zugriff auf die Nutzung von Content ID erhält, müssen bestimmte Kriterien erfüllt sein. Urheberrechtsinhaber müssen Nachweise für die urheberrechtlich geschützten Inhalte erbringen, an denen sie die Exklusivrechte besitzen. Außerdem müssen die Nutzer ausreichend Referenzmaterial zur Verfügung stellen, damit die Fingerprints generiert werden können, die zur Identifikation der geschützten Inhalte benötigt werden. Falls ein Nutzer für die Verwendung von Content ID zugelassen wird, muss abschließend einer Vereinbarung zugestimmt werden, in der festgehalten wird, dass nur Inhalte als Referenz genutzt werden dürfen, an denen der Nutzer Exklusivrechte hat. Zusätzlich muss angegeben werden, in welchen Ländern diese Eigentumsrechte gelten [Go19].

Die technische Funktionsweise von Content ID ähnelt der PhotoDNA-Technologie von Microsoft und basiert auf Fingerprint Matching. Auch hier werden mittels Hash-Verfahren Fingerprints von rechtlich geschützten Bild-, Video- und Audiodateien generiert, die als Vergleichswert in einer Datenbank persistent gespeichert werden. Das System arbeitet vollständig automatisiert. Das bedeutet, dass während des Upload–Prozesses eines neuen Videos automatisch Fingerprints der Video- und Audioinhalte generiert werden und mit den Fingerprints der geschützten Inhalte aus der Datenbank verglichen werden. Sollte es währenddessen zu einem Match kommen, reagiert das System, wie oben beschrieben, je nach Angaben des Content ID-Partners mit den entsprechenden Urheberrechten.
Damit die Nutzer unabhängig vom automatisierten Content-ID-System mehr Kontrolle über den Schutz ihrer Inhalte haben, entwickelte YouTube außerdem das Copyright Match Tool [Go20].

Bei dieser Software handelt es ich um ein manuelles Tool für Mitglieder des YouTube-Partnerprogramms. Die grundlegende Technologie zur Bild- und Audioerkennung inklusive der Referenzdatensätze werden von Content ID übernommen. Der Unterschied besteht darin, dass der User über das neue YouTube Studio manuell nach Urheberrechtsverletzungen suchen kann. Dabei ist zu beachten, dass das Copyright Match Tool ausschließlich Inhalte durchsucht, die nach dem Upload-Datum des zu schützenden Videos erschienen sind. Deshalb eignet sich dieses Tool vor allem für weniger bekannte bzw. nichtprofessionelle Künstler und YouTuber, die Erstveröffentlichungen ihrer Werke über YouTube publizieren.
Für die nachträgliche Kontrolle von urheberrechtlich geschützten Musikproduktionen, die bereits mehrere Jahre auf dem Markt existieren, ist dieses Tool ungeeignet. Für diese Aufgabe muss weiterhin auf das Content-ID-System vertraut werden. Das Prinzip des Fingerprint Matching wird ebenfalls bei der softwaregestützten Identifizierung von Musik- und Soundressourcen genutzt, seit einigen Jahren sogar zur Stimmerkennung. Da die Analyse und das Vergleichen von vollständigen Audiospuren über den gesamten Frequenzbereich zu aufwendig und ungenau sind, haben Unternehmen wie Shazam oder Philips in den frühen Zweitausender Jahren Methoden entwickelt, um effizientere und robustere Resultate zu erzielen.

Im Folgenden werden diese Verfahren näher beleuchtet. Jedes der folgenden Beispiele basiert auf der visuellen Darstellung der Audiofrequenzen mittels Spektrogramms. Mithilfe von mathematischen Verfahren wie der Fourier-Transformation kann man die sich überlagernden Frequenzen, aus denen ein Ton besteht, extrahieren. Resultat dieser Prozedur ist die Sammlung der Einzelfrequenzen eines Tons, die sich erheblich leichter und genauer weiterverarbeiten und untersuchen lassen. Mit dem entstehenden Frequenzbild lässt sich zwar anhand der Amplituden der ungefähre Rhythmus des Tons oder des Musikstücks erkennen, aber dies reicht nicht zur sicheren Identifizierung aus. Da viele Störfaktoren – wie Lautsprechergrundrauschen, Hintergrundgeräusche in der Aufnahme oder Tonspurverzerrungen aufgrund von Nachbearbeitung – Einfluss auf dieses Frequenzbild haben, musste man Wege finden, um die charakteristischen Elemente in diesem Frequenzgemisch zu identifizieren. Shazam lieferte einen der ersten Ansätze für dieses Problem.
Apple entwickelte hierfür einen Algorithmus, der die stärksten Ausschläge im Spektrogramm-Bild identifizieren kann. Dabei ist auffällig, dass vor allem die Frequenzen im hohen Frequenzbereich ausschlaggebend sind, da diese nicht so leicht durch kontinuierliche Störgeräusche, wie Lautsprechergrundrauschen, überdeckt werden. Nachdem die charakteristischen Frequenzausschläge im Spektrogramm identifiziert wurden, verbindet man diese Stellen, wodurch ein Netz entsteht. Dieses Netz fungiert nun als akustischer Fingerabdruck der Audioressource.
Der Fingerabdruck enthält weit weniger Informationen als das gesamte Spektrogramm und benötigt daher weniger Speicherkapazität.

Abbildung 2 – Spektrogramm Shazam Fingerprint [Sj18a]

Ein weiterer Vorteil dieser Lösung ist, dass der Fingerprint sehr robust gegen Hintergrundgeräusche und Verzerrungen ist, da diese die stärksten Spitzen im Frequenzbild meist nicht beeinflussen. Ein Nachteil dieser Methode sind die relativ häufig auftretenden Mismatches beim Audio Matching. Es handelt sich um ein vergleichsweise grobes Ver-fahren, dass nur wenige Bereiche der gesamten Tonspur berücksichtigt. Ungefähr zur selben Zeit untersuchte Philips einen anderen Ansatz.

Das Unternehmen entwickelte einen Algorithmus, der darauf abzielt, das gesamte Spektrogramm der Audioressource so stark wie möglich zu komprimieren und die Frequenzänderungen während kleinster Zeitintervalle in einem Hash-Wert zu sammeln. Da sich dieses Verfahren auf das gesamte Spektrum der Audioressource bezieht, ist es weniger anfällig gegen Mismatches und punktuelle laute Störgeräusche, dafür jedoch schlechter im Umgang mit monotonem Hintergrundrauschen. Eine weitere Variante, entwickelt durch Intrasonics, versucht die Nachteile beider Vorgängerstrategien zu umgehen.
Dabei wird die Spektrogrammanalyse mit Ansätzen aus dem Machine Learning kombiniert. Anstatt wie bei Shazam zu untersuchen, welche Teile des Spektrogramms am stärksten Herausstechen, versucht man hier dem Algorithmus beizubringen, welche Merkmale des Spektrogramms am besten geeignet sind, um die Soundspur zu identifizieren.
Um diese Merkmale herauszufinden, durchläuft der Algorithmus eine Trainingsphase, in der das Spektrogramm mit bis zu 10 000 verschiedenen Frequenzen gefiltert wird. Die Resultate werden automatisch ge-sammelt und ausgewertet. Dadurch erhält man nach dieser Trainingsphase die optimale Filterzusammensetzung für die untersuchte Tonspur. Der Vorteil dieser Methodik besteht darin, dass das System nicht wie bei Shazam von den aus unserer Sicht charakteristischen Merkmalen des Spektrogramms sondern von den maschinell bestimmten Merk-malen abhängt. Darüber hinaus kann man durch Hinzufügen von Rauschen zu den Trainingsdaten das System so trainieren, dass ähnliches Rauschen in Zukunft ignoriert wird. Man kann dem Algorithmus also beibringen, mit bestimmen Störgeräuschen umzugehen [Sj18b].

4. Fazit

Die Urheberrechtsreform löste europaweit Proteste und Empörung aus. Kritiker sprechen im Zusammenhang mit Artikel 13 bzw. 17 von Zensur des Internets und Einschränkung der Presse- und Meinungsfreiheit. So schrieb unter anderem Tim Berners-Lee, Begründer des World Wide Web, in einer E-Mail an das Europaparlament Folgendes:

 „Article 13 takes an unprecedented step towards the transformation of the Internet from an open platform for sharing and in-novation, into a tool for the automated surveillance and control of its users.” [Be18]

Die Entwicklung neuer Filtertechniken ist sehr kostspielig. So hat unter anderem die Entwicklung des Content-ID-Systems der Google-Tochter YouTube 60 Millionen Euro gekostet [Kr18b].
Da diese Entwicklungskosten für mittelständische Unternehmen nicht tragbar sind, besteht die Sorge der Monopolbildung und es existieren Sicherheitsbedenken vonseiten der europäischen Nutzer in Bezug auf Nutzerverhaltensdaten [Re19].

Ein weiterer wichtiger Punkt ist, dass die heutigen Verfahren keine Möglichkeit zur Erkennung von „Fair Use“, Parodien oder Satire bieten. Die Benutzung urheberrechtsgeschützten Materials ist zur Verwendung in diesen Fällen jedoch laut Abschnitt 4 Unterabschnitt 3 §24 des Urheberrechtsgesetzes erlaubt. Werke aus diesen Bereichen würden fälschlicherweise gesperrt werden, da eine algorithmische Unterscheidung nach Kontext derzeit nicht möglich ist.
Satire befasst sich häufig mit kritischen Inhalten, um beispielsweise auf Missstände aufmerksam zu machen. Eine fälschliche Sperrung durch Upload-Filter ähnelt einer Zensur [Kl19]. Zu solchen fälschlichen Sperrungen kam es bereits bei aktuell angewendeten Systemen. So sperrte zum Beispiel Content ID die hochgeladene Vorlesung von Prof. William Fisher der Harvard University. In seiner Vorlesung verwendete er Musikausschnitte, unter anderem von Jimi Hendrix, in einer Länge 15 bis 40 Sekunden. Content ID sperrte das Video aufgrund des Verstoßes gegen die Urheberrechte von SME [Er16].
Im Kontext werden die Ausschnitte zur öffentlichen Bildung verwendet, was im Urheberrecht ausdrücklich von den Regulierungen ausgenommen ist. Gleichermaßen wurde ein Video gesperrt, das aus einer einstündigen Dauerschleife einer Aufnahme von Katzenschnurren besteht, da das System irrtümlicherweise eine Übereinstimmung mit einem geschützten Werk von EMI Music Publishing meldete [Er15].

Der Gesetzestext verpflichtet große Unternehmen, darauf zu achten, dass kein urheberrechtsverletzendes Material auf ihren Plattformen angeboten wird. Bei Missachtung des Gesetzes drohen Plattformbetreibern hohe Strafen. Aufgrund der strengen Haftungsregelung und der hohen Kosten, die dadurch entstehen, besteht für die Unternehmen ein großes Interesse an einem sehr empfindlich konfigurierten Filter.
Da des Weiteren keine zu hundert Prozent akkurate Filterung möglich ist, kommt es zu Overblocking. Bei Overblocking werden vorsichtshalber mehr Inhalte gesperrt als nötig.

Der CEO von Twitch, Emmett Shear, äußerte sich in einem Interview im März 2019 zu der Urheberrechtsreform. Er sagte, Twitch stehe in der Pflicht, dafür zu sorgen, dass keine urheberrechtsverletzenden Inhalte auf der Plattform in Europa verfügbar seien. Um das zu erreichen, werde ein automatisiertes Filtersystem implementiert. Shear betont im Zusammenhang mit dem erwähnten Filtersystem ebenfalls, dass der Sachverhalt Fair Use oder Ähnlichem nicht erkannt und berücksichtigt werden könne.
Des Weiteren geht er auf die Folgen der Urheberrechtsreform für Twitch und die Plattformnutzer ein. Eine der Konsequenzen bestehe darin, dass europäische Nutzer strikt aus nichteuropäischen Streams herausgefiltert werden müssten. Der gesamt sichtbare Content für Europäer beschränke sich auf Content aus Europa [Sh19].

Nach der Analyse der derzeit angewendeten Technologien zur Erkennung von rechtlich geschütztem Material, insbesondere PhotoDNA, Content ID und Audio Hashing, ist festzustellen, dass eine technische Filterlösung nicht fehlerfrei umsetzbar ist. Im Rahmen der Ausarbeitung ist der Einsatz von Künstlicher Intelligenz nicht betrachtet worden. Dr. rer. nat. Philip Häusser begegnet dem Einsatz von Künstlicher Intelligenz (KI) und neuronalen Netzen zur Erkennung von Urheberrechtsverletzungen mit Skepsis.
In einem Interview antwortet er auf die Frage, was KI im Zusammenhang mit Upload-Filtern leisten könne, dass KI bereits leicht abgeändertes Material erkennen könne. In einem Beispiel beschreibt er den Vergleich zweier ähnlicher Sätze, die KI bereits identifizieren könne.
Er betont jedoch auch, dass aktuelle KI-Technologien nicht in der Lage sind, eine zuverlässige Prüfung dahingehend zu erbringen, ob ein Inhalt gegen das Urheberrecht verstößt oder tatsächlich ein neues Werk geschaffen wurde [Be19].

Die zugrundeliegenden Forschungsergebnisse belegen, dass eine manuelle, händische Überprüfung potentiell urheberrechtsverletzender Inhalte aufgrund des zu großen Volumens nicht realisierbar ist und dass es nach aktuellem Stand der Technik der neuronalen Netze, Künstlichen Intelligenz und modernen Algorithmik nicht möglich ist, eine fehlerfreie Erkennung urheberrechtsverletzender Inhalte zu implementieren. Der verabschiedeten EU-Urheberrechtsreform kann somit nicht vollumfänglich und fehlerfrei entsprochen werden. Bis eine fehlerfreie Umsetzungsmöglichkeit gefunden wurde ist somit von der Realisierung der Reform abzuraten.

Quellen

  • [Be19] Jacob Beautemps: Upload-Filter – Ist Künstliche Intelligenz die Lösung? | Upload Filter mit VPN-Clients umgehen! www.youtube.com/watch, Stand: 09.12.2019
Abbildung 1 - Originalbild
Abbildung 1 - gestauchtes Bild (8x8)
Abbildung 2 – Spektrogramm Shazam Fingerprint [Sj18a]
 

Nach oben

Gesichtserkennung in Deutschland - Untersuchung einer Aussage Horst Seehofers

Symbolbild Gesichtserkennung

In dieser Arbeit untersuchen Studierende des dualen Studiengangs Angewandte Informatik (DAI), ob die Sicherheit an deutschen Bahnhöfen durch den Einsatz von Gesichtserkennung erhöht werden kann. Ergebnis ist, dass die Sicherheit nur minimal erhöht werden kann. Es wird leichter, Verbrechen aufzuklären und gesuchte Personen ausfindig zu machen, jedoch findet kaum Prävention statt. Für diese minimale Erhöhung der Sicherheit wird der mit der Einführung solcher Systeme verbundene finanzielle Aufwand wesentlich zu hoch eingeschätzt, sodass die Aussage Horst Seehofers, ein Einsatz solcher Systeme auf dem aktuellen Stand der Technik sei sinnvoll, anzuzweifeln ist.

1. Einleitung

Vom 01. August 2017 bis zum 31. Juli 2018 lief am Bahnhof Berlin Südkreuz ein Pilotprojekt mit dem Namen „Sicherheitsbahnhof“ des Bundesministeriums des Innern, für Bau und Heimat in Zusammenarbeit mit dem Bundespolizeipräsidium, dem Bundeskriminalamt und der Deutsche Bahn AG.
In Teil 1 dieses Projektes, „Biometrische Gesichtserkennung“, sollte „der Nutzen von biometrischer Gesichtserkennungstechnik für polizeiliche Zwecke erprobt werden.“ [Bp18, S.9]

Zum Abschluss des Projektes sagte Bundesminister des Innern, für Bau und Heimat Horst Seehofer (CSU) in einer Pressemittelung am 11. Oktober 2018: „Die Ergebnisse zeigen, dass die Technik zur Gesichtserkennung unsere Polizistinnen und Polizisten im Alltag erheblich unterstützen kann. Die Systeme haben sich in beeindruckender Weise bewährt, so dass breite Einführung möglich ist. Wir können damit in bestimmten Bereichen die Polizeiarbeit noch effizienter und effektiver gestalten und damit die Sicherheit für Bürgerinnen und Bürger verbessern.“ [Pr18]
In diesem Paper sollen die Wahrhaftigkeit und Sinnhaftigkeit dieser populistischen Aussage untersucht werden. Die Untersuchung bezieht sich dabei auf die folgende These: „Die aktuell in Deutschland an öffentlichen Orten eingesetzten Gesichtserkennungssysteme bringen keine Verbesserung der Sicherheit“.

Zur Untersuchung der These werden zunächst die notwendigen Begriffe eingeführt und aktuelle Standards der Gesichtserkennung beschrieben. Dabei liegt der Fokus darauf, welche Technologien bei dem Pilotprojekt verwendet wurden, auf das Horst Seehofer sich bezieht. Auf dieser Grundlage wird dann die These diskutiert, wobei die Diskussion sich sowohl auf den subjektiven als auch den objektiven Sicherheitsbegriff beziehen wird, die in Kapitel 2 eingeführt werden. Auch die Abschätzung von Nutzen und Aufwand sowie Erfahrungen aus anderen Ländern, in denen Gesichtserkennung bereits großflächig genutzt wird, werden betrachtet. Zuletzt folgt die Evaluierung des Ergebnisses.

2. Grundlagen

2.1 State of the art: Gesichtserkennung

Generell gibt es zwei verschiedene Auffassungen des Begriffs „Gesichtserkennung“. Die eine bezieht sich auf die Erkennung des Vorhandenseins eines Gesichts, während die andere die Identifikation von Personen anhand ihres Gesichtes meint. Das Bundesministerium für Sicherheit im Internet (BSI) definiert den Begriff „biometrische Gesichtserkennung“ entsprechend der Identifikation wie folgt: „Bei der biometrischen Gesichtserkennung wird über eine Kamera das Gesicht einer Person aufgenommen und mit einem oder mehreren zuvor gespeicherten Gesichtsbildern verglichen.
Dabei wird zunächst das Bild zum Beispiel in einem PC digitalisiert. Die Erkennungssoftware lokalisiert sodann das Gesicht und berechnet seine charakteristischen Eigenschaften. Das Ergebnis dieser Berechnung, das sogenannte Template, wird mit den Templates der gespeicherten Gesichtsbilder verglichen. Dies gilt nur dann nicht, wenn als Referenzbild das Originalbild verwendet wird, das für den Erkennungsvorgang gegen ein aktuelles Originalbild verglichen wird.“ [Ge19]

Für die Zuordnung eines erkannten Gesichts zu einer gesuchten Person muss also ein Referenzbild der gesuchten Person vorhanden sein, aus dem ein Template generiert wird. Der Definition ist zu entnehmen, dass als Hardware lediglich eine Kamera mit ausreichender Auflösung sowie ein Computer zur Bilddigitalisierung und zur Ausführung der Software benötigt werden.
Die Studie der Bundespolizei, auf die Horst Seehofer sich in der Pressemitteilung bezieht, verwendete Kameras des Typs „AXIS M1125“. Für die Hardware gibt es zwei Ansätze, einer aufbauend auf einer klassischen, CPU-basierten Rechnerarchitektur, der andere auf einer GPU-basierten Rechnerarchitektur. Letztere erlaubt dabei eine parallele und damit grundsätzlich schnellere Verarbeitung. [Bp18, S.16-17]

Weiterhin beschreibt das BSI mehrere Ansätze der Gesichtserkennung, die jedoch alle gewisse Schlüsselelemente nutzen. So würden die meisten Systeme bestimme, charakteristische Merkmale der Gesichter anhand digitalisierter Bilder erkennen. Dabei wären vor allem diejenigen Gesichtsmerkmale interessant, die sich seltener durch die Mimik ändern. Diese umfassen beispielsweise „die obere[n] Kanten der Augenhöhlen, die Gebiete um die Wangenknochen und die Seitenpartien des Mundes.“ Meistens würden dafür klassische Verfahren der Bildverarbeitung und -Analyse genutzt. In diesen würden zunächst die Augen im Gesicht lokalisiert, und dann lege die Software ein Gitternetz über das Gesicht, anhand dessen die Merkmale erkannt werden. [Ge19]

Andere Gesichtserkennungssysteme nutzen inzwischen auch selbstlernende Algorithmen.  In dem Pilotprojekt wurden drei verschiedene Erkennungssysteme getestet, BioSurveillance des Unternehmens Herta Security, Morpho Viode Investigator (MVI) des Unternehmens IDEMIA sowie Anyvision des Unternehmens Anyvision. Alle drei Systeme nutzen dabei neuronale Netze statt klassischer geometrischer Erkennungsverfahren. BioSurveillance und Anyvision arbeiten auf einer auf GPU basierenden Architektur. [Bp18, S.17]
Die Erkennungsrate aller eingesetzten Systeme hängt stark vom Winkel zu den zu erkennenden Gesichtern ab. Am effektivsten sind sie bei einem Erfassungswinkel von unter 15° (horizontal und vertikal) zum Gesicht. [Bp18, S.31] Die bei diesem Pilotprojekt eingesetzten Systeme lieferten in verschiedenen Testdurchläufen unterschiedliche Ergebnisse: Im ersten Durchlauf lag die Trefferrate, die Wahrscheinlichkeit, eine gesuchte Person richtig zu erkennen, zwischen 76,7% und 94,4%, während die Fehlerrate, die Wahrscheinlichkeit, eine nicht gesuchte Person falsch als gesuchte Person zu identifizieren, bei 0,67% lag. Im zweiten Durchlauf lag die Trefferrate zwischen 80% und 98,1% und die Fehlerrate bei 0,34%.
Eine UND-Verknüpfung zweier Systeme könnte die Fehlerrate auf 0,00018% senken, reduziere dabei aber auch die Trefferrate auf etwa 68,1%. [Bp18, S.35] Die Systeme sind nach aktuellem Stand „als Unterstützungsinstrumente für die polizeiliche Arbeit zu qualifizieren“ und sollen lediglich Alarm schlagen, eine Entscheidung über einen Einsatz soll weiterhin durch Polizeibeamte gefällt werden. [Bp18, S.37]

2.2 Öffentlicher Ort

Der Begriff des öffentlichen Ortes soll hier als Ort im öffentlichen Raum verstanden werden. Laut Roman Pernack wird „im Allgemeinen […] angenommen, dass der öffentliche Raum ein freier urbaner Raum sei, in welchem sich alle Individuen frei und nach ihren Bedürfnissen bewegen können.“ [Pe05, S.12]
Der öffentliche Raum wird demnach von den öffentlichen Orten in ihrer Gesamtmenge gebildet. Auch öffentliche Plätze in Privatbesitz, wie Bahnhöfe oder Flugplätze, gehören der Definition nach zum öffentlichen Raum und gelten demnach als öffentliche Plätze.

2.3 Sicherheit

Da der Begriff der Sicherheit oft in unterschiedlichen Kontexten verwendet wird, ist es notwendig, den Ausdruck Sicherheit im juristischen beziehungsweise verwendeten Sinne zu definieren. „Die öffentliche Sicherheit meint die Unverletzlichkeit der objektiven Rechtsordnung, der subjektiven Rechte und Rechtsgüter des Einzelnen, wie insbesondere das Leben, körperliche Unversehrtheit und Freiheit, sowie der Einrichtungen und Veranstaltungen des Staates und sonstigen Träger der Hoheitsgewalt.“ [Ma14]

Bei der Videoüberwachung von öffentlichen Orten soll vor allem die öffentliche Sicherheit verbessert werden. Per Definition ist diese Sicherheit „gegeben bei einer stabilen Rechtsordnung, dem Schutz der Rechte der einzelnen Bürgerinnen und Bürger, aber auch der Funktionsfähigkeit des Staates und von öffentlichen Einrichtungen.“ [Fr16, S.3-9]
Weiterhin kann Sicherheit grundsätzlich auch als Sicherheitsempfinden der Bevölkerung aufgefasst werden. Dadurch ergibt sich eine Unterscheidung hinsichtlich objektiver Sicherheit, also die tatsächliche Abwesenheit von Gefährdungen der Rechtsordnung, und subjektiver Sicherheit als Abwesenheit von Furcht vor diesen Gefährdungen. [Sc10, S.717]

Als Verbesserung der Sicherheit bedeutet folglich, dass die genannten Kriterien der Definition öffentlicher Sicherheit verbessert werden, ohne andere deutlich einzuschränken. Dabei zählt sowohl eine Verbesserung der subjektiven als auch der objektiven Sicherheit als Verbesserung. Allgemein liegt ein besonderes Augenmerk in einem Rechtsstaat immer auf der Ausgewogenheit zwischen Freiheit und Sicherheit.

3. Analyse

3.1 Aufwand-Nutzen-Rechnung

Bei einer flächendeckenden Überwachung mittels Gesichtserkennung fließen mehrere Faktoren in die Gesamtkosten ein. Es müssen Kameras installiert und gewartet, Aufnahmen auf Datenträgern gespeichert und ausgewertet und eine Infrastruktur gewährleistet werden. Um Identitäten zuordnen zu können, muss vorerst ein Registrierungsprozess (Enrollment) erfolgt sein, bei dem die biometrischen Daten in der Datenbank hinterlegt werden [Ul17]. Für die entsprechenden Datenmengen müssen außerdem Server aufgestellt werden. An Orten an denen geeignete Kameras bereits zur Verfügung stehen, können Installationskosten eingespart werden.

Wenn man von einem Ausbau der Überwachung auf einen Großteil des deutschen öffentlichen Raums ausgeht, muss erstmal ästimiert werden wie viele Kameras aufgestellt/vernetzt werden müssen. Dies könnte ungefähr so aussehen:

Tabelle 1 – Kameras Bahnhöfe

 

Ort

Anzahl der Orte

Geschätzte Kameras pro Ort

Anzahl der Kameras

Beschaffungskosten [€] (360 Kamera)

Fernverkehrsknotenpunkte

21

70

1.470

529.200

Fernverkehrsbahnhöfe

85

50

4.250

1.530.000

Mittlere Bahnhöfe

239

40

9.560

3.441.600

Frequentierte Nahbahnhöfe

630

20

12.600

4.536.000

Kleine Nahbahnhöfe

1.000

10

10.000

3.600.000

Dünn besiedelte Gegenden

2.500

4

10.000

3.600.000

Landbahnhöfe

900

2

1.800

648.000

Gesamt

5.375

 

49.680

17.884.800

[Db18]

Tabelle 2 – Kameras Öffentlicher Raum

Überwachungsprojekt

Anzahl der Kameras

Beschaffungskosten [€] (360 Kamera)

Montagekosten [€] (100 Kamera)

Bahnhöfe

49.680

17.884.800

4.968.000

Straßen

6.444.800

2.320.128.000

644.480.000

Öffentliche Plätze

1.028.000

370.080.000

102.800.000

Gesamt

7.522.480

2.708.092.800

752.248.000

 

Hierbei wird davon ausgegangen, dass die insgesamt 644.380 Kilometer langen Straßen im Abstand von 100 Metern mit Kameras ausgestattet werden und die 2056 Städte und ihre öffentlichen Plätze mit durchschnittlich 500 Kameras pro Stadt überwacht werden. Für einen direkten Bezug auf das Überwachungsprojekt in Berlin wurde die AXIS M1125 als Vergleichspreis für diese Ästimation verwendet [Bp18, S.16].
Zu den Anschaffungs- und Montierungskosten müssen noch Schulung, Software Lizenzen, Zubehör, Wartung, Kabel und Rechenzentren addiert werden, die in dieser Abschätzung der Übersichtlichkeit halber nicht berücksichtigt wurden.

2018 wurden bereits circa 900 Bahnhöfe in Deutschland mit insgesamt 6.000 Kameras überwacht [Br18, S.2]. Nach Angaben der Bundesregierung beliefen sich zu diesem Zeitpunkt die durchschnittlichen Ausstattungskosten eines großen Bahnhofs bei 1,5 Millionen Euro und die eines mittelgroßen Bahnhofs bei 500.000 Euro [Br18, S.4].

Mit diesen Angaben wären durchschnittlich sechs bis sieben Kameras an jedem der 900 Bahnhöfe installiert. Wenn man davon ausgeht, dass auch noch kleinere Bahnhöfe ausgestattet wurden, kann man mit mindestens 25.000 Euro Ausstattungskosten pro Kamera rechnen. Dies würde dem Fünfzigfachen unserer angenommenen Anschaffungs- und Montagekosten entsprechen. Die Videoüberwachung von der hier gesprochen wird, verwendet allerdings noch keine Gesichtserkennung mittels Künstlicher Intelligenz, sondern wird zum Teil live durch die Bundespolizei verfolgt [Br18, S.2].

Dem Ministerium nach konnten durch die Überwachung der Bahnhöfe 2017 in Deutschland 1.943 Gesetzeswidrigkeiten aufgeklärt werden [Br18, S.5]. Insgesamt wurden im gleichen Jahr deutschlandweit 5,56 Millionen Straftaten erfasst und 3,2 Millionen aufgeklärt [Bm19, S. 12].
Somit wurden ca. 0,06 Prozent der aufgeklärten Fälle mittels Bahnhofüberwachung gelöst. Mit großflächigem Ausbau der Überwachung und Nutzung von Gesichtserkennung ließe sich dieser Prozentsatz eventuell noch etwas steigern, zumal es sich bei den 1.943 aufgeklärten Fällen nur um die Videoüberwachung an Bahnhöfen handelt.

Es sollte zusätzlich bedacht werden, dass die Überwachungsgebiete ausreichend beleuchtet sein müssen, um die Gesichtserkennung verlässlich anwenden zu können. Ansonsten entsteht zusätzlich der Aufwand Beleuchtung anbringen zu müssen. Der Erfassungswinkel von 15° sollte ebenfalls bei der Montur berücksichtigt werden. Die Kameras lassen sich also nicht überall sinnvoll montieren.

Eine größere Abdeckung des öffentlichen Raumes würde die Kriminalität vermutlich noch weiter in unüberwachte Gebiete umleiten, verhindert aber auch nicht zwingend weitere Delikte an überwachten Orten, wie es sich an Bahnhöfen bereits bewiesen hat. Die Kriminalität nimmt lediglich punktuell ab und an anderen Orten zu. Die subjektive Sicherheit würde zwar steigen, aber die Kriminalitätsrate nicht bedeutend verringern. Die automatische Gesichtserkennung könnte Kosten bei der Aufklärung einsparen, die sonst für mehr Personal aufgewandt hätten, werden müssen. Außerdem lassen sich mit größerem Überwachungsraum auch tendenziell mehr Straftaten beobachten und somit schneller aufklären.

3.2 Erfahrungen aus anderen Ländern

In diversen anderen Staaten wird oder wurde Mustererkennung und/oder öffentliche Videoüberwachung bereits eingesetzt. Aufgrund der auch durch die Europäische Union bedingten ähnlichen Gesetzgebung, sollen im Folgenden vorrangig europäische Länder betrachtet werden.

Durch langjährige und umfangreiche Erfahrung in der Thematik, lässt sich als gutes Beispiel Großbritannien anführen. Der Staat begann bereits 1985 in Bournemouth mit der ersten öffentlichen Videoüberwachung [Gr01, S.12].
Die Hauptstadt London wird allgemein auch als „CCTV-Hauptstadt“ bezeichnet, was bedingt durch die Kameradichte in Großbritannien von einer Kamera pro 50 Einwohner berechtigt erscheint. In diese Statistik einbezogen ist allerdings auch die Videoüberwachung in privater Hand, wie diese in Kaufhäusern üblich ist. [Gr01, S.12]
Bei 16% der im Jahr 1995 verkaufen Kameras (300.000) war die öffentliche Hand der Abnehmer (48.000). Die Installation von 28 Kameras, mit der eine Fläche von ca. 5 Quadratkilometern überwacht werden kann, kostete 400.000 Pfund. 2001 wurde in bereits 530 Stadtzentren ein Überwachungssystem installiert, für welches jährlich ca. 300 Millionen Pfund ausgegeben werden. Sollten die Aufnahmen nicht zur Strafverfolgung genutzt werden, erfolgt nach einem Monat eine automatische Löschung des Materials.
Man kann also festhalten, dass es für deutsche Politiker wichtig wäre, Erfahrungsberichte aus England in ihren Entscheidungen zu berücksichtigen. Ein Problem bei der Erfolgsbewertung ist die de facto fehlende Evaluation. Lediglich 0,02% der Gelder für Videoüberwachung werden tatsächlich für die Auswertung genutzt [Gr01, S.13], weshalb lediglich auf einige Erfolge bzw. Misserfolge eingegangen werden kann.

Vielen „unschuldigen“ Bürgern vermitteln Kameras ein Gefühl der erhöhten Sicherheit. Die Erhöhung dieser subjektiven Sicherheit wird in England im Gegensatz zu Deutschland ein sehr hoher Stellenwert beigemessen und ist bei Debatten / Entscheidungen ein nicht zu unterschätzender Faktor. [Gr01, S.14]
Man erwartet durch die gefühlte Sicherheitserhöhung bspw. vermehrt Kundschaft in den Innenstädten. Hier kann beispielhaft die Installation von Videoüberwachung in einem Londoner U-Bahnhof angeführt werden, an dem danach „mehr Fahrkarten [ver]kauft [wurden] und viele Fahrgäste [angaben], sich sicherer zu fühlen.“ [Gr01, S.13] Es sollte jedoch beachtet werden, dass dieses Beispiel lediglich ein Einzelfall sein kann. Trotzdem sollte die Erhöhung der subjektiven Sicherheit auch in Deutschland nicht unterschätzt werden.

Von einem allgemeingültigen Erfolg von Videoüberwachung, welche auch in England zur Verfolgung von gesuchten Straftätern genutzt wird [Gr01, S.14], kann nicht gesprochen werden. Zwar „stieg die Aufklärungsrate von Gewaltdelikten in Brighton um 38%“ [Gr01, S.14], ein Rückgang von Diebstahl oder Vandalismus konnte in Glasgow allerdings nicht nachgewiesen werden.

In einem Interview mit „Deutschlandfunk“ gab eine Gemeinderätin an, dass die Kameras für Festnahmen „nicht besonders hilfreich“ gewesen seien. Andere Quellen berichten, dass lediglich drei Prozent aller Straftaten [Pi16] Es lässt sich folglich festhalten, dass Videoüberwachung für bestimmte Delikte effektiv sein könnte, für andere weniger. Generell ist fraglich, ob Kameraüberwachung (dauerhaft) abschreckend sein kann. Man kann vermuten, dass nach einer „Gewöhnungsphase“ die Abschreckungswirkung deutlich nachlässt. Ein weiteres Problem könnte die Verschiebung von Kriminalität in nicht überwachte Gebiete sein. Dies ist zwar noch nicht abschließend geklärt, allerdings deuten Studien und Experten darauf hin. [Gr01, S.14]

Dies lässt sich gut vorstellen und auf Deutschland übertragen. Führe man eine flächendeckende Überwachung des Hauptbahnhofs Leipzig ein, könnte 50 Meter vor dem Bahnhof „ungesehen“ mit Rauschgift gehandelt werden. Sollte sich die Kriminalität verschieben, wäre es unter dem Gesichtspunkt der sozialen Gerechtigkeit schwierig zu begründen, welche Gebiete man überwacht und welche nicht. [Gr01, S.14] Sollen nur wirtschaftlich lukrative Orte überwacht werden oder auch andere? Sollte die Technik auch in ärmeren Stadtvierteln eingesetzt werden oder nur zur Sicherheit der Wohlhabenden?

Zudem wird in Großbritannien auch die mobile Gesichtserkennung von NEC („Novacek Watch“) eingesetzt, welche 300 Bilder / Sekunde aufnehmen kann und diese mit einer Datenbank von 23 Millionen Referenzbildern abgleicht. [Zy19] Gegen dieses System läuft gerade eine Klage von Ed Bridge wegen Verletzung der Privatsphäre.

Allgemein wird sich seitens der Politik sehr auf das Thema Kameraüberwachung fokussiert, weshalb, wie auch eingangs erwähnt, der Bereich hohe Kosten verursacht. Sollte Deutschland verstärkt Videoüberwachung (auch mit Gesichtserkennung) einsetzen, liegt es nahe, dass an anderer Stelle ähnlich wie in England Budget gekürzt würde [Gr01, S.14].
Andere Präventionsmaßnahmen / Öffentlichkeitsarbeit der Polizei gegen Kriminalität müssten dann ggf. eingestellt oder stark reduziert werden.

3.3 Risiken für Privatpersonen

Das Ziel der Gesichtserkennung sollte sein, die subjektive und objektive Sicherheit zu erhöhen. Aber ist es auch möglich, dass sie für einzelne Personen Risiken birgt? Wie präzise ist die Gesichtserkennung, wie oft werden Personen falsch verdächtigt? In den bisherigen Piloteinsätzen in Deutschland wurden in der ersten Phase 0,67% der Personen fälschlicherweise als gesuchte Person erkannt, in der zweiten Phase waren es nur noch 0,34%. Mit weniger als 1% wirkt dieser Wert sehr gering, das heißt jedoch, dass aus 1000 Personen eine Person falsch erkannt und verdächtigt wird.

Täglich reisen circa. 300.000 Menschen über den Berliner Hauptbahnhof, davon wären 2010 beziehungsweise 1020 Personen fälschlich erkannt worden. Dazu kommt, dass Systeme, die beispielsweise in den USA eingesetzt wurden, große Schwierigkeiten haben, People-of-Color und Frauen genau zu identifizieren, dass die Falscherkennungen bei diesen Personengruppen noch häufiger auftreten. Aus diesem Grund werden Gesichtserkennungssysteme in San Francisco in Zukunft verboten. [Rc19, S.3]

Eine Falscherkennung muss natürlich nicht zwangsläufig ein hohes Risiko mit sich bringen. Nach aktuellem Stand wird jeder Treffer durch Polizeibeamte verifiziert, sodass nicht automatisch ein Einsatz ausgelöst wird. Sollte es trotzdem noch einen falschen Treffer geben, reicht in den allermeisten Fällen eine einfache Personenkontrolle aus, um den Fehler aufzuklären. Durch Verknüpfung mehrerer Systeme kann die Fehlerrate verringert wer-den, das zieht jedoch auch eine Verringerung der Trefferrate nach sich.

Egal wie genau die Systeme jedoch werden, wird durch verstärkte Überwachung immer ein Teil der persönlichen Freiheit für die gewonnene Sicherheit eingetauscht, denn es wer-den so immer Aufnahmen von diversen Personen gemacht, die potentiell auch gespeichert werden können, was immer eine gewisse Gefahr birgt. Das Extrembeispiel ist in dem Fall China, wo der Aufenthalt an bestimmten Orten oder das ausführen bestimmter Tätigkeiten teilweise drastische Maßnahmen nach sich zieht, was durch Gesichtserkennung automatisiert stattfinden kann.

3.4 Ergebnisse

Zusammenfassend sollte man die Videoüberwachung / Gesichtserkennung aus zwei Blickwinkeln betrachten: die Steigerung der objektiven und die der subjektiven Sicherheit. Betrachtet man die Kameraüberwachung objektiv, so ist theoretisch das Verhindern von weiteren Verbrechen von bereits zur Fahndung ausgeschriebenen Straftätern möglich, so-fern diese sich an öffentlichen Orten aufhalten. Der Punkt stärkt allerdings nur teilweise die öffentliche Sicherheit, weil zum einen die initiale Straftat bereits begangen wurde und zum anderen ein Täter vermutlich weiß, dass er gesucht wird und Orte mit Kameraüberwachung meiden wird.
Weiter helfen die Aufnahmen von Verbrechen der Polizei die Ermittlung effektiver und effizienter zu gestalten und somit Fälle schneller aufzuklären. Bspw. wäre eine Öffentlichkeitsfahndung per Phantombild nicht so effektiv, wie eine mit echtem Bildmaterial des Täters. Die Erfahrung aus Großbritannien lehrt, dass durch Videoüberwachung Verbrechen lediglich in unüberwachte Gebiete, die durch die Kennzeichnungspflicht der Videoüberwachung leicht auszumachen sind, verlagert werden. Daraus resultiert, dass zwar die Anzahl an Delikten an überwachten Plätzen sinkt, nicht jedoch die Gesamtanzahl. Straftäter werden also nicht unbedingt davon abgehalten, einen Rechtsbruch zu begehen, sondern mehr zur Vorsicht gemahnt. Subjektiv vermittelt die Videoüberwachung (besonders die deutliche / auffällige) den Eindruck, „man sei nicht allein“, was der großen Mehrheit der Bevölkerung besonders nachts an Bahnhöfen ein Sicherheitsgefühl geben sollte.
Bei großflächiger Überwachung sollte man jedoch auch Personen berücksichtigen, die sich durch den Einsatz von Gesichtserkennung ständig beobachtet fühlen und somit eher ein Gefühl der Unsicherheit oder Angst entsteht. Interessant ist auch, wer die aufgenommenen Daten auswertet. Nach polizeifachlicher Bewertung sollten dies auch längerfristig Menschen und keine Computer („KI“) übernehmen. Denn auch nur geringe relative Fehler (0,1%) des Systems könnten an stark frequentierten öffentlichen Orten für absolut hohe Falscherkennungen führen, die dann Personal, welches an „echten“ Einsätzen benötigt wird, binden. Bei angenommen 100.000 Personen, die täglich den Frankfurter Flughafen besuchen, wären das immerhin 100 fälschliche Alarmierungen am Tag. Zusätzlich zu den Fehlalarmen für die Beamten, wäre hier auch wieder ein Risiko für eigentlich nicht gesuchte Privatpersonen vorhanden.

Allgemein ist noch zu sagen, dass durch Gesichtserkennung weniger Prävention, dafür mehr Unterstützung bei menschlicher Überwachung geleistet wird. Denn durch die leichte Möglichkeit, die Kameras zu umgehen (Licht, Winkel, Kapuze) und auch die ab-nehmende menschliche Konzentration bei der Monitorbeobachtung nach ca. 20 Minuten könnte eine (zusätzliche) menschliche Überwachung (z.B. durch Streife) nicht ersetzt werden.
Möchte man nun die Frage beantworten, ob Gesichtserkennung die öffentliche Sicherheit nun erhöht, sollte zwischen der objektiven und der subjektiven Sicherheit unter-schieden werden. Betrachtet man Letztere, wird die Sicherheit erhöht. Ob jedoch auch objektiv die Sicherheit so stark verbessert wird, dass der finanzielle und personelle Ein-satz sich lohnt, ist eher fraglich, da wie in Abschnitt 3.2 erwähnt, andere (Präventions-) Maßnahmen durch den Fokus auf Gesichtserkennung vernachlässigt werden könnten.

4. Ausblick

Identifikation Anhand von Gesichtserkennung kann nur eine begrenzt hohe Genauigkeit gewährleisten und ist von vielen Faktoren abhängig. Andere Methoden zur Erkennung von Personen durch künstliche Intelligenz können dort eventuell noch Aus-hilfe verschaffen. Sollte die Identifikation anhand des Ganges in Zukunft dazu in der Lage sein, die Videoüberwachung in Echtzeit zu unterstützen, könnte diese beispiels-weise parallel zur Gesichtserkennung gegenprüfen ob eine Person richtig erkannt wurde. Die Rechenleistung, die dafür erforderlich wäre, würde allerdings hohe Kosten mit sich bringen. Aktuell ist dies jedoch technisch noch nicht umsetzbar.

4.1 Evaluation

Um eine qualifizierte Aussage über die Richtigkeit von Horst Seehofers Behauptung zu treffen, haben wir uns zunächst intensiv mit dem Stand der Technik beschäftigt. Unser Fokus lag dabei bewusst auf dem Pilotprojekt, auf das sich das Zitat bezieht. Wir haben dann Überlegungen dazu angestellt, inwieweit die Einführung solcher Systeme die Sicherheit überhaupt erhöhen kann und sahen uns schnell in philosophische und politische Diskussionen zu den Themen Freiheit und Sicherheit abdriften.

Daher haben wir versucht, uns etwas mehr auf den technischen Aspekt zu fokussieren und eine Art Kosten/Nutzen-Rechnung anzustellen. Dabei ist uns klar geworden, dass der rein finanzielle Aufwand der flächendeckenden Einführung solcher Systeme absurd hoch ist und von Experten sogar noch höher eingeschätzt wird als unsere Hochrechnungen ergeben haben. In Anbetracht dieser Rechnungen haben wir das Projekt eigentlich schon als gescheitert abgestempelt. Um Seehofer jedoch eine faire Chance zu geben, haben wir trotzdem analysiert, welche Vorteile und Risiken Gesichtserkennung in Kombination mit flächendeckender Video-überwachung auf die Sicherheit hat. Schlussendlich mussten wir aber festhalten, dass nach aktuellem Stand der Technik eine Einführung rein finanziell kaum realisierbar ist und dieser hohe finanzielle Aufwand kaum das gewonnene Maß an Sicherheit aufwiegt.

4.2 Zusammenfassung

Die Gesichtserkennung allein ist objektiv betrachtet noch keine lohnende Investition zur Steigerung der Sicherheit. Dafür ist die Verlässlichkeit noch zu gering und die Kosten zu hoch. In Kombination mit anderen Identifikationsmaßnahmen kann die Überwachung optimiert werden. Die ausgeweitete Überwachung würde allerdings größtenteils nur für punktuelle Ab- und Zunahme der Kriminalität sorgen.

Quellen

  • [Fr16] Frevel, Bernhard: Auf der Suche nach dem Sicherheitsbegriff, Springer VS, Wiesbaden, 2016
  • [Gr01] Gras, Marianne: "Videoüberwachung in Großbritannien" Neue Kriminalpolitik, vol. 13, no. 4, 2001, Seiten 12–15. JSTOR, unter www.jstor.org/stable/43262473 abgerufen am 09.01.2020
  • [Ma14] Maunz/Dürig, 71. Ergänzungslieferung München 2014, Art. 8 GG, Rdn. 154
  • [MDD14] Maunz, Theodor; Düring, Günter; Depenheuer, Otto: Grundgesetz: Kommentar, 71. Ergänzungslieferung, Verlag C. H. Beck, München, 2014
  • [Pe05] Pernak, Roman: Öffentlicher Raum und Verkehr: eine sozialtheoretische Annäherung, dritte Auflage, Berlin, 2005
  • [Sc10] Schmidt, Manfred G.: "Wörterbuch zur Politik", dritte überarbeitete und aktualisierte Auflage, Alfred Kröner Verlag, Stuttgart, 2010

 

 

Diskussion und Bewertung der Richtlinien und Praktiken YouTubes in Hinblick auf das Urheberrecht

Symbolbild Urheberrechte

In einem Interview mit dem EU-Abgeordneten Axel Voss (CDU), veröffentlicht in der Zeitung ZEIT ONLINE fiel die Aussage ”Das, was YouTube macht, ist eine Art Enteignung” auf. Zu dieser Aussage liegt die These ”YouTube verletzt durch ihre Praktiken die Eigentumsrechte der Content Creator an deren Inhalten” vor, welche im Laufe dieser Arbeit überprüft wird. Zu untersuchen ist der Umgang mit Urheberrechtsverletzungen auf der Plattform YouTube - sowie Veränderungen, die durch die neue Europäische Urheberrechtsreform auf Content Creator zukommen.
Dabei sind insbesondere die eingesetzten Technologien zu untersuchen, welche YouTube nutzt, um Urheberrechtsverletzungen vorzubeugen. Außerdem werden die Standards zur Monetarisierung und Geldverteilung seitens YouTubes recherchiert und bewertet. Zuletzt wird überprüft, wie gegebenenfalls bestehende Probleme mit neuen Technologien oder Gesetzen gelöst werden können.
Die Richtlinien von YouTube, sowie die Servicebeschreibung und die Gesetze der Europäischen Union dienen als nützliche Quelle die oben genannte These zu diskutieren. Zudem werden voraussichtlich verschiedene wissenschaftliche Publikationen hinzugezogen, um eine neutrale Bewertung Dritter mit zu Berücksichtigen.

1. Einleitung

Im Juli 2016 beschloss der Rechtsausschuss des Europäischen Parlaments den Urheberrechts-Bericht von Julia Reda und erkannte damit die Notwendigkeit einer Urheberrechtsreform an, um Mindeststandards auf EU-Ebene zu bestimmen [1]. Darauf präsentierte die EU-Kommission mit dem scheidenden Digital-Kommissar Günther Oettinger im September des gleichen Jahres einen Entwurf für eine Richtlinie “über das Urheberrecht im digitalen Binnenmarkt”, welche auf massive Kritik auslöste - unter anderem weil es sogenannte Upload-Filter vorsah [2].

Als Upload-Filter wird das automatische Überprüfen auf Urheberrechtsverletzungen jedes Inhaltes, welches auf eine Plattform hochgeladen wird, bezeichnet. Dazu wird für jeden urheberrechtlich geschützten Inhalt ein Hashwert gespeichert. Bei jedem Hochladen neuer Inhalte werden von einem Algorithmus die Hashwerte der neuen Inhalte mit den Werten der geschützten Inhalte verglichen. Findet der Algorithmus Überschneidungen, wird der neue Inhalt nicht hochgeladen [3].

Am 15. Juni 2017 übernahm Axel Voss die Rolle des Berichterstatters für die Urheberrechtsreform und wurde damit der verantwortliche Abgeordnete für das Gesetz [4]. Nachdem die EU-Staaten im europäischen Rat ihre Position inklusive Upload-Filter beschlossen [5], reichte auch der Rechtsausschuss im EU-Parlament einen Änderungsantrag mit Upload-Filtern ein, welchen das Parlament jedoch zunächst ablehnte und damit eine zweite Abstimmung erzwang [6].
Die Position wurde in der zweiten Abstimmung am 12. September 2018 mit großer Mehrheit beschlossen [7]; am gleichen Tag schlug Jean-Claude Juncker Upload-Filter zur Bekämpfung von Terrorismus vor [8].

Die Verhandlungen im sogenannten Trilog zwischen den Positionen von EU-Parlament, Kommission und Rat wurden hinter verschlossenen Türen weitergeführt [7]. Die Diskussion war zu diesem Zeitpunkt schon sehr angespannt, während unter anderem der Internetpionier Tim Berners-Lee in einem offenen Brief an den EU-Parlamentspräsidenten für ein freies Internet ohne Upload-Filter plädiert [9], sprach Axel Voss von einer Kampagne gegen Filter und kritisierte “die ganzen Beleidigungen, Beschimpfungen und Bedrohungen, denen wir ausgesetzt sind” als “nicht wirklich hilfreich” [7].
Auf zahlreichen Social Media Plattformen witzelten User mittlerweile mit Hilfe von sogenannten Memes über Axel Voss und dessen angebliche Unwissenheit.

Abbildung 1: Meme über Axel Voss (Quelle: twitter.com/werquer/status/1039929872154591233)

YouTube startete im November 2018 die Kampagne “Save your Internet” in der sich die Plattform gegen das Gesetz und Upload-Filter ausspricht und präsentiert Meinungen von Künstlern und YouTubern, die vor dem Ende des Internets warnen [10] [11]. Zudem kündigte die YouTube Chefin Susan Wojcicki an, infolge der Urheberrechtsreform unter Umständen 35 Millionen Kanäle in Europa schließen zu müssen [12].

Am 13. Februar 2019 verkündeten die Trilog-Verhandler, sich auf einen gemeinsamen finalen Text zur Urheberrechtsreform geeinigt zu haben, welcher trotz aller Kritik Upload-Filter enthielt [13]. Eine Woche später segnete der Rat der EU den Kompromiss auch mit der Stimme Deutschlands ab, was im direkten Widerspruch zum Koalitionsvertrag zwischen CDU und SPD steht [14].
Der Parlamentsabstimmung im März 2019 gingen, zumindest in Deutschland, massive Proteste in zahlreichen Städten voran, in denen sich zehntausende Demonstranten gegen die Reform aussprachen und befürchteten, dass das Internet so wie sie es kennen nicht mehr existieren wird [15] [16].

In einem Interview vom 25. März 2019 mit Lisa Hegemann von der Zeitung Die Zeit fiel folgendes Zitat: “Anscheinend will man YouTube von irgendeiner Haftung befreien, obwohl die Plattform ein rechtlich fragwürdiges Modell betreibt, in dem sie das Eigentum anderer nimmt, es in Geld verwandelt, aber anderen nichts abgibt. Das, was YouTube macht, ist eine Art Enteignung.” [17]

Am 26. März 2019 beschloss das EU-Parlament die Urheberrechtsreform der Europäischen Union, welche schließlich am 15. April 2019 durch den Rat der Europäischen Union bestätigt wurde [18] [19].

Nach der intensiven und ausschreitenden Diskussion, den zahlreichen Demonstrationen und Protesten, politischen Deals und der enormen Medienpräsenz, sowie dem polemischen Zitat von Axel Voss wird das Thema in dieser Arbeit mit etwas zeitlichen Abstand nüchtern und auf Grundlage von Fakten anhand der These ”YouTube verletzt durch ihre Praktiken die Eigentumsrechte der Content Creator an deren Inhalten” diskutiert und bewertet.

2. Methode

Die aus dem Zitat von Axel Voss abgeleitete These “YouTube verletzt durch ihre Praktiken die Eigentumsrechte der Content Creator an deren Inhalten.” wird qualitativ analysiert. Hierzu werden die verschiedenen Schlagwörter, die Herr Voss in seinem Zitat nennt, betrachtet und auf Grundlage der entsprechenden Praktiken, Standards und Richtlinien YouTubes, sowie den bestehenden Gesetzgebungen zur Zeit des Zitats eingeordnet und diskutiert.
Darüber hinaus werden die von Herrn Voss vorgeschlagenen Gesetzesänderungen betrachtet und analysiert, ob damit die gewünschten Effekte erreicht werden können. Diese Grundlage der aktuellen und der gewünschten Lage wird mit einer Literaturrecherche erarbeitet, in dem auf YouTubes Internetpräsenz die entsprechenden Regelungen ermittelt und die geltenden sowie geplanten Artikel in den Gesetzgebungen überprüft werden.

”Anscheinend will man YouTube von irgendeiner Haftung befreien, obwohl die Plattform ein rechtlich fragwürdiges Modell betreibt, in dem sie das Eigentum anderer nimmt, es in Geld verwandelt, aber anderen nichts abgibt. Das, was YouTube macht, ist eine Art Enteignung. “ (Voss)

Die Schlagworte, die Herr Voss in seinem Zitat nennt sind die Haftung von YouTube aufgrund von Urheberrecht, YouTubes rechtliches Modell, Eigentum der Videos und des Urheberrechts, Geld und die Verteilung der Videoeinnahmen, sowie die Enteignung durch YouTube. Zu jedem Punkt wird die aktuelle Lage recherchiert und beurteilt, ob es sich um eine berechtigte Kritik an YouTube handelt.
Abschließend wird versucht die These zu beantworten und bewerten, ob die von Herr Voss geplanten Gesetze sinnvoll sind.

3. Grundlagen

3.1 Axel Voss

Axel Voss studierte Rechtswissenschaften an der Universität Trier und an der Ludwig-Maximilians-Universität in München und ist seit 1994 als Rechtsanwalt zugelassen. 1996 tritt er in die CDU ein und übernimmt seitdem überwiegend Europa-Politische Funktionen. Im Jahr 2009 wird Voss Mitglied des Europäischen Parlaments und gehört der EVP-Fraktion an.
Er arbeitete unter anderem an Themen wie Datenschutz-Grundverordnung (DSGVO), als Berichterstatter zu Upload-Filter und Leistungsschutzrecht, aber auch an der Globale überwachungs- und Spionageaffäre [20]. Laut der Plattform LobbyPlag.eu, welche die Änderungsanträge zur DSGVO der EU-Mitgliedsländer analysiert, hat Voss die meisten Änderungsanträge für weniger Datenschutz verfasst [21].

3.2 Schlüsselbegriffe

3.2.1 Haftung

Der Begriff Haftung bedeutet grundsätzlich, dass jemand für einen Schaden einstehen muss. Die Haftung kann sich dabei aus Vertrag oder aus dem Gesetz ergeben [22]. Dieser Begriff wird im späteren Verlauf wichtig, da YouTube Nutzungsbedingungen hat, welche anstelle des Vertrags stehen.

3.2.2 Enteignung

Um das Zitat von Herrn Voss genau zu analysieren und die aufgestellte These zu widerlegen, benötigt man gewisse Grundverständnisse in Bezug auf den Begriff Enteignung. Enteignung wird rechtlich als “den Entzug des Eigentums an einer unbeweglichen oder beweglichen Sache durch den Staat, im Rahmen der Gesetze und gegen eine Entschädigung” definiert [23].

3.2.3 Urheberrecht

Der Begriff Urheberrecht ist im Bezug zu unserer Analyse ein wichtiger Punkt, um den Besitz von Content zu definieren. Urheberrechte beschreiben “[...] nicht nur den offiziell anerkannten Anspruch auf das persönliche Eigentum, sondern legen auch fest, wer dieses Eigentum in welchem Rahmen nutzen darf” [24].

 3.3 Gesetzliche Grundlagen

Artikel 14 der Richtlinie 2000/31/EG über den elektronischen Geschäftsverkehr [25]:

Hosting

1. Die Mitgliedstaaten stellen sicher, dass im Fall eines Dienstes der Informationsgesellschaft, der in der Speicherung von durch einen Nutzer eingegebenen Informationen besteht, der Diensteanbieter nicht für die im Auftrag eines Nutzers gespeicherten Informationen verantwortlich ist, sofern folgende Voraussetzungen erfüllt sind:

(a) Der Anbieter hat keine tatsächliche Kenntnis von der rechtswidrigen Tätigkeit oder Information, und, in Bezug auf Schadenersatzansprüche, ist er sich auch keiner Tatsachen oder Umstände bewusst, aus denen die rechtswidrige Tätigkeit oder Information offensichtlich wird, oder

(b) der Anbieter wird, sobald er diese Kenntnis oder dieses Bewusstsein erlangt, unverzüglich tätig, um die Information zu entfernen oder den Zugang zu ihr zu sperren.

Die Rechtslage vor der Urheberrechtsreform von 2019 sah vor, dass Anbieter grundsätzlich nicht für die von den Nutzern hochgeladenen Inhalte auf ihrer Plattform verantwortlich sind. Sie müssen rechtswidrige Inhalte erst dann löschen, wenn sie Kenntnis über die Rechtswidrigkeit erlangen.

Auszug aus Artikel 17 der Richtlinie (EU) 2019/790 über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt und zur Änderung der Richtlinien 96/9/EG und 2001/29/EG über die Nutzung geschützter Inhalte durch Diensteanbieter für das Teilen von Online-Inhalten [26]:

4. Wird die Erlaubnis nicht erteilt, so ist der Diensteanbieter für das Teilen von Online-Inhalten für nicht erlaubte Handlungen der öffentlichen Wiedergabe, einschließlich der öffentlichen Zugänglichmachung, urheberrechtlich geschützter Werke oder sonstiger Schutzgegenstände verantwortlich, es sei denn, der Anbieter dieser Dienste erbringt den Nachweis, dass er

(a) alle Anstrengungen unternommen hat, um die Erlaubnis einzuholen; und

(b) nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt alle Anstrengungen unternommen hat, um sicherzustellen, dass bestimmte Werke und sonstige Schutzgegenstände, zu denen die Rechteinhaber den Anbietern dieser Dienste einschlägige und notwendige Informationen bereitgestellt haben, nicht verfügbar sind; und in jedem Fall

(c) nach Erhalt eines hinreichend begründeten Hinweises von den Rechteinhabern unverzüglich gehandelt hat, um den Zugang zu den entsprechenden Werken oder sonstigen Schutzgegenständen zu sperren bzw. die entsprechenden Werke oder sonstigen Schutzgegenstände von seinen Internetseiten zu entfernen, und alle Anstrengungen unternommen hat, um gemäß Buchstabe b das künftige Hochladen dieser Werke oder sonstigen Schutzgegenstände zu verhindern.

Nach der Urheberrechtsreform sind Anbieter grundsätzlich für von Nutzern hochgeladene urheberrechtlich geschützte Inhalte, von denen sie von den Urhebern keine Zugänglichkeitserlaubnis haben, verantwortlich und müssen diese entfernen sowie das zukünftige Hochladen verhindern. Dazu sollen nach branchenüblichen Standards alle Anstrengungen unternommen werden.

3.4 Social Media Platform

“Social Media Plattformen dienen in erster Linie die sozialen Beziehungen abzubilden, zu pflegen und zu verwalten sowie neue Beziehungen zu schaffen. “ (Stuhec-Meglic)

Jedes dieser Netzwerke kann verschiedene Zielsetzungen haben, wie zum Beispiel geschäftliche oder private Kontakte zu verknüpfen. Meistens haben diese Plattformen alle gleiche beziehungsweise ähnliche Funktionen oder Werkzeuge, die für die Kommunikation zuständig sind. Es gibt Profilseiten, Suchfunktionen, Kontaktmanagement, Nachrichtenfunktionen und vieles mehr. Die Hauptintention von diesen Netzwerken ist es, Gleichgesinnte zu vernetzen, Meinungen zu generieren oder schnell möglichst viele Leute über Themen zu informieren. All diese Möglichkeiten sind demnach eine digitalisierte Form von dem, was es offline bereits gibt, wie eine normale Face-to-Face Kommunikation [28].

Zur Verdeutlichung wird dies an der am häufigsten genutzten Social Media Plattform Facebook erklärt. Auf Facebook können Menschen miteinander kommunizieren und so mit Leuten in Kontakt bleiben. Durch sogenannte Posts können die Nutzer Bilder, Texte oder sonstiges mit ihren Kontakten teilen. Besonders ist, dass die Beziehungen nicht nur abgebildet, sondern auch mit Hilfe von Algorithmen gewichtet werden. Bei Facebook heißt dieser Algorithmus Edgerank und funktioniert auf den drei Ebenen Affinität, Gewichtung und Aktualität. Die Affinität bezieht wie stark und wie häufig man miteinander in Kontakt steht mit ein.

Die Gewichtung beschreibt die Art des Contents, also ob es sich bei dem Post um ein Bild, Textbeitrag oder sonstiges handelt. Die Aktualität wird aus Sicht des Empfängers bewertet und analysiert, wie viele Beiträge ein Nutzer sieht und wie viel Zeit er auf der Plattform verbringt. Anhand dieses Algorithmus werden die Inhalte individuell für jeden Nutzer angezeigt. In einem Zitat sagt Mark Zuckerberg dazu: “A squirrel dying in front of your house may be more relevant to your interests right now than people dying in Africa”.

Insgesamt bauen alle Social Media Plattformen auf solchen Algorithmen, welche die jeweilige Intention des Netzwerkes unterstützen. Facebook ist auf die Kommunikation mit den Kontakten ausgelegt. So werden beispielsweise wesentlich mehr Beiträge von Personen gezeigt, mit denen der Nutzer auch offline am meisten Kontakt hat, und seltener Beiträge von Personen, welche wenig Kontakt zum Nutzer haben. Genauso verhält es sich mit Inhalten, Facebook zeigt mehr Beiträge zu Themen, für die sich der Nutzer interessiert [28].

3.4.1 Geschäftsmodell Social Media Plattformen

Social Media Plattformen besitzen heutzutage fast alle dasselbe Geschäftsmodell und beziehen ihre Einnahmen durch personalisierte Werbung. Dazu zählt auch die Weitergabe von Daten. Zum Beispiel analysiert Facebook Daten von WhatsApp, um bessere Werbung anzeigen zu können. Wenige Dienste bieten auch eine Möglichkeit zur Monetarisierung oder sind börsennotiert und haben somit außerhalb der Werbeeinnahmen noch andere Einkommensquellen [29].

3.4.2 Geschäftsmodell YouTube

YouTube ist ein öffentliches Videoportal auf dem vom Nutzern hochgeladene Videos angesehen, bewertet und kommentiert werden können. Jeder Nutzer kann eigene Videos hochladen und sie damit verfügbar machen [30]. Content Creator können ab einer bestimmten Reichweite Werbung vor ihre Videos schalten lassen. Die Einnahmen werden von YouTube als AdSense-Einnahmen bezeichnet und verteilen sich zu 55 % auf den Creator und 45% auf YouTube.
Außerdem wird Werbung im Hintergrund auf den verschiedenen Seiten YouTubes angezeigt [31]. Mittlerweile bietet YouTube auch kostenpflichtige Kanäle in Zusammenarbeit mit verschiedenen Partnern an, bei denen die Einnahmen wieder aufgeteilt werden [32].

4. Analyse

4.1 YouTube Richtlinien und Nutzungsbedingungen

YouTube selbst hat im Bezug zu Urheberrechten Richtlinien und Nutzungsbedingungen aufgestellt. Bezeichnet als “Von ihnen gewährte Rechte” schreibt YouTube “Sie behalten Ihre Rechte als Urheber und alle bestehenden gewerblichen Schutzrechte an Ihren Inhalten. Kurz gesagt: Was Ihnen gehört, bleibt auch Ihres. Es ist jedoch erforderlich, YouTube und anderen Nutzern des Dienstes bestimmte, nachfolgend beschriebene Rechte zu gewähren.”

Nun werden die Lizenzen zu den im vorherigen Zitat von YouTube genannt. Einerseits die genannte “Lizenz an YouTube” andererseits die “Lizenz an andere Nutzer”. So wird die Lizenz an YouTube wie folgt beschrieben: “Durch das Einstellen von Inhalten in den Dienst räumen Sie YouTube und seinen verbundenen Unternehmen [...] das weltweite, nicht-exklusive, kostenfreie Recht ein, diese Inhalte zu nutzen [...], ausschließlich zum Zweck der Erbringung und Verbesserung des Dienstes [...] und lediglich in dem dafür nötigen Umfang.”
Die Lizenz an andere Nutzer wird von YouTube bereitgestellt als “Sie gewähren auch jedem anderen Nutzer des Dienstes das weltweite, nicht-exklusive, kostenfreie Recht, im Rahmen des Dienstes auf Ihre Inhalte zuzugreifen und diesen Nutzen zu können [...], soweit dies erforderlich ist und durch Funktionen des Dienstes ermöglicht wird.” [30]

4.2 ContentID

ContentID ist eines der von YouTube verwendeten Tools, um automatisch Videos mit urheberrechtlich geschützten Inhalten zu erkennen. Dabei verwendet YouTube eine Datenbank, der YouTube-CMS (Content Management System), in der alle rechtlich geschützten Inhalte gelistet sind und gleicht Ton und Bildmaterial des Videos mit dieser Datenbank ab.

Für technische Details siehe https://cs.nyu.edu/~eugenew/publications/icassp07.pdf Die Datenbank wird sowohl von großen MCNs (Multi Channel Network, diese bestehen aus vielen einzelnen YouTube Kanälen und vertreten YouTube gegenüber den Interessen ihrer Mitglieder), YouTube Partnern als auch normale Nutzern die eigenen Inhalte schützen lassen wollen, aktuell gehalten.

Wird eine Übereinstimmung gefunden, so wird automatisch ein ”Claim“ (engl. Für Anspruch) für das Video gesetzt. Der Rechtsinhaber hat die Möglichkeit im Voraus festzulegen was mit für ihn beanspruchten Inhalten passiert. Dabei gibt es die Auswahl zwischen dem kompletten Sperren eines Videos und der Schaltung von Werbeanzeigen. Falls die geschützten Inhalte dabei ohne Zustimmung des Rechteinhabers verwendet wurden, fallen dabei sämtliche Ansprüche der durch das Video generierten Werbeeinnahmen ebenfalls dem Rechtsinhaber der geschützten Inhalte zu.
Um urheberrechtlich geschützte Inhalte kommerziell zu verwenden, benötigt der Content Creator (der Nutzer, der das Video auf YouTube hochgeladen hat) also die explizite Erlaubnis des Rechtsinhaber der jeweiligen geschützten Inhalte.

Falls der Content Creator glaubt, dass es sich bei einem Claim um einen Fehler handelt kann er natürlich diesen anfechten und das Video von einem Mitarbeiter von YouTube sichten lassen. Dieser entscheidet dann, ob es sich um eine Urheberrechtsverletzung handelt oder um einen Fehler in der Erkennung des Content ID Systems [33].

4.3 Monetarisierung

Das System zur Monetarisierung von Videos ermöglicht dem Content Creator mehrere Möglichkeiten mit ihren Videos Geld zu verdienen [32]. Die meist genutzte ist die Schaltung von Werbeanzeigen vor und/oder während der Wiedergabe von Videos. Dabei wird ein bestimmter Prozentsatz der Werbeeinnahmen von YouTube an den Nutzer weitergegeben.

Das von YouTube verwendete System zur Auswahl und Schaltung der Werbeanzeigen ist ein Ableger von Googles AdSense. AdSense betrachtet dazu eine Vielzahl von Faktoren aus und schaltet, wenn möglich, individuell angepasste Werbung. Während der Werbeanzeige werden außerdem Benutzerinteraktionen ausgewertet, dabei ist unter anderem ein Videoaufruf, in welchem der Zuschauer die Werbeanzeige bereits nach fünf Sekunden überspringt, deutlich weniger wert als ein Videoaufruf in dem der Zuschauer die komplette Werbeanzeige ansieht und im besten Fall noch dem Link zur Webseite des Werbenden folgt.

YouTube selbst veröffentlicht keine Statistiken. Zudem sind viele YouTuber Mitglied eines MCNs, deren Gewinnteilung in den meisten Fällen ebenfalls nicht öffentlich ist. Nach Aussage vieler YouTuber beläuft sich die Vergütung aber je tausend Videoaufrufe auf circa ein bis zwei Euro [34] und laut der Webseite sumago.de ist die Verteilung 45% für YouTube und 55% für den Content Creator [35].

Allerdings ist nicht jeder Nutzer direkt dazu berechtigt, mit seinen Inhalten Geld zu verdienen. Seit dem 20. Februar 2018 sind eintausend Abonnenten, sowie viertausend Sehstunden im Jahr Voraussetzung für den Verbleib beziehungsweise die Aufnahme in das YouTube Partnerprogramm, welches Voraussetzung für alle Formen der Monetarisierung auf YouTube ist [36].

Außerhalb der Schaltung von Werbeanzeigen bestehen auch noch andere Möglichkeiten, Geld mit seinen Inhalten zu verdienen. Ab 30.000 Abonnenten können Zuschauer eine Kanalmitgliedschaft erwerben, welche abhängig von der Stufe mindestens fünf Euro pro Monat kostet [37].
Dabei erhält YouTube 30 Prozent und der Content Creator 70 Prozent. Zudem soll der Content Creator seinen Zuschauern einen gewissen Mehrwert bieten, dieser ist allerdings nicht genauer definiert [38].

Der Super Chat und die Super Sticker ermöglichen es Nutzern, während eines Live-Streams eine Nachricht in den Chat zu schreiben, die abhängig von der gespendeten Summe entsprechend hervorgehoben und für eine bestimmte Zeit angezeigt wird [32].

Auch können YouTuber mit mindestens 10.000 Abonnenten unter ihren Videos einen Bereich einblenden lassen, in dem verschiedene Merchandise Produkte angeboten werden können [32] [37].

Zuletzt können YouTuber auch Geld durch die Gebühren, welche ihnen ein YouTube-Premium Nutzer zahlt, verdienen. [32]

5. Diskussion

Das Zitat von Herrn Voss kann man auf zwei verschiedene Weisen interpretieren. Zum einen könnte es sein, dass er behauptet YouTube nimmt den Nutzern, welche Videos hochladen, die Urheberrechte weg und sie dadurch dann enteignet. Zum anderen könnte man es interpretieren, dass YouTube an diesen Videos Geld verdient und den eigentlichen Eigentümern nichts davon abgibt. Zusammengefasst könnte die Aussage von Herrn Voss also lauten, das YouTube Urheberrechtsverletzungen unterstützt und damit schließlich Geld verdient beziehungsweise nicht streng genug dagegen vorgeht.

Anhand der oben gesammelten Fakten zu YouTube in Bezug auf die angegebenen Richtlinien und Nutzungsbedingungen, sowie die Monetarisierung und das ContentID, ist eine klare Richtung zu erkennen. YouTube schreibt, wie oben bereits erläutert, in den Nutzungsbedingungen unter “Von ihnen gewährte Rechte”, dass jeder Nutzer die Rechte als Urheber, sowie alle bestehenden gewerblichen Schutzrechte an den Inhalten behält. Somit wäre die erste Vermutung bereits widerlegt.

Trotzdem muss man jedoch den letzten Satz im oben genannten Abschnitt beachten. Dort steht “Was ihnen gehört, bleibt auch Ihres. Es ist jedoch erforderlich, YouTube und anderen Nutzern des Dienstes bestimmte, nachfolgend beschriebene Rechte zu gewähren”. Dies ist ein wichtiger Punkt in der Analyse. YouTube erklärt daraufhin in den zwei Absätzen “Lizenz an YouTube” und “Lizenz an andere Nutzer” diesen Punkt. Diese Lizenzen beschreiben das YouTube beziehungsweise andere Nutzer die Inhalte kostenfrei nutzen dürfen um eine Verbesserung des Dienstes zu Erbringen oder den Inhalten von Nutzen sein könnten. Kurz gesagt dürfte YouTube theoretisch den Inhalt eines Nutzers als Werbung nutzen, da dies eine Verbesserung des Dienstes darstellen würde. In diesem Fall wäre die erste Vermutung wieder teilweise richtig.

Sollte YouTube einen Inhalt für öffentliche Werbung nutzen, ohne dass der Nutzer eine angemessene Teilsumme des Gewinns erhält, wird diesem ein Stück des Urheberrechtes entzogen. Ob YouTube den Nutzern für eine derartige Verwendung eine Art Entschädigung zahlt, ist unbekannt. Somit bleibt der Punkt teilweise offen. Andere Nutzer dürften die Inhalte zum Beispiel auf ihren Webseiten einbinden. Dieser Punkt ist jedoch nicht als Entzug von Urheberrechten zu werten, da durch die Einbindung der Creator des Inhaltes trotzdem die Aufrufe erhält und somit Werbeeinnahmen bekommen könnte.
Zudem sind alle wichtigen Informationen zum Creator automatisch bei der Einbindung zu sehen. Der Punkt das YouTube nicht gegen Urheberrechtsverletzungen vorgehen würde kann durch zwei wichtige Funktionen von YouTube auch erstmal widerlegt werden. Als erstes besitzt YouTube ist das Tool ContentID, welches automatisiert Urheberrechtsverletzungen in Inhalten erkennt und herausfiltert. Wie zuverlässig dieses Tool ist, bleibt offen. Wichtig ist jedoch, dass YouTube ein solches Tool betreibt und somit nicht tatenlos zusieht.

Des Weiteren bietet YouTube einen Dienst an, mit dem es möglich ist, direkten Kontakt aufzunehmen um Urheberrechtsverletzungen zu melden. YouTube reagiert dann auf die Kontaktaufnahmen mit den eigenen Richtlinien zum Urheberrecht. Ebenfalls kann man Einspruch einlegen falls die Anklage falsch ist. Somit ist zu sagen, das YouTube auf jeden Fall sehr gute Möglichkeiten gegen Urheberrechtsverletzungen von Dritten bietet. Eine Analyse wie gut dies tatsächlich funktioniert bleibt aus.

Die zweite Vermutung zur Aussage braucht die bereits erläuterte Monetarisierung und wieder die beschriebenen Lizenzen an YouTube, um analysiert zu werden. Durch die Monetarisierung gibt es viele Möglichkeiten mit den Inhalten Geld zu verdienen. Die jeweilige Verteilung der Einnahmen an YouTube und den Nutzern ist ganz normal, da YouTube ja auch den Nutzern etwas zur Verfügung stellt, um die Inhalte zu publizieren und ebenfalls durch die Werbung Einnahmen benötigt.

Außerdem sieht man das die Nutzer jeweils einen höheren Anteil erhalten, sowohl bei den Werbeeinnahmen als auch den Einnahmen durch Kanal Mitgliedschaften. Dazu kommt, dass Nutzer ab einer bestimmten Anzahl an Abonnenten den Bereich mit den Merchandise Produkten einbinden können und in Live Streams Spenden erhalten können. Von diesen Einnahmen geht nichts an YouTube, da dieses private Quellen ist. Zu diskutieren ist aber die Punkt, dass nicht alle Content Creator Geld bekommen.
YouTube behält sich vor, die Schaltung von Werbeanzeigen erst ab einer bestimmten Anzahl von Abonnenten und geschauten Minuten freizuschalten. Die weiteren oben genannten Optionen benötigen jeweils sogar eine noch höhere Anzahl. Dies ist im Hinblick auf die zweite Vermutung kritisch zu sehen, da demnach nicht jeder Nutzer Geld für die von ihm gestellten Inhalte bekommt, nur- weil er noch nicht die nötigen Voraussetzungen hat. In diesem Fall würde die Vermutung stimmen.

Man weiß jedoch nicht ob YouTube in diesem Fall Geld verdient, wenn der Content Creator nichts erhält, da er nicht die Voraussetzungen erfüllt. Diese Frage bleibt also ungeklärt. Die bereits genannten Lizenzen geben YouTube und anderen Nutzern das Recht die Inhalte kostenfrei zu nutzen. Wie bereits analysiert wäre der Fall von der Verwendung in öffentlicher Werbung kritisch zu sehen- die Einbindung jedoch nicht. Somit gibt es in den beiden genannten Vermutungen zur Aussage von Herrn Voss bereits Punkte, die es widerlegen, aber auch Punkte, die durchaus als kritisch anzusehen sind.

Kommen wir nun zum genauen Wortlaut von Herrn Voss. Im Ganzen ist auf Grundlage der Analyse zu sagen, dass man anhand der Definition von Enteignung, YouTube definitiv diese nicht vorwerfen kann. Die kritisch gesehenen Punkte reichen bei weitem nicht aus, um zu behaupten, dass YouTube den Content Creator das Eigentum gegen Entschädigung entzieht.

YouTube schreibt eindeutig in den Nutzungsbedingungen und Richtlinien, welche Lizenzen YouTube und andere Nutzer bei den Inhalten haben. Diese sind weitestgehend nicht so zu bewerten, dass eine Art Enteignung vorliegen könnte. Das einzige Ergebnis, welches dieses bekräftigen würde, wäre die genannte Nutzung den Inhalten in öffentlicher Werbung von YouTube ohne Informationen vom Creator und ohne Entschädigung. Die Analyse reicht jedoch nicht aus, um dieses Ergebnis konkret mit einzubeziehen, da es darüber keinerlei Informationen gibt.
Auch der mangelnde Umgang mit Urheberrechtsverletzungen wird durch das Tool ContentID und die Support Funktion widerlegt. Jedoch fehlt die Information, ob es auch gut genug funktioniert, um dies konkret in die Analyse mit aufzunehmen. Die Monetarisierung von YouTube ist zwar in der Hinsicht mit der Anzahl von Abonnenten als kritisch zu sehen, aber grundsätzlich als Punkt gegen die behauptete Enteignung zu stellen, da es überhaupt möglich ist Geld zu bekommen.

5.1 Auswirkung der Gesetzesänderung

Das Hochladen von urheberrechtlich geschützten Inhalten wurde rechtlich betrachtet dahingehend verschärft, dass die Anbieter für die Zugänglichkeit der Inhalte direkt verantwortlich sind und nicht wie zuvor, erst nachdem sie Kenntnis über rechtswidrige Inhalte erlangt haben. Die Verantwortung wurde von den Nutzern, die Inhalte hochladen, zu den Anbietern, die diese zur Verfügung stellen, transferiert. YouTube hat allerdings mit der ContentID schon vor der neuen EU-Richtlinie sämtliche hochgeladene Inhalte auf Urheberrechtsverletzungen kontrolliert und gegebenenfalls das Hochladen verhindert. Daher sollte YouTube speziell keine Änderungen vornehmen müssen und die Praktiken YouTubes nach der Urheberrechtsreform bleiben dieselben wie zuvor.

Bei anderen Anbietern ohne ContentID ähnlicher Algorithmen wird ein Upload-Filter eingebaut werden müssen. Daher kann die Richtlinie durchaus zur Verhinderung des Hochladens urheberrechtlich geschützter Inhalte beitragen und damit den Eigentümern helfen.

5.2 Fazit

Abschließend kann man also sagen, dass die Aussage von Axel Voss ”Das, was YouTube macht, ist eine Art Enteignung“ und die dazu ausgelegte These, man mit den gesammelten Informationen widerlegen kann, da es genügend Fakten gibt, die gegen eine sogenannte Enteignung sprechen und auch vermutete Hintergrundbehauptungen des Zitats entkräften. Die als kritisch gesehenen Punkte konnten nicht weiter analysiert werden, da es keine geprüften beziehungsweise überhaupt keine Informationen vorliegen. Als Ausblick auf zukünftige Analysen ist es demnach wichtig, die Funktionalität der Tools von YouTube zu prüfen und auch juristische Fakten genauer unter die Lupe zu nehmen.

Quellen

  • [2] Hendrik Obelöer. Reaktionen auf Reformvorschläge der EU-Kommission: Es hätte nicht schlimmer kommen können. NETZPOLITIK.ORG, September 2016. https: //netzpolitik.org/2016/reaktionen-auf-reformvorschlaege-der-eu-kommission-eshaette-nicht-schlimmer-kommen-koennen/. Besucht am 13. Januar 2020.
  • [38] Kanalmitgliedschaft verwalten. YouTube. ttps://support.google.com/youtube/answer/7491256. Besucht am 13. Januar 2020.

 

 

Nach oben


Beauty is our business

Symbolbild KI
Prof. Sabine Radomski

Digitale Transformation mit hässlicher Software? In der Sonderveröffentlichung zum Thema „CYBERSECURITY & DATENSCHUTZ des Handelsblatt Journals erläutert Prof. Dr.-Ing. Sabine Radomski (HfTL), wie die digitale Transformation vieler Branchen von der Qualität der eingesetzten Software abhängig ist.

Softwarequalität ist wie Schönheit. Stellen Sie sich vor: Sie fahren in einem autonomen Fahrzeug und ein Hacker übernimmt die Kontrolle, weil er die Immunschwäche der Software ausnutzen konnte. Viren, Würmer usw. befallen die IT Systeme. Eine Person mit Akne (einer Immunschwäche) sieht nicht gut aus. Leider ist die Immunschwäche der Software nicht so leicht sichtbar. Mit unserer Forschung wollen wir Softwarequalität sichtbar machen und Sicherheitsschwachstellen aufzeigen.Wir müssen das Immunsystem der Software stärken, die Sicherheitsschwachstellen beseitigen. Um das zu erreichen, muss Qualität vom Nutzer wertgeschätzt werden. Software-Anwender müssen deshalb bei jeder Software auf Qualität achten. Aber das ist leichter gesagt als getan. Woran erkennt man sichere Software? Software-Qualität muss sichtbar werden: Wir brauchen einen TÜV für Software. (Auszug aus dem Artikel)


Mehr über das Thema erfahren


Test von KI & Software

Symbolbild KI
Prof. Sabine Radomski

Wie testet man ständige Veränderungen? Aktuelle Forschungsthemen von Prof. Sabine Radomski (HfTL)

In der aktuellen Ausgabe des SQ-Magazins erläutert Prof. Sabine Radomski, Hochschullehrerin an der HfTL ihre detaillierten Forschungsergebnisse zur Sicherung von Softwarequalität mit praktischen Beispielen, wie Vernetzung, digitale Transformation und immer komplexer werdenden IT-Systeme.

Auszug aus dem Artikel:

Methoden der Künstlichen Intelligenz sind älter als das Internet. Im Sommer1956 fand die erste Konferenz zum Thema "Künstliche Intelligenz"statt und bereits 1950 wurde der Turing Test entwickelt. Zur Künstlichen Intelligenz gehören neben den allgemein bekannten Neuronalen Netzen auch Fuzzy Logic, Maschinelles Lernen, Expertensysteme, Clustering und Klassifizierung sowie viele andere Methoden, die das Ziel haben, Entscheidungen auf Grundlage von komplexen Daten zu treffen. "KI könnte das schlimmste Ereignis der Menschheit werden", so warnt Stephen Hawkingvor den potentiellen Gefahren der KI am 9.11.2017 beim "Web summit" in Lissabon, Portugal.
Was gilt es bei der Entwicklung und vor allem dem Testen von KI zu beachten?

Mehr lesen

Den gesamten Beitrag finden Sie im aktuellen SQ-Magazin


HfTL wirkt am Bündnis für Hochschullehre mit

Vorlesung in der HfTL

Lehre ist eine tragende Säule der Hochschulen und ein Fenster in die Zukunft. Wie in der Forschung gedeiht auch die Entwicklung in der Lehre in Netzwerken und im fachlichen Austausch. Die Aufmerksamkeit für die Lehre ist in den letzten Jahren deutlich gestiegen, wobei es weiterer Impulse und Mittel bedarf, um einen dauerhaften Prozess der Qualitätsentwicklung in der Lehre zu initiieren. Das „Bündnis für Hochschullehre“ (Lehren) richtet sein Augenmerk auf diejenigen, die Lehre gestalten und ihr konkretes Arbeitsumfeld. Lehren holt engagierte Akteure fach- und hochschulübergreifend an einen Tisch und versteht sich als länderübergreifendes Exzellenznetzwerk für Hochschullehre. 

Die HfTL nimmt 2020 erstmalig am Lehren-Dachprogramm teil, das sich mit einem überfachlichen Ansatz auf Organisationsentwicklung und lehrbezogenes Veränderungsmanagement zur Gestaltung von Lehr-/Lernstrukturen und -kulturen konzentriert und dabei 32 Personen aus Hochschulleitungen, Hochschullehre, Hochschuldidaktik und -management in einen intensiven Dialog über Lehre bringt. Der Auftaktworkshop des Dachprogramms findet vom 24. bis 26. Februar 2020 im Tagungsschloss Hasenwinkel statt. Die HfT Leipzig ist durch Professor Oliver Jokisch mit einem Konzept zur Talentförderung von dual Studierenden vertreten. 

Das „Bündnis für Hochschullehre“ (Lehren) ist eine Gemeinschaftsinitiative von Alfred Toepfer Stiftung, Nordmetall Stiftung, Stifterverband sowie Volkswagen Stiftung und wird durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert.


Entwicklung smarter textiler Touchpads

3x3-Touch-Matrix, Schematische Darstellung

Verbundprojekt mit Partnern aus der Möbelindustrie (Ponsel), der Signalverarbeitung (Incoretex, ein Startup), einem Textilweber (LECO-Werke), der RWTH Aachen und der HfTL steht kurz vor dem Start.

In diesem Projekt steht die Entwicklung eines textilen Touchpads im Fokus, welches man aber auch als ortsaufgelösten Drucksensor verwenden kann. Vereinfacht gesagt ist es ein "smartes" Stück Stoff, in das druckempfindliche Fasern in einer schachbrettähnlichen Struktur eingebracht werden. An den jeweiligen Punkten, wo die Fasern sich treffen und auf einander liegen, gibt es eine Überkopplung von Licht in Abhängigkeit vom einwirkenden Druck. Durch Auslesen der einzelnen Fasern kann man den Druck, den Ort der Druckentstehung u.ä. Faktoren ermitteln und als Interaktionsschnittstelle nutzen.

Mehr über das Forschungsprojekt erfahren


KI als Chance für Europa?

Ein Gastvortrag von Dr. Thomas Kremer, Vorstand DRC der Deutschen Telekom

Wir sind mitten in der Digitalisierung des Alltags. Fernsehen, Telefonie, Behördendienstleistungen oder Ladevorgänge von Elektrofahrzeugen werden immer häufiger über eine Cloud betrieben und mit Künstlicher Intelligenz gesteuert und ausgewertet. Auf der anderen Seite nehmen die Bedrohungen für Datenschutz und Datensicherheit stetig zu. Hackerangriffe, Erpressungstrojaner oder betrügerische Phishing-Mail können immer größere Schäden verursachen. Vor diesem Hintergrund freuen wir uns, einen Gastvortrag von Dr. Thomas Kremer anzukündigen. Herr Kremer ist seit 2012 Vorstand für Datenschutz, Recht und Compliance bei der Deutschen Telekom AG, und wird über den Chancen und Risiken der Künstlichen Intelligenz in Europa sprechen.

Ort: HfTL, Gustav-Freytag-Str. 43-45, Hörsaal B (Raum A1.29)

Zeit: 16.01.20, 17:00 Uhr


traditional meeting of international HfTL students

On Tuesday, 17th December from 17:15pm in room A1.34  you are cordially invited to the traditional meeting of international HfTL students at the end of the year!

For some of our Erasmus exchange students from China, Iraq, Cameroon, Russia and Ukraine it will be the farewell party.

We would like to get to know traditions at Christmas or the New Year from your home countries,  with typical food, drinks and music

Finally, we would like to thank some HfTL students for their extraordinary commitment. They will receive scholarships from DAAD for supporting international students.

We look forward to an interesting events with you!
Please let us know by 16th  December if you can participate in the event.

Online Registration


Ein toller Tag mit Calliope

Entdecken, Ausprobieren, Forschen, Programmieren und Mitmachen - unter diesem Motto konnten sich rund siebenhundert Schülerinnen und Schüler mit ihren Lehrern und Eltern an verschiedenen Ständen und Seminaren dem Thema "Informatik" mit dem Schwerpunkt Robotik und Programmierung nähern.

Im Mittelpunkt vieler Angebote stand dabei "Calliope". Mit diesem kleinen, handlichen Microcomputer, konzipiert für den Einsatz an Schulen, begeisterten die aus vielen Bereichen der Telekom nach Leipzig Kolleginnen und Kollegen die Teilnehmer.

Mehr erfahren (inkl. Bildergallerie)


Neuer Hochschullehrer im Fachgebiet Wirtschaftsinformatik

Dr. Thomas Scheuner

Ab dem 1. November begrüßen wir in der Hochschule für Telekommunikation Leipzig (HfTL) Dr. Thomas Scheuner als neuen Hochschullehrer im Fachgebiet Wirtschaftsinformatik. Er wird künftig in den direkten, dualen und berufsbegleitenden Studiengängen das Modul Prozessmanagement lehren.

Dr. Scheuner kann auf eine langjährige Berufserfahrung als Prozessberater- und Manager in verschiedenen internationalen Konzernen verweisen. Nach seinem Studium und der sich daran anschließenden Promotion an der TU Dresden beriet er Unternehmen aus unterschiedlichen Branchen bei der Prozessgestaltung in einem sich wandelnden, digitalen Markt.

Im Rahmen seiner Tätigkeit bei einem großen deutschen Transport- und Logistikunternehmen entwickelte er mit seinem Team digitale Lösungen für die Vernetzung zwischen klassischen und innovativen Transportsystemen der Zukunft.

Seit dem Wintersemester 2019 unterstützte Dr. Scheuner die HfTL bereits als Gastdozent im Modul Prozessmanagement.

In seinen Vorlesungen legt er großen Wert auf eine ausgewogene Mischung zwischen Theorie und Praxis. Sein darauf aufbauendes didaktisches Konzept stellt die engagierte Mitarbeit der Studierenden durch eine abwechslungsreich gestaltete Lehrveranstaltung in den Fokus der Wissensvermittlung.

Wir freuen uns, mit Dr. Thomas Scheuner einen engagierten Wissenschaftler gewonnen zu haben, welcher durch seine umfangreichen beruflichen Erfahrungen der  anwendungsorientierten Lehre neue Impulse geben wird.


Mit dem Markt der Möglichkeiten zum neuen Job

Markt der Möglichkeiten in der HfTL

Mit einem „Marktstand“ zu einem Job? An der HfTL geht das. Und zwar im Rahmen des Karrieretags.
Dieser geht 2019 bereits in die fünfzehnte Runde und bietet den Studierenden in einzigartiger Weise die Möglichkeit, einige Unternehmensbereiche des Konzerns Deutsche Telekom kennenzulernen.
Aber auch die Vertreter des Konzerns wie beispielsweise die Deutsche Funkturm, die Deutsche Telekom Technik GmbH, T-Systems und die Detecon haben so die Möglichkeit, mit Studierenden ins Gespräch zu kommen, um potentielle Nachwuchskräfte zu gewinnen.
Schon viele Ingenieure und Informatiker konnten auf diese Weise für die Deutsche Telekom gewonnen werden.

Mehr erfahren


Erfolgreiche Zusammenarbeit über drei Kontinente

Dr. Ndop (rechts), Dr. Mohammad Sadik (Mitte) und Sheraz Ibrahim (links) von der Lebanese French University

"I studied in Leipzig at the university", erzählt Dr. Joseph Ndop, Präsident des Douala Institute of Technology. Mit diesem Wissen gründet er in seiner Heimat Kamerun ein Institut und sucht im Jahr 2009 die Zusammenarbeit mit der HfTL. Daraus entsteht ein lebhafter Austausch mit Studierenden. Bessere Bedingungen mit einem so engen Kontakt zu den Dozenten und so starkem Praxisbezug sind schließlich in der Nachrichtentechnik und Informatik anderswo kaum zu finden.

Dr. Mohammad Sadik und Sheraz Ibrahim von der Lebanese French University in Erbil/ Irak, besuchen die HfTL zum zweiten Mal und nutzen nun die Gelegenheit, mit dem Douala Institut of Technology eine Zusammenarbeit zu vereinbaren.

Mehr erfahren


DAAD-Preis 2019 an Studierenden aus Ghana verliehen

Glückwünsche zum DAAD Preis von Prof. Baderschneider, Prorektor für Internationales

Der diesjährige DAAD-Preis der HfTL geht an Herrn Abdul-Razak Musah aus Ghana. Mit der Nominierung durch den Studentenrat und Prof. Einhaus werden die exzellenten Studienleistungen und sein gesellschaftliches Engagement gewürdigt.

Er studiert seit September 2017 im Masterstudiengang „Information andCommunication Technology“ an unserer Hochschule für Telekommunikation Leipzig. Der Studiengang wird komplett auf Englisch gelehrt.

Herr Musah schreibt derzeit seine Masterarbeit im Bereich Mobilfunk und Hochfrequenztechnik unter Leitung von Prof. Dr.-Ing. Einhaus in Kooperation mit der Deutschen Telekom. In diesem Zusammenhang hat er seit seinem Studienbeginn auch an verschiedenen Messkampagnen in Leipzig und Umgebung aktiv mitgewirkt und so erheblich zum Erfolg und zur Sichtbarkeit der Forschungs- und Entwicklungsaktivitäten an der Hochschule beigetragen.

Mehr erfahren


HfTL mit ERASMUS Programm in China vertreten

Prof. Geise mit Prof. Guan und Prof. DanPing sowie Studierenden und Mitarbeitern

Im Rahmen des Erasmus Programms besuchte Prof. Robert Geise eine Woche lang das State Key Laboratory of Rail Traffic Control and Safety an der Beijing Jiaotong University. Das Laboratory entwickelt Raytracer-Berechnungsprogramme für Wellenausbreitung in sehr komplexen Umgebungen für verschiedenen Kommunikationsszenarien mit Zügen für zukünftige 5G-Mobilfunkstandards.

"Wir haben mit den chinesischen Wissenschaftlern unsere Expertisen über Theorie und Messtechnik zur Wellenausbreitung in mehreren Workshops diskutiert. Dabei war unser Input im wesentlichen messtechnischer Natur", erklärt Prof. Geise. Dabei geht es darum, elektromagnetische Eigenschaften von Materialien zu messen, um diese später in Simulationsumgebungen implementieren zu können. Ein neuer Messplatz hierzu wurde in Betrieb genommen.

Prof. Ke Guan und Prof. Geise haben gemeinsam schon mehrere Veröffentlichungen z.B. im Bereich der Car2Car Kommunikation geschrieben und pflegen seit mehreren Jahren neben dem wissenschaftlichen Diskurs auch einen persönlichen Austausch. Für die Teilnehmer war diese Woche an der Beijing Jiaotong University mit dem intensiven fachlichen und persönlichen Austausch, bereichert durch das kulturelle Begleitprogramm, ein großartiges Erlebnis.

Prof. Geise lehrt und forscht an der HfTL im Fachgebiet Elektrotechnik und Elektromagnetische Verträglichkeit mit dem Schwerpunkt auf Antennentechnologien und Messtechnik im Hochfrequenzbereich.


HfTL vergibt Professorentitel an Hochschullehrer

Dr. Schuster (links) überreicht Prof. Geise die Ernennungsurkunde als Professor

Die Hochschule für Telekommunikation Leipzig (HfTL) verleiht Dr.-Ing. Robert Geise für die Dauer seiner Tätigkeit an der HfTL den Titel „Professor“. Überreicht wurde die Ernennungsurkunde durch Dr. Matthias Schuster, Deutsche Telekom AG.

Geise lehrt seit dem 01. August 2018 in den von der HfTL angebotenen Bachelor- und Masterstudiengängen im Fachgebiet Elektrotechnik und Elektromagnetische Verträglichkeit mit dem Schwerpunkt auf Antennentechnologien und Messtechnik im Hochfrequenzbereich.

Mehr erfahren


Drohne vor Laborgebäude der HfTL
Luftaufnahme der Drohne, landwirtschaftliche Fläche

Digitale Landwirtschaft

GPS-gesteuerte Fahrzeuge sind mittlerweile Standard in der Landwirtschaft. Und die Digitalisierung macht vor der vor wenigen Jahren noch personalintensiven Land- und Fortwirtschaft nicht halt. Aber ganz ohne Menschen geht es doch nicht, und so sind Schnittstellen zwischen Mensch und Maschine – gemeint ist hier ein Roboter oder ein autonomes System – ein hoch priorisiertes Forschungsgebiet.

Bei der Erforschung dieser Thematik kooperiert die Hochschule für Telekommunikation Leipzig (HfTL) von 2018 bis 2020 mit der Russischen Akademie der Wissenschaften in St. Petersburg, der Universität Novi Sad (Serbien) und der Technischen Universität Erzurum (Türkei) im europäischen Robotikprojekt HARMONIC. Die HfTL hat sich dabei auf eine intuitive Steuerung von Drohnen im landwirtschaftlichen Kontext mittels automatischer Bild- und Audiosignalanalyse spezialisiert.

Mehr über das Forschungsprojekt erfahren


IIAKM Best Research Paper Awards für die HfTL

Best Research Paper Awards für Prof. Auth (rechts) und Prof. Jokisch

Auf der diesjährigen Knowledge Management-Konferenz (KM 2019), die vom 26. bis 29. Juni in Warschau stattfand, wurde der Journalbeitrag „Revisiting automated project management in the digital age – a survey of AI approaches” der HfTL-Professoren Gunnar Auth und Oliver Jokisch sowie ihres Co-Autors Christian Dürk, Vorstand der CORIVUS AG, mit dem “Best Research Paper Award” des International Institute for Applied Knowledge Management (IIAKM), Miami ausgezeichnet. Die gemeinsame Studie beschreibt den internationalen Forschungsstand von Künstlicher Intelligenz und ihren Softwareanwendungen im Bereich Projektmanagement. 

Mehr erfahren


Blick in den Hörsaal C
Festrede des Schulleiters der A.-Rosbach-Schule, Herr Englert
Gruppenaufnahme der Absolventen

Abi Zeugnisse feierlich übergeben

Seit vielen Jahren erhalten die Schülerinnen und Schüler der Leipziger Arwed-Rossbach-Schule traditionell ihre Abiturzeugnisse im Rahmen eines Festakts in der Hochschule für Telekommunikation Leipzig (HfTL). Während draußen tropische Temperaturen herrschten, nahmen Eltern, Verwandte, Freunde und nach dem LVZ-Gruppenfoto vor der Hochschule auch die Abiturienten ihre Plätze im angenehm temperierten Hörsaal ein. Virtuos startete Markus Schöpke mit dem Praeludium von Johann Sebastian Bach aus dem wohltemperierten Klavier und stimmte so die Anwesenden auf die nächsten zwei Stunden ein. In seiner Festrede ließ der Schulleiter, Herr Engler, noch einmal die letzten Jahre der Absolventinnen und Absolventen an der Arwed-Rossbach-Schule Revue passieren. Dabei lobte er die Leistungsbereitschaft und das Engagement, sich täglich neuen Herausforderungen zu stellen.
Mit dem Abitur sieht er die Absolventen gut gerüstet für ein Studium, eine Ausbildung, ein soziales Jahr oder vielleicht ein Jahr „work and travel“ auf dem fünften Kontinent. „Egal was Sie machen, machen Sie etwas, dass Sie begeistert, Ihnen Freude und Spaß macht, Sie weiterbringt und Ihre persönliche Entwicklung prägt“ gab Herr Engler den Absolventen zum Ende seiner Rede mit auf den Weg.

Mehr erfahren


Poetry Slam statt Powerpoint

Aufbau des Experiments

Am 19. Juni endete die sechste Staffel der Junior-Ingenieur Akademie in der Hochschule für Telekommunikation Leipzig (HfTL) mit der Abschlusspräsentation der Teilnehmerinnen und Teilnehmer. Die Schülerinnen und Schüler aus drei Leipziger Gymnasien präsentierten vor den anwesenden Eltern, Lehrern und Mitschülern ihre Projektergebnisse. Mit einem „poetry slam“ startete die erste Gruppe. Vorlesungen in der HfTL und praktische Arbeiten in den Laboren, Exkursionen zu Praxispartner oder der Aus- und Zusammenbau eines Porschemotors wurden dem Publikum in Reimen vorgetragen. Robotik und KI waren die Themen der nächsten Gruppe. Und nach einer kurzen Erklärung zur Programmierung zeigten die Schüler am Modell, welche Fähigkeiten sie den Robotern auf dem aufgebauten Parcours antrainiert haben.

Mehr Infos und weitere Bilder


IfKom verleiht Preise für exzellente Abschlussarbeiten

Gruppenbild der IfKom Preisträger mit H. Leymann und Prof. C. Springer

Seit über zehn Jahren zeichnet die IfKom - Ingenieure für Kommunikation e. V. Absolventinnen und Absolventen der Hochschule für Telekommunikation (HfTL) für ihre exzellenten Abschlussarbeiten auf dem Gebiet der Informations- und Kommunikationstechnik aus.

In diesem Jahr entschieden sich die IfKom aufgrund der Vielzahl der hervorragenden Bachelor- und Masterarbeiten, zwei richtungsweisende Abschlussarbeiten zu prämieren.

Die Verleihung der Preise erfolgte im Rahmen der feierlichen Exmatrikulation unserer dualen Studierenden im Gewandhaus zu Leipzig. In seiner Laudatio hob Heinz Leymann, Bundesvorsitzender der IfKom, die hohe wissenschaftliche Qualität der ausgezeichneten Arbeiten hervor.

„Diese ausgezeichneten Abschlussarbeiten manifestieren die hohe akademische Qualität und den Praxisbezug der an der HfTL angebotenen Ausbildung. Als Berufsverband der Ingenieure für Kommunikation freuen wir uns über diese Spitzenleistungen und sehen darin auch Garanten für die Lösung der anstehenden Herausforderungen der Digitalisierung in unserem Land.“, erklärte Leymann.

Mehr erfahren


Grußworte der Rektorin der HfTL, Prof. Dr. Christiane Springer
Auszeichnung der besten Studierenden durch Prof. Springer und Martina Scharf

Studierende feierlich exmatrikuliert

197 duale Studierende der Deutschen Telekom feierten gemeinsam mit ihren Professoren, Kommilitonen, Eltern und Gästen den erfolgreichen Abschluss ihres Studiums am 1. März 2019 im Mendelssohn-Saal des Gewandhauses zu Leipzig.

Die Rektorin der Hochschule für Telekommunikation Leipzig (HfTL), Prof. Dr. Christiane Springer, verabschiedete die Studierenden aus den Reihen der eingeschriebenen Kommilitonen.
„Sie haben sich für anspruchsvolle und zukunftsorientierte Studienrichtungen entschieden und diese erfolgreich absolviert. Tragen Sie ihren akademischen Titel mit Würde, aber bleiben Sie nicht stehen. Ich gratuliere Ihnen im Namen der gesamten Belegschaft der Hochschule und wünsche Ihnen für Ihren weiteren beruflichen und persönlichen Lebensweg alles erdenklich Gute“, erklärte Prof. Springer.

Mehr über die Exmatrikulationsfeier erfahren


Auskunftsersuchen nach Art. 15 DSGVO

Symbolbild DSGVO

Wie leicht machen es Unternehmen ihren Kunden, ihre Rechte nach Art. 15 der DSGVO auszuüben?

Susanne Eichhorn, Syndikusrechtsanwältin bei der Deutschen Telekom und Prof. Erik Buchmann, Hochschullehrer an der HfTL haben kurz nach dem Scharfstellen der DSGVO stichprobenhaft untersucht, auf welche Art und Weise prominente Online-Händler und Dienstleistungsunternehmen auf Auskunftsersuchen nach Art. 15 DSGVO reagiert haben.

Unsere zum Teil überraschenden Ergebnisse sind nun in der "Datenschutz und Datensicherheit" veröffentlicht worden.

Mehr zum Thema


Für optimale Übertragung: 5G-Forschung an der HfTL

Der neue Übertragungsstandard 5G bietet noch höhere Bandbreiten für noch mehr Teilnehmer. Damit der koordinierte Betrieb von Mobilfunkschnittstellen gelingen kann, ist aufwendige Hochfrequenzforschung notwendig. Im Gegensatz zu bisherigen Mobilfunkstandards wie UMTS oder LTE müssen bei 5G hunderte Antennen je Basisstation präzise justiert werden. Die Wissenschaftler um Prof. Dr.-Ing. Michael Einhaus an der Hochschule für Telekommunikation Leipzig nutzen dazu ein eigenes Mobilfunknetz, in dem sie künftige Nutzungsszenarien nachstellen und verschiedene Anwendungsfälle erproben. Im Film schildert Einhaus, dass er gerade in der Interferenzkoordination und in der Kommunikation zwischen benachbarten Basisstationen die zentralen Aufgaben bei der Entwicklung der nächsten Mobilfunkgeneration sieht.

Quelle: Youtube T-Systems


Call for Paper für den Workshop "Software Qualität ist wie Schönheit"

Der Workshop findet im Rahmen der FedCSIS Multi-Konferenz vom 1.-4. September 2019 in Leipzig statt.

Der Workshop diskutiert die Besonderheiten von Software, verschiedene Methoden und Werkzeuge, Software Qualität zu messen und sichtbar zu machen sowie die Auswirkungen von Software Qualität auf die IT Sicherheit. Er hat darüber hinaus das Ziel, Partner für ein Gütesiegel „geprüfte Sicherheit“ für Software zusammen zu führen und die Politik auf das Thema aufmerksam zu machen. Die Beiträge werden in der FedCSIS 2019 Proceedings in IEEE Xplore Digital Library und FedCSIS 2019 Proceedings in Web Of Science veröffentlicht, deshalb ist die Einhaltung der Deadline zum Einreichen der Beiträge dringend erforderlich.

Weitere Informationen finden Sie unter www.fedCSIS.org.

Mehr erfahren


Datenschutz und Sicherheit in der Praxis

Vortrag Datenschutz und Sicherheit in der Praxis im Hörsaal A der HfTL
Themen aus der beruflichen Praxis der procilon IT-Solutions GmbH

"Welche Branchen fallen Ihnen beim Thema Datenschutz ein?" Mit dieser Frage eröffnete Marco Fischer seinen gut besuchten Gastvortrag in der HfTL. Dabei bezog er die Zuhörer seines Vortrages aktiv ein und konnte ganz unterschiedliche Industriezweige mit speziellen Anwendungen identifizieren.
Egal ob es sich um Krankenkassen, öffentliche Verwaltung, Justiz oder die Automobilbranche handelt - Handlungsbedarf in Sachen Datenschutz und Informationssicherheit besteht immer!. Am Beispiel der Energieversorgung schilderte er dann exemplarische Fälle aus seiner beruflichen Praxis und diskutierte mit den Gästen über aktuelle Entwicklungen im Bereich der Informationssicherheit und des Datenschutzes.

Dozent Marco Fischer ist bei der procilon IT-Solutions GmbH als Leiter Projekte & Services verantwortlich für die Realisierung unterschiedlicher Projekte rund um das Thema Daten- und IT-Sicherheit.

Die procilon Gruppe hat sich auf die Entwicklung kryptologischer Software sowie die strategische Beratung zu Informationssicherheit und Datenschutz spezialisiert.


Prof. Czarnecki diskutiert den Projektablauf mit den Studierenden.
Jedes der 15 Teams präsentierte sein Angebot vor einem fiktiven Unternehmensgremium.

Beratungsprojekt statt Vorlesung

Digitale Geschäftsmodelle, Innovationsmanagement und Automatisierung

Anstatt Vorlesungen zu besuchen, schlüpfen die Studierenden im Modul ICT-Consulting bei Prof. Czarnecki in die Rolle einer Beraterin / eines Beraters und führen mit insgesamt 15 Teams unterschiedliche fiktive Beratungsprojekte durch. Sie haben die Wahl zwischen der Entwicklung digitaler Geschäftsmodelle bei einem Automobilhersteller, der Einführung eines Innovationsmanagements bei einem Telekommunikationsunternehmen und der Automatisierung von Callcenterprozessen.

„Gute Beratung erfordert das Zusammenspiel von fachlichen, sozialen und persönlichen Kompetenzen. Wie können komplexe Sachverhalte managementtauglich präsentiert werden? Wie funktioniert Teamarbeit unter Zeitdruck?

Mehr erfahren


Einfach nicht zu stoppen!

Symbolbild Fernmeldeturm mit Antennenträger

Validierungstests mit Geräten für den Drahtlosen Internetzugang in unterversorgten Gebieten

Der nicht zu übersehende Aufbau auf der Festwiese in Markkleeberg im Süden Leipzigs ließ Passanten an Filmaufnahmen denken. Aber schnell war den Zuschauern klar, hier geht es um Technik pur. Genauer um Versuche auf hohen Frequenzen bei 60 GHz, sog. mmWave-Links, den Internetzugang in unterversorgte Gebiete zu ermöglichen.

Die Experten der Deutschen Telekom aus Bonn, Berlin und Darmstadt untersuchten gemeinsam mit einem Spezialisten von Facebook in unterschiedlichen Versuchsreihen das Verhalten des virtuellen Faser-Netzwerkes auf mmWave-Basis unter realitätsnahen Bedingungen. Mit dabei, die Mitarbeiter und Studenten aus dem Bereich Mobilfunk- und Hochfrequenztechnik der HfTL.

Mehr erfahren


Besuch aus der Panda-Stadt Chengdu

Mr. XIE (Deputy Dean of Electro-mechanical Engineering Department), Mr. WANG (Director of International Exchange Department), Ms. YANG (International Exchange Department), Prof. Claus Baderschneider, Prof. Quanwen LI (Vice President, Prof. Gunnar Auth, Prof. Oliver Jokisch, Prof. Hua WANG (Dean of Information Engineering Department), Ms. HE (TU Dresden)v.l.n.r.

Eine Delegation der SVTCC-Hochschule zu Gast in der HfTL

In der vergangenen Woche besuchte uns eine Delegation der SVTCC- Hochschule aus Chengdu.
Die Hochschullehrerinnen und Hochschullehrer aus China wurden von den Professoren Oliver Jokisch, Claus Baderschneider und Gunnar Auth in der HfTL herzlich begrüßt. Gemeinsam mit stellten Sie das Studienportfolio und die Forschungsschwerpunkte der Telekom-eigenen Hochschule vor.

Neben dem fachlichen Austausch über didaktische Lehransätze erhielten unsere Gäste bei einem Besuch des Mobilfunk-Labors von Prof. Michael Einhaus auch Einblicke in aktuelle Forschungsthemen der HfTL auf dem Gebiet der Hochfrequenztechnik und des Mobilfunks.

Die SVTCC -Hochschule hat aktuell 13.000 Studierende immatrikuliert und bietet neben Studiengängen aus der Kommunikationsbranche ein sehr breit gefächertes Studienangebot an.
Chengdu gilt gemeinhin als Stadt der Pandas, jenes weltweiten Symbols für bedrohte Tierarten.  Die Stadt liegt inmitten des Lebensraums der Pandas und verfügt über die weltgrößte Aufzuchtstation für Pandabären.


Optische Fasern müssen nicht immer rund sein: Trilobale Fasern für neuartige Anwendungen

Messaufbau für die Abstrahlung der Faser mit rotem Licht.

Optische Fasern haben normalerweise einen runden Querschnitt. Und das hat auch seinen Grund. Die Fasern können relativ einfach gefertigt werden, und das eingestrahlte Licht kann über viele Kilometer ohne nennenswerte Verluste transportiert werden. Aber was passiert, wenn andere Anforderungen an die Fasern gestellt werden?

Diese Frage hat sich Prof. Dr.-Ing. Christian-Alexander Bunge an der Hochschule für Telekommunikation Leipzig (HfTL) mit seinen Kollegen vom Institut für Textiltechnik (ITA) der RWTH Aachen gestellt. Sie entwickeln seit Jahren optische Fasern, die einfach herzustellen und für den Einsatz in der Kommunikations- und Automobilbranche besser geeignet sind. Eine spezielle Anwendung dort ist die gezielte seitliche Abstrahlung von Licht.

Mehr erfahren


SmartNav - ein innovatives, neues Bedienkonzept für Smartphones

Ihre Stimme zählt!

SmartNav - das ist ein innovatives, neues Bedienkonzept für Smartphones.

SmartNav - das ist ein innovatives, neues Bedienkonzept für Smartphones. Entwickelt wurde es mit Unterstützung der Deutschen Telekom durch Studenten der HfTL. Jetzt hat SmartNav die Chance auf die öffentliche Vorstandssitzung am 27. Nov. 2018 zu kommen und dort besprochen zu werden. Mit jeder Stimme erhöhen wir die Chance auf die Sichtbarkeit des Projekts und damit auf unseren kompetenten Nachwuchs. Toll, wozu unsere Studenten in der Lage sind!

Mehr erfahren


Student aus Syrien erhält DAAD-Preis 2018

Übergabe des DAAD-Preises 2018 an M.Charaf im Gewandhaus zu Leipzig durch Prof. Baderschneider und Birgit Graf

Den DAAD-Preis 2018 der Hochschule für Telekommunikation Leipzig (HfTL) für ausländische Studierende erhält in diesem Jahr der syrische Student Mohamad Buchr Charaf. Im Rahmen der Exmatrikulationsfeier am 12. Oktober im Gewandhaus zu Leipzig wurde der Preis durch Prof. Dr. Claus Baderschneider, Prorektor für Internationales, überreicht.

Mohamad Buchr Charaf wurde für sein soziales Engagement und für seine wissenschaftlichen Leistungen durch Prof. Dr.-Ing. Michael Einhaus für den DAAD-Preis vorgeschlagen.
Dieser Vorschlag wurde durch Kommilitonen, den Studentenrat, Mitarbeiter der Hochschule und durch Prof. Dr. Claus Baderschneider, unterstützt.

Herr Charaf studierte an der HfTL im englischsprachigen Studiengang „Internationaler Master in Information and Communication Technology“ und hat für seine exzellente Abschlussarbeit auf dem Gebiet der 5G-Forschung den Abschluss als Master of Engineering erworben.

Mehr erfahren


Studierende im Gewandhaus zu Leipzig feierlich verabschiedet

Glückwunsch von Dr. Elke Frank (DTAG, HRD) zur Investitur für die neue Rektorin der HfTL, Prof. Dr. Christiane Springer
Leitung der HfTL

Mit einem Festakt verabschiedete die Rektorin der Hochschule für Telekommunikation Leipzig (HfTL), Prof. Dr. Christiane Springer, am 12. Oktober 2018 direkte und berufsbegleitende Bachelor- und Masterstudenten im Mendelssohn-Saal des Gewandhauses zu Leipzig aus den Reihen der eingeschriebenen Kommilitonen.

Aber die Absolventen, Gäste und zahlreichen Mitarbeiter feierten nicht nur den bestandenen Studienabschluss unserer Studierenden, sondern auch die Investitur der neuen Rektorin, Prof. Christiane Springer und die Verabschiedung von Altrektor Prof. Volker Saupe in den verdienten Ruhestand.

In ihrem Grußwort gratulierte die Rektorin der HfTL den Absolventen zum erfolgreichen Abschluss des Studiums und wünschte ihnen alles Gute für die Zukunft.
 „Ohne die Förderung durch den Träger, die Deutsche Telekom AG, wäre eine solche private Hochschule nicht existent. Ich möchte mich an dieser Stelle bei der Geschäftsführung der Trägergesellschaft  für zahlreiche wertvolle Impulse und die Unterstützung bei Forschungsvorhaben bedanken. Unsere Studierenden profitieren davon in einem außerordentlichen Maß und können als künftige Mitarbeiter der Telekom dieses Wissen sofort anwenden “, erklärte Prof. Christiane Springer. In ihrer Rede würdigte Prof. Christiane Springer auch die Leistungen für die Studierenden 

Mehr erfahren


Förderung von MINT-Talenten

Begrüßung der Teilnehmer und Gäste in der HfTL
Immatrikulation der Teilnehmer der JIA durch die Rektorin der HfTL, Prof. Christiane Springer

Am 26. September 2018 war es wieder so weit. Zwanzig Schülerinnen und Schüler aus drei Leipziger Gymnasien wurden in einem feierlichen Rahmen durch die Rektorin der HfTL, Prof. Christiane Springer, in die Junior-Ingenieur-Akademie (JIA) immatrikuliert.

In ihren Grußworten betonten die Vertreter der Gymnasien, der Stadt Leipzig und des langjährigen Kooperationspartners der JIA, der Porsche Leipzig GmbH, die Nachhaltigkeit und den Wert der langfristigen Förderung von MINT-Talenten (Mathematik, Informatik, Naturwissenschaft und Technik) für Leipzig und die Region.

Welche Ergebnisse aus der JIA entstehen können, stellte Prof. Jens Wagner mit dem Team Dezibot vor. Die Teilnehmer des Teams haben vor mehreren Jahren in der JIA das Modul Informatik und Robotik bearbeitet und waren „Feuer und Flamme“ für dieses Thema. In zahllosen Stunden haben sie getüftelt, programmiert, gelötet und dokumentiert – und das Ergebnis, der Dezibot, kann sich sehen lassen.  

Mehr erfahren


Neue Impulse für die Digitalisierung

Eröffnung der DAS2018 durch Prof. Jokisch (Co-Chair) und Prof. Auth (Chair), v.l.n.r.
Blick in den Hörsaal

Neue Impulse für die Digitalisierung, die Bildung und die Gesellschaft geben – so skizziert Prof. Gunnar Auth (HfTL) gemeinsam mit Prof. Oliver Jokisch (HfTL) in seiner Begrüßung und Eröffnung der Digital Academics Summit 2018 (DAS 2018) das Konzept dieses Treffens der digitalen Wissenschaftscommunity in Leipzig.

Die „DAS 2018“ wurde aufgrund des großen Erfolgs und der entstandenen Nachfrage aus der Konferenz des vergangenen Jahres von Prof. Auth (Chair) gemeinsam mit Prof. Jokisch (Co-Chair) nun zum zweiten Mal organisiert.

Bildergalerie

Das Digitalisierung mehr als nur neue Technik ist und es daneben auch beispielsweise neue didaktische Konzepte für die Bildung an Hochschulen bedarf, führte Prof. Christiane Springer, Rektorin der HfTL, in ihrem Vortrag an Hand von Beispielen aus der Praxis aus. In ihrer Rede ging Sie auch auf die vielschichtigen Veränderungen in der Gesellschaft durch die Digitalisierung ein.

Mehr erfahren


LRK Sachsen wehrt sich gegen Rechtsextremismus

Die sächsischen Universitäten und Hochschulen stehen für Weltoffenheit und Toleranz, Menschlichkeit und Respekt. Dies sind – wie auch die Freiheit von Forschung und Lehre – unantastbare Werte. Sie sind sowohl Grundlage für das Miteinander der Gesellschaft als auch für Spitzenleistungen in Forschung und Lehre. Für uns als Hochschulen gilt, dass wir mittels wissenschaftlich fundierter Analysen einen Beitrag zum Verstehen und Tragen von Verantwortung leisten.
Durch die Entwicklungen der vergangenen Jahre in Sachsen und zuletzt in Chemnitz sehen wir diese Werte bedroht. Wir erleben, dass Sachsen inzwischen ein massives Problem mit Rechtsextremismus hat, das jahrelang von großen Teilen der Politik und den Behörden unterschätzt und teilweise sogar verharmlost wurde.

Mehr erfahren


Neuer Hochschullehrer stärkt Forschung und Lehre in der EMV und Kommunikationstechnik

Dr.-Ing. Robert Geise

Dr.-Ing. Robert Geise ist zum 01. August 2018 als Hochschullehrer im Fachgebiet Elektrotechnik und Elektromagnetische Verträglichkeit (EMV) an der Hochschule für Telekommunikation Leipzig (HfTL) berufen worden. Er wird ab dem kommenden Wintersemester in den von der HfTL angebotenen Bachelor- und Masterstudiengängen Vorlesungen mit dem inhaltlichen Schwerpunkt Antennentechnologie, elektromagnetische Felder und Wellenausbreitung halten.

Neben der theoretischen Wissensvermittlung wird Dr. Geise praxisorientierte Lehre in den Laboren der HfTL geben und dabei in seinen Übungen den Studierenden anhand eigener Erfahrungen aus der Forschung einen tieferen Einblick in das Gebiet der EMV u.a. mit dem Schwerpunkt Messtechnik und Antennentechnologie geben.

Dr. Geise schloss 2004 erfolgreich sein Studium als Diplom-Ingenieur an der Technischen Universität Braunschweig ab. Als wissenschaftlicher Mitarbeiter an der TU Braunschweig forschte er im Institut für Elektromagnetische Verträglichkeit  gemeinsam mit Industriepartnern aus dem Bereich der Luftfahrt und der Automobilindustrie.

Mehr erfahren


Heimliche Zuhörer

Die Vernetzung von Geräten, Maschinen und Gadgets mit Hilfe des Internets der Dinge (IoT) ist mittlerweile ein fester Bestandteil unseres täglichen Lebens. Ein wichtiger Bestandteil des IoT sind Sprachassistenten, wie Alexa, Siri, Bixby, Cortana oder Google Assistent. Schon heute existieren zahlreiche sprachgesteuerte Dienste und es scheint keine Grenzen in den Anwendungsmöglichkeiten für den User zu geben. Aber wie sieht es mit dem Datenschutz aus? Unsere Studentin Katrin Winkler stellt euch in diesem Video einen Prototypen vor, der es Anbietern von Sprachassistenzsystemen erschwert, Rückschlüsse auf das Nutzerverhalten zu ziehen und somit für ein höheres Maß an Datenschutz und Privatsphäre sorgt.

Bildrechte/ Quellen: siehe Video

 

 


Rektor der HfTL geht in den Ruhestand

Prof. Dr.-Ing. habil. Volker Saupe

Der langjährige Rektor der Hochschule für Telekommunikation Leipzig (HfTL), Prof. Dr.-Ing. habil. Volker Saupe, wird zum 31. August 2018 in den Ruhestand verabschiedet. Bereits zum 31. Juli 2018 wird er die Amtsgeschäfte an Frau Prof. Dr. Christiane Springer übergeben.

Prof. Saupe kann auf über sechsundvierzig erfolgreiche Arbeitsjahre zurückblicken, davon über dreißig in der akademischen Aus- und Weiterbildung von Studierenden und Wissenschaftlern.

Angefangen vom technischen Studium an der Hochschule Mittweida, welcher sich Prof. Saupe auch heute noch als Alumnus verbunden fühlt, über eine Anstellung als Labor-Ingenieur im Buchungsmaschinenwerk Karl-Marx-Stadt (jetzt Chemnitz) und als wissenschaftlicher Mitarbeiter, sammelte er zahlreiche praktische Erfahrungen. Diese konnte er mit der Gründung eines eigenen Unternehmens in der IT-Branche umsetzen.

Als anerkannter Experte für IT-gestützte Bildungssysteme und Technologien implementierte er im Rahmen unterschiedlicher Projekte ab dem Jahr 2000 das E-Learning an sächsischen Hochschulen. 

Mehr erfahren


Auf nach Las Vegas!

Die Projektgruppe präsentiert den Dezibot
Vorstellung des Posters für die CSCE 18 in der Neuen Nikolai-Schule in Leipzig

Heute, am 27.07.2018, starten die vier Schülerinnen und Schüler aus Leipziger Gymnasien gemeinsam mit Prof. Jens Wagner (HTWK Leipzig) zum World Congress in Computer Science, Computer Engineering, & Applied Computing (CSCE 18) in Las Vegas.

Mit im Gepäck sind 10 Dezibots. Das sind von der Projektgruppe entwickelte Roboter, welche sich miteinander vernetzen können, eigenständig Aufgaben lösen können und durch den Nutzer programmierbar sind. Aufgrund ihrer geringen Kosten, so kostet ein Dezibot in Summe nur 7,73 US-Dollar, soll dieser Roboter später als Klassensatz im Informatikunterricht an Schulen zum Einsatz kommen.

Am gestrigen Tag (26.07.2018) stellte sich die gesamte Projektgruppe in der Leipziger Neuen Nikolai-Schule den Fragen des Mitteldeutschen Rundfunks und anderer Medienvertreter.
Dabei unterstrichen die Schüler noch einmal, wie wichtig sie die Ausbildung von Kompetenzen im Bereich der Informatik an Schulen halten. Der Dezibot vermittelt neben praktischen Fähigkeiten auch ein sofortiges Erfolgsergebnis – denn die Schüler sehen hier, was sie programmiert haben. Gut eine Stunde erklärten sie den Medienvertretern ihre Beweggründe für das Projekt, technische Besonderheiten des Dezibots und welche Berufs- und Studienwünsche sie haben.

Mehr erfahren


DIGITAL ACADEMICS SUMMIT 2018

DAS 2018 in der HfTL

Vom 13.-14. September 2018 trifft sich die digitale Wissenschaftscommunity beim 2. Digital Academics Summit in der Hochschule für Telekommunikation Leipzig (HfTL).

Im Fokus der Praxistagung zur Digitalisierung in Lehre, Studium, Forschung und Verwaltung steht in diesem Jahr das Leitthema „Digitale Innovationen in Bildung & Wissenschaft“. Neben technologischen Betrachtungen werden auch strategische und organisationsbezogene Aspekte des Innovationsmanagements für Hochschulen und Forschungseinrichtungen diskutiert. Den Eröffnungsvortrag zum Thema „Die Digitalisierungsstrategie des Landes Sachsens unter besonderer Berücksichtigung von Wissenschaft und Bildung“ hält die Staatsministerin für Wissenschaft und Kunst des Freistaats Sachsen Dr. Eva-Maria Stange.

Mehr erfahren


SPECOM & ICR 2018

SPECOM 2018
ICR 2018

Die Fachkonferenz SPECOM richtet sich an Forscher, Entwickler und Anwender zu aktuellen Themen der Sprachverarbeitung und Textanalyse (z. B. Assistenzsysteme), Sprecheranalyse (beispielsweise Emotionserkennung), multimodalen Mensch-Maschine-Interaktion (HMI), Qualitätsbewertung von Telekommunikationssystemen und weiteren Spezialgebieten.

Die integrierte ICR-Konferenz stellt eine Brücke zu neuesten Robotikthemen im Kontext von Künstlicher Intelligenz, Cyber-Physischen Umgebungen und Industrie 4.0 her. Beide Konferenzen können flexibel mit einer Anmeldung besucht werden.

Mehr über die Konferenz erfahren


Studierende als Unternehmer

Bildimpressionen vom TeamSoc21 aus Zagreb

Drei spannende Monate erlebten Studierende aus der HfTL gemeinsam mit Kommilitonen aus Spanien, Frankreich, Ungarn, Bulgarien und Rumänien im Rahmen des internationalen „TeamSoc 21“ Projekts. Von Februar bis April nahmen die Studierenden in unterschiedlichen Projektgruppen an Workshops, virtuellen Vorlesungen und praktischen Übungen teil.

Ziel dieses internationalen Projektes ist es, ein, die nationalen Grenzen übergreifendes, multidisziplinäres Netzwerk zu schaffen und so Studienprogramme im IKT-Bereich fit für die gesellschaftlichen Herausforderungen der Zukunft Europas zu machen. Dabei sollen Studierende unternehmerische Erfahrungen sammeln und gemeinsam Lösungen für Probleme von morgen finden.

Mehr erfahren


Prof. Dr. Christiane Springer als neue Rektorin der HfTL gewählt

Gratulation zur Wahl für die neue Rektorin Prof. Springer vom Amtsinhaber Prof. Saupe

Der Erweiterte Senat der Hochschule für Telekommunikation Leipzig (HfTL) hat am 26. Juni 2018 Prof. Dr. Christiane Springer mit absoluter Mehrheit als neue Rektorin gewählt.

Sie übernimmt zum 1. August 2018 das Rektoramt von Prof. Dr.-Ing. habil. Volker Saupe, welcher seit 2010 dieses Amt innehatte und mit Ablauf des Semesters in den Ruhestand geht. In seiner Amtszeit hat er das duale und berufsbegleitende Studienangebot kontinuierlich erweitert und den Lehr -und Forschungsschwerpunkt der HfTL auf die Zukunftstechnologien einer digitaler werdenden Gesellschaft fokussiert.

Prof. Springer forscht und lehrt seit Mitte 2010 als Professorin in den Fachgebieten BWL, Marketing und Management. Nach ihren Tätigkeiten bei Microsoft, dem ZDF, dem Fraunhofer‐Institut, der Leipziger Messe und der Ogilvy-Gruppe, leitete sie neben ihrer Promotion das Competence Center Media Management an der Handelshochschule Leipzig (HHL) und übernahm vor ihrer Berufung die  Geschäftsführung der Leipzig School of Media (LSoM).

Mehr erfahren


Feierliche Übergabe der Abiturzeugnisse

Blick in den Hörsaal
Übergabe der Zeugnisse

Traditionell erhalten die Abiturienten des Beruflichen Gymnasiums der Leipziger Arwed-Rossbach-Schule immer Ende Juni ihre Abiturzeugnisse im Hörsaal C der Hochschule für Telekommunikation Leipzig (HfTL). Denn seit vielen Jahren verbindet beide Einrichtungen eine Partnerschaft und die Übergabe der Zeugnisse in einem würdigen Rahmen ist einer der Punkte dieser Kooperation.

Sich hohe Ziele setzen, Grenzen überwinden und dabei Leistung zeigen. So skizzierte der Schulleiter, Herr Engler die erbrachten Leistungen der Abiturienten. „Grenzen sind relativ wenn es darum geht, Erfolg zu haben.“ erklärte Engler in seinem Grußwort an die Absolventen und dankte den anwesenden Freunden, Eltern und Verwandten für die Unterstützung.

Bevor Prof. Dr. Claus Baderschneider, Prorektor für Marketing und Internationale Beziehungen der HfTL, die beste Studentin auszeichnete, gab er in einer kurzen Grußbotschaft den Absolventen einige Ratschläge mit auf den kommenden Lebensabschnitt. Zeugnisse A-Rossbach

Mehr erfahren


Feierlicher Abschluss der Junior-Ingenieur-Akademie

Gruppenbild der Teilnehmer

Nach zwei Jahren intensiven Lernens bedankten sich Absolventinnen und Absolventen der Junior Ingenieur Akademie in einer Festveranstaltung an der HfTL. Dabei waren die drei Leipziger Gymnasien: Kant-Gymnasium, Werner-Heisenberg-Gymnasium, Gymnasium Neue Nikolaischule sowie als Praxispartner Porsche Leipzig GmbH, die Deutsche Telekom Technik GmbH und die VDI Garage  und die HfTL.

Technik erlebbar machen. Nachwuchs in den MINT-Fächern (Mathematik, Ingenieurwissenschaften, Naturwissenschaften und Technik) zu gewinnen und dabei gleichzeitig den Frauenanteil in diesen Studienfächern zu erhöhen, all das sind Ziele der Junior Ingenieur Akademie.

Mehr erfahren


CfS - Call for Speaker für den Workshop

Sicher in der Digitalisierung mit geprüfter Software
Der von Prof. Dr.-Ing. Sabine Radomski, Professorin an der Hochschule für Telekommunikation Leipzig (HfTL), gemeinsam mit Dr. Aleksandra Sowa, DSB, DSA (TÜV) und IT Compliance Manager, innerhalb der Gesellschaft für Informatik e.V. initiierte Arbeitskreis „Sicher in die Digitalisierung mit geprüfter Software“ lädt Sie ein, Vorschläge für Vorträge oder Präsentationen auf der diesjährigen Informatik 2018 am 26.-27. September in Berlin einzureichen.

Mit dem Workshop wird die Arbeit aus dem Workshop „Software Qualität ist wie Schönheit“ auf der Informatik 2016 fortgesetzt und fortentwickelt.

Mehr erfahren


Frag den Frosch

Frag den Frosch ist das Format einer Kinderuni für Kinder im Vorschulalter in der HfTL. Auf spielerische Weise und ganz praktisch ausgerichtet können die kleinen Forscher aus Zitronen, Schrauben, Kupferblättchen elektrische Energie gewinnen und eine LED zum Leuchten bringen.
Hier besuchten uns die Kinder aus dem Leipziger Kindergarten in der Gustav-Freytag-Str. 31. Wie man sieht, sind sie mit Feuereifer bei der Sache und für die Eltern gibt es den selbst gezeichneten "Experimentalaufbau" mit nach Hause.

Mehr Bilder


Digital Transformation of the Customer Experience Journey

Stefan Rakebrandt (Telecommunications Innovation Advisor, Oracle) erläutert die enormen Veränderungen durch die Digitale Transformation

Wird es in 10 Jahren noch SIM-Karten geben? Mit wem wird der Kunde zukünftig seinen Mobilfunkvertrag abschließen? Welche Rolle spielen dabei Daten? Und was hat Pokémon Go damit zu tun?

Antworten auf diese spannenden Fragen gab Stefan Rakebrandt (Telecommunications Innovation Advisor, Oracle) in seinem abwechslungsreichen und visionären Vortrag. Dabei startete er mit einem Rückblick auf die enormen Veränderungen der letzten 10 Jahr und wagte einen Ausblick auf die zukünftige Entwicklung der Branche. Anhand eindrucksvoller Praxisbeispiele zeigte er, warum

Mehr erfahren


Digitale Transformation in der Telekommunikationsindustrie

Jan Grineisen diskutiert mit den Studierenden aktuelle Praxisprojekte

Digitale Transformation in der Telekommunikationsindustrie

Gastvortrag von Jan Grineisen

Über die Digitale Transformation wird momentan viel spekuliert. In der Praxis ist sie längst angekommen. Anhand aktueller Projektbeispiele hat Jan Grineisen (Managing Consultant, Detecon) erläutert, was die Herausforderungen und mögliche Lösungen für Telekommunikationsunternehmen sind. „Die Digitale Transformation ist ein weltweites Phänomen. Telkos stehen momentan an einem Scheideweg. Entweder sie reduzieren sich auf reine technische Übertragungsleistung – sogenannte Bit Pipes – oder sie schaffen es, sich mit innovativen Geschäftsmodellen zu behaupten“, fasst Jan Grineisen seine Erfahrungen zusammen.

Mehr erfahren


Von Leipzig nach Las Vegas

Das Dezibot-Projektteam im Labor Technische Informatik der HfTL
Dezibot

Vier Leipziger Schülerinnen und Schüler, ehemalige Teilnehmer der Junior-Ingenieur-Akademie in der Hochschule für Telekommunikation Leipzig (HfTL), nehmen gemeinsam mit Prof. Dr. Jens Wagner am World Congress in Computer Science, Computer Engineering, & Applied Computing (CSCE 18) in diesem Sommer in Las Vegas teil. In einem Vortrag vor Fachpublikum stellen sie ihr Projekt eines preiswerten Roboterbausatzes namens „Dezibot“ für den Informatikunterricht an Schulen vor.

Mit Las Vegas verbinden die meisten Menschen den hell erleuchteten Las Vegas Strip mit seinen riesigen Hotels, Casinos und touristischen Sehenswürdigkeiten. Aber die größte Stadt im US-Bundesstaat Nevada hat noch mehr zu bieten. So zum Beispiel einen der renommiertesten Informatikkongresse weltweit. 

Und zu diesem Kongress reisen die vier Elftklässler Saskia Uta Dübener, Anton Jacker, Anina Ambra Morgner und Hans Felix Haupt aus drei Leipziger Gymnasien gemeinsam mit Prof. Dr. Jens Wagner vom 30. Juli bis 2. August 2018.

Mehr erfahren


13.000 Vorlesungen

Hochschullehrer mit Leib und Seele: Michael Graf bei einer Vorlesung
Feierliche Verabschiedung von Michael Graf durch das Rektorat, Kolleginnen und Kollegen sowie ehemalige Studierende

13.000 Vorlesungen – so viele hat Michael Graf als Hochschullehrer für Physik seit dem Beginn seiner Tätigkeit an der Hochschule für Telekommunikation Leipzig (HfTL) und den Vorgängereinrichtungen gehalten. Tausende Studierende haben bei ihm die Grundlagen der Physik, der Elektro-Akustik und Photonik gelernt und ihr Wissen in Experimenten praktisch unter Beweis gestellt.

Doch damit ist jetzt Schluss. Nach 35 Jahren als Hochschullehrer geht Michael Graf in den wohlverdienten Ruhestand. Zeit für einen kleinen Rückblick:

Physik hat Ihn schon immer fasziniert – und folgerichtig studierte Michael Graf an der Leipziger Universität Lehramt Physik und Mathematik. Damals war sein Ziel, später als Lehrer an einer Schule zu arbeiten. Doch es sollte anderes kommen.

Mehr erfahren


Beratungsprojekt statt Vorlesung

Digitale Geschäftsmodelle in der Automobilindustrie

Anstatt Vorlesungen zu besuchen, schlüpften die Studierenden im Modul ICT-Consulting bei Prof. Czarnecki in die Rolle einer Beraterin / eines Beraters. Dazu wurde in der Projektwoche ein fiktives Beratungsprojekt zur Entwicklung von digitalen Geschäftsmodellen in der Automobilindustrie durchgeführt.

„Gute Beratung erfordert das Zusammenspiel von fachlichen, sozialen und persönlichen Kompetenzen. Wie funktioniert Teamarbeit unter Zeitdruck? Wie geht man mit schwierigen Gesprächspartnern um? Mein Ziel ist es, den Studierenden diese Kompetenzen möglichst praxisbezogen zu vermitteln. Ich fand es spannend zu sehen, wie sich die Studierenden mit viel Eigeninitiative und Kreativität in das Projekt eingebracht haben“, resümiert Prof. Czarnecki.

„Die Durchführung des Projektes war eine angenehme und erfahrungsreiche Abwechslung vom normalen Lehrbetrieb“, meint Hr. Sebastian Walter.

Wie in einem realen Beratungsprojekt hatten die Studierenden einen vollen Terminkalender. Startpunkt lieferte ein Request-for-Proposal (RfP), auf den die Studierenden mit einem Angebot geantwortet haben. Danach begann das Projekt mit einer Analysephase, bei der in einem Rollenspiel unterschiedliche Unternehmenspositionen zu berücksichtigen waren. Am späten Nachmittag war die Präsentation der Zwischenergebnisse im Steuerkreis notwendig. Auch die weitere Ausgestaltung von digitalen Geschäftsmodellen erfolgte in Teamarbeit. Mit einer Abschlusspräsentation endete das Projekt nach drei Tagen.

„Ich fühlte mich, als würde ich in einer echten Beratungsfirma arbeiten. Ich möchte Hrn. Czarnecki für die Organisation / Support und meinem Team für die tolle Erfahrung danken“, fasst Fr. Imane Faqir ihre Eindrücke zusammen.

Prof. Czarnecki mit den Studierenden Fr. Imane Faqir, Hr. Konrad Wagner und Hr. Sebastian Walter (v.l.n.r.)
Hr. Wagner bei der Angebotspräsentation
Hr. Wagner, Hr. Walter und Fr. Faqir (v.l.n.r.) bei der Diskussion mit dem Steuerkreis
 

Prof. Meier zum Dekan der Fakultät Informations- und Kommunikationstechnik gewählt

Prof. Thomas Meier,Dekan der Fakultät Informations- und Kommunikationstechnik

Auf Vorschlag des Rektors und im Benehmen mit dem Senat hat Herr Prof. Dr. Meier am 8. Mai 2018 die Funktion des Prorektors für Studium und Forschung übernommen.

Der Fakultätsrat hat am 15.05.2018 Herrn Prof. Meier zum Dekan der Fakultät Informations- und Kommunikationstechnik gewählt. Die Hochschulleitung bedankt sich bei Herrn Prof. Meier für sein Wirken und wünscht viel Erfolg bei der Amtsführung.

Die Neubesetzung war erforderlich, da der bisherige Amtsinhaber Herr Prof. Müller zum 01. Mai 2018 den Ruf an einer anderen Hochschule angenommen und somit die Hochschule für Telekommunikation Leipzig verlassen hat.


Entscheidungen werden zukünftig durch das Internet der Dinge unterstützt:

Symbolfoto für die IoT Anwendung „Park and Joy", intelligentes Parksystem.

Die Hochschule für Telekommunikation Leipzig (HfTL) forscht gemeinsam mit der Detecon International GmbH, der Unternehmensberatung der Deutschen Telekom, im Themenfeld des Internet of Things (dt. Internet der Dinge). Das IoT gewinnt zunehmend an Bedeutung, so waren 2016 ca. 6,4 Milliarden Geräte vernetzt und für das Jahr 2020 prognostiziert Gartner Inc. einen Anstieg auf rund 19,3 Milliarden Geräte.

Damit ist IoT ein wichtiger technologischer Treiber der Digitalisierung. Die damit möglichen Geschäftsmodelle bieten große Wachstumschancen und interessante Perspektiven für die Zukunft der deutschen Wirtschaft.
Mit Hilfe von Analysen aus bestehenden IoT-Anwendungen gehen die Forscher der Frage nach, wie aus dem Zusammenspiel verschiedener Akteure durch IoT-Anwendungen ein wirtschaftlicher Mehrwert geschaffen werden kann.

Eine Wertschöpfung entsteht, wenn aus den Sensoren des IoTs relevante Informationen (sogenannte „Insights“) abgeleitet werden und damit die Entscheidungsagilität erhöht wird. Als Weiterentwicklung herkömmlicher verbindungsorientierter Geschäftsmodelle werden informationsgetriebene Modelle vorgeschlagen.

Mehr erfahren


Absolventin der HfTL erhält VDE - Preis

Übergabe des VDE-Preises an Stephanie Bauer

Auf der diesjährigen Hauptversammlung des VDE-Bezirksvereins Leipzig/ Halle in den Räumen der enviaM in Halle/Saale wurden neben aktuellen Themen, wie der Digitalisierung der Gesellschaft, der Weiterbildung von Experten auch traditionell herausragende Abschlussarbeiten ausgezeichnet. Stephanie Bauer, Absolventin der Hochschule für Telekommunikation Leipzig (HfTL), erhielt für ihre exzellente Abschlussarbeit auf dem Gebiet der IT-Sicherheit einen der Preise des VDE-Bezirksvereins.
Nach der Ansprache von VDE-Vorstand Heinrich Wienold zu den künftigen Herausforderungen des Verbands der Elektrotechnik Elektronik Informationstechnik e. V. (VDE) wurden drei Absolventen verschiedener mitteldeutscher Hochschulen für ihre hervorragenden Abschlussarbeiten ausgezeichnet.
Für die Erarbeitung eines innovativen Sicherheitskonzepts für Docker Container nach der Vorgehensweise des IT- Grundschutzes des Bundesamts für Sicherheit in der Informationstechnik (BSI) erhielt Stephanie Bauer, Absolventin des Bachelor-Studiengangs Wirtschaftsinformatik an der HfTL einen der vom VDE gestifteten Preise. Frau Bauer ist Mitarbeiterin der Deutschen Telekom AG im Bereich Internal Audit and Risk Management.

Mehr erfahren


Keine Beanstandung der wissenschaftlichen Qualität in der Lehre

Aussenansicht HfTL

Das Staatsministerium für Wissenschaft und Kunst (SMWK) hat am 30. April 2018 beschlossen, die staatliche Anerkennung der Hochschule für Telekommunikation Leipzig (HFTL) bis zum 31. Dezember 2020 zu erteilen. Da der Wissenschaftsrat der HfTL eine hohe Leistungsfähigkeit in der Lehre bescheinigt, wird die Verlängerung der staatlichen Anerkennung ohne Nebenbestimmungen ergehen. Auch von Seiten der Akkreditierungsagentur für Studiengänge der Ingenieurwissenschaften, der Informatik, der Naturwissenschaften und der Mathematik e. V. (ASIIN) wurde erst kürzlich im Rahmen der erfolgreichen Programmakkreditierungen die Qualität in der Lehre bestätigt.

Mehr erfahren


Abschied in den (UN)-Ruhestand

Glückwünsche zum Ruhestand von Kollegen
Laudatio von Prof. Schemmert
Prof. Krause erzählt aus seinem Berufsleben
 

Siebzehn Jahre hat Prof. Dr. Matthias Krause an der Hochschule für Telekommunikation im Fachbereich Programmierung gelehrt. Unzählige direkte, duale und berufsbegleitende Bachelor- und Masterstudierende hat er in die Geheimnisse von Java und anderen Programmen eingeführt. Als langjähriges Mitglied in den unterschiedlichsten akademischen Gremien hat er die Ausrichtung und Entwicklung der Hochschule aktiv mitgestaltet. Die Gewinnung und Förderung von interessierten Studienanfängern war ihm ein wichtiges Anliegen. Mit seiner Vorlesung  „Die Türme von Hanoi“ zu Tagen der offenen Tür, dem Schnupperstudium oder Studieninformationstagen gelang es ihm, junge Menschen von einem Informatik-Studium zu überzeugen.

Nun heißt es Abschied nehmen, denn ab Mai 2018 kann Prof. Krause den wohlverdienten Ruhestand genießen.

Vorher jedoch verabschiedeten sich aktive und ehemalige Mitarbeiter der HfTL, Studierende und Wegbegleiter mit einer Feier bei ihm. In seiner Laudatio ließ Prof. Schemmert noch einmal die beruflichen Stationen von Prof. Krause Revue passieren. Der Rektor der HfTL, Prof. Dr.-Ing. habil. Volker Saupe dankte Prof. Krause für seine langjährige, erfolgreiche Lehrtätigkeit und wünschte ihm für den kommenden Lebensabschnitt alles Gute.

„Lehrer sein zu dürfen und jungen Menschen etwas beizubringen war eine Traumaufgabe für mich.
Es waren die besten beruflichen Jahre für mich, auch weil sie mit einem entsprechendem sozialen Umfeld und einer gewissen Sicherheit verbunden waren“ zog Matthias Krause ein positives Fazit seiner Tätigkeit und lobte gleichzeitig das kollegiale Verhältnis an der Hochschule.

Wie Prof. Krause zum Abschluss der Feier verriet, wird er künftig mehr Zeit für die Familie und seine Hobbys haben, also wandern, fotografieren oder auch mal programmieren.

Wir wünschen Matthias Krause alles Gute und einen aktiven (Un)Ruhestand.

Bildergalerie Verabschiedung Prof. Krause

Der Rektor der HfTL wünscht alles Gute zum Ruhestand
Gute Wünsche von Kolleginnen und Kollegen aus der HfTL
Gute Wünsche von Kolleginnen und Kollegen aus der HfTL
Prof. Krause erzählt aus seinem Berufsleben...nachdenkliche und lustige Episoden
Laudatio von Prof. Schemmert
Erinnerungsgeschenk für Prof. Krause
Gemütlicher Ausklang der Feier
Gespräch mit Kolleginnen aus der HfTL

Wissenschaftliche Qualität auf hohem Niveau

Studierende im Labor Elektrotechnik der HfTL

Die Akkreditierungsagentur für Studiengänge der Ingenieurwissenschaften, der Informatik, der Naturwissenschaften und der Mathematik e. V. (ASIIN) hat am 16. April 2018 die direkten, dualen und berufsbegleitenden Bachelorstudiengänge Informations- und Kommunikationstechnik (IKT) bis zum 30.09.2023 verlängert. Damit wird der Hochschule für Telekommunikation Leipzig (HfTL) die wissenschaftliche Qualität in der Lehre von unabhängiger Seite zum wiederholten Mal bestätigt.

Akkreditierungsurkunde


Verantwortung gewinnt!

Das Projektteam "Transplant-Tiger"

Absolventen der HfTL erreichen 1. Platz im Wettbewerb

„Verantwortung gewinnt“ ist ein bundesweiter Wettbewerb der Deutschen Telekom. Auszubildende und duale Studierende des Konzerns können hier nachhaltige und soziale Projekte einreichen. Im Rahmen einer Festveranstaltung gewannen bei der Live-Abstimmung die Absolventen der HfTL mit ihrer App „Transplant-Tiger“ den ersten Preis. Während ihres Studiums an der HfTL haben die Studierenden standortübergreifend einen datenbankgestützten, digitalen Organspendenausweis konzipiert und einen ersten Prototypen erstellt. Ein weiteres Ziel des Projektteams ist es, Menschen über ein in der App befindliches Quiz mit den verschiedenen Facetten der Organspende vertraut zu machen, Vorbehalte abzubauen und die Bereitschaft zur Organspende zu erhöhen.


Vereinsgründung: „Leipzig Science Network“ strebt strategische Zusammenarbeit im Leipziger Wissenschaftsbetrieb an

Der Vorstand des Leipzig Science Network: Daniel Mayer (Administrativer Geschäftsführer Deutsches Biomasseforschungszentrum), Claudia Kostka (Verwaltungsleiterin TROPOS - Leibniz-Institut für Troposphärenforschung e.V.), Oliver Grimm (Kanzler Hochschule für Musik und Theater „Felix Mendelssohn Bartholdy“ Leipzig) (v.l.n.r.). Foto: Philip Köhler.

Der Wandel der Rahmenbedingungen für die öffentliche Wissenschaftsfinanzierung, der Wettbewerb um hochqualifizierte Fachkräfte, die wissenschaftliche Sichtbarkeit sowie zukünftige Drittmittel-förderungen sorgen für neue Herausforderungen im Wissenschaftsbetrieb. Mit der Vereinsgründung des „Leipzig Science Network“ (LSN) haben Vertreter verschiedener Leipziger Institutionen am 17. April 2018 den Aufbau eines nachhaltigen Wissenschaftsnetzwerkes für den Standort Leipzig initiiert. Gemeinsam sollen die vielfältigen administrativen Aufgaben des Wissenschaftsbetriebs zukünftig besser koordiniert und strategisch ausgebaut werden.

Unter dem Dach des neu gegründeten gemeinnützigen Vereins, dem sich aktuell insgesamt 15 Leipziger Wissenschafts- und Hochschuleinrichtungen angeschlossen haben, sollen sowohl wissen-schaftliche Kooperationen ausgebaut wie gemeinsame Aktivitäten der in der Region ansässigen Forschungsinstitutionen gebündelt werden. Hierzu zählen unter anderem (inter-)nationales Standort-marketing sowie die Repräsentation gegenüber Wirtschaft, Politik und Gesellschaft. Gemeinsames Ziel ist es, den Wissenschaftsstandort Leipzig inhaltlich zu stärken und die Sichtbarkeit nach außen zu erhöhen.

Mehr erfahren


Neuer Hochschullehrer für Angewandte Informatik an der HfTL

Ingo Müller, Ph.D.

Herr Ingo Müller, Ph.D., ist zum 01. März 2018 als Hochschullehrer im Fachgebiet Angewandte Informatik / Programmierung eingestellt worden. In den von der Hochschule für Telekommunikation Leipzig (HfTL) angebotenen Bachelor- und Masterstudiengängen wird er in seinen Vorlesungen den thematischen Schwerpunkt auf den gesamten Zyklus der Erstellung von Software legen.

Die HfTL gewinnt mit Herrn Müller einen Wissenschaftler, welcher durch seine internationalen Erfahrungen in der IT-Branche die anwendungsorientierte, wissenschaftliche Lehre stärken wird.
Seine Zusammenarbeit mit Industriepartnern im Rahmen von Forschungs- und Entwicklungsprojekten wird neue Impulse für die weitere Ausgestaltung der praxisnahen Forschung an der HfTL geben können.

Mehr erfahren


Studierende der HfTL auf internationalen Meeting

Studierende der HfTL stellen Leipzig und ihre Hochschule auf dem internationalen TEAMSOC21 Meeting in Zagreb im Rahmen des „Erasmus + Programme of the European Union“ mit einem Video vor. Das Ziel des Projekts besteht in der Einrichtung eines transnationalen, multidisziplinären Studienprogramms im Bereich der IKT-Branche. Dieses intensive Studienprogramm zielt auf die in den Programmen Europa 2020 und Horizont 2020 definierten gesellschaftlichen Herausforderungen und soll wirksam die Umsetzung des Investitionsplans für Europa unterstützen.

Projektvideo

Mehr Infos zum Projekt


Dienstleistungen werden smart mit LESSIE

Am 18.-19. April 2018 findet in Leipzig das Innovationsforum „LESSIE“ statt. LESSIE steht für „Leipziger Smart Service Engineering“ und legt den Grundstein für ein Smart Service Lab, das  künftig Innovationspotenziale bündeln und den Wandel zu einer Smart Service Welt aktiv mitgestalten soll.

Das Innovationsforum ist ein vom Bundesministerium für Bildung und Forschung (BmBF) gefördertes Projekt, welches das Institut für Angewandte Informatik (InfAI) e.V. in Kooperation mit der Hochschule für Telekommunikation Leipzig (HfTL) und dem Institut für Wirtschaftsinformatik (IWI) der Universität Leipzig in den Räumlichkeiten von EWERK (im Bernsteincarré, Brühl 24, 04109 Leipzig) durchführt.

Es erwarten Sie spannende Vorträge und Präsentationen, wie etwa von Schindler Group, InnoZ, Kiwigrid, highQ, Teilauto und der Leipziger Gruppe sowie vielen anderen Unternehmen und Partnern aus der LESSIE Community. Darüber hinaus werden neue Smart Service-Ideen vorgestellt, welche die assoziierten Partner der LESSIE-Initiative in den Workshops bereits im Vorfeld entwickelt haben.

Mehr über LESSIE erfahren


Erforschung optischer Eigenschaften von Polymerfasern

Prof. Dr.-Ing. Christian-Alexander Bunge

Seit mehreren Jahren forscht Prof. Dr.-Ing. Christian-Alexander Bunge an der Hochschule für Telekommunikation Leipzig (HfTL) gemeinsam mit Partnern an optischen Fasern, deren Beeinflussung und Veränderung zum optimierten Einsatz in der Kommunikations- und Automobilbranche. So hat Prof. Bunge im Rahmen einer langjährigen Forschungskooperation mit dem Institut für Textiltechnik der RWTH Aachen und mehreren industriellen Partnern Technologien entwickelt, mit denen Polymerfasern in neuartigen, deutlich einfacheren und ökologischeren Prozessen gefertigt werden.

Mehr erfahren


Paper auf der MKWI 2018 vorgestellt

Auf der Multikonferenz Wirtschaftsinformatik 2018 stellte in der vergangenen Woche Dominik Schneider - Masterstudent Wirtschaftsinformatik an der HfTL - stellvertretend für das Projektteam die Entwicklung eines Beschreibungsschemas für Workflow Privacy Patterns dem Fachpublikum im Rahmen eines Workshops vor. Zum Projektteam gehören die Studierenden Alexandra Janssen, Franziska Plate, Dominik Schneider sowie Prof. Erik Buchmann und Prof. Jürgen Anke.


Kommunikation mit Licht

Vortrag von Prof. Bunge
Kommunikation mit Licht

Am 26. Februar fand im Neuen Augusteum der Universität Leipzig die Siegerehrung im Regionalwettbewerb
"Jugend forscht" statt. Zahlreiche Schülerinnen und Schüler hatten im Foyer ihre Exponate aufgebaut und eine Jury, welche auch Hochschullehrer der HfTL angehörten, bewertete die ausgestellten Ideen und Erfindungen der Jugendlichen.
Daneben gab es auch ein Rahmenprogramm für die Teilnehmer des Regionalwettbewerbs und rund fünfzig der jungen Forscher erlebten im Seminargebäude der Universität Leipzig eine Zeitreise mit Prof. Bunge, Hochschullehrer im Lehrgebiet Optik/ Photonik an der HfTL.
In seinem Vortrag erläuterte Prof. Bunge sehr detailliert, wie Menschen bereits in der Antike oder im 18. Jahrhundert mit Licht über große Entfernungen kommunizierten. Dabei ging er auch auf Erfindungen ein, welche die Kommunikation, so wie wir sie heute kennen, maßgeblich beeinflusst haben.
Wie Daten zum Beispel über Transatlantikkabel - damals analog und heute digital übertragen werden, wie sich Licht in der Glasfaser verhält und welche Frequenzen genutzt werden, erfuhren die Schülerinnen und Schüler in seinem einstündigen Vortrag, an den sich eine Diskussionsrunde anschloss.


Customer Experience im Zeitalter des Kunden

Customer Experience im Zeitalter des Kunden

Der kürzlich im Springer-Verlag erschienene Herausgeberband (http://www.springer.com/de/book/9783658189600) widmet sich aktuellen Herausforderungen des Customer Experience Managements (CEM) und bietet anhand von Best-Practice-Beispielen unterschiedlichster Branchen, Fallstudien sowie empirischen Untersuchungen einen umfassenden Überblick. „Customer Experience wird in Zukunft der wichtigste Faktor sein, um die Wettbewerbsfähigkeit zu erhalten oder um eine führende Position im Markt zu erlangen“, argumentieren die Herausgeber Prof. Rusnjak (Hochschule Flensburg) und Prof Schallmo (Hochschule Ulm). Dabei sehen sie nachhaltige Kundenerlebnisse in Kombination mit innovativen Geschäftsmodellen als fundamentale Bestandteile der Digitalen Transformation.

Mehr erfahren


Es zählt der Projekterfolg

Prof. Dr.-Ing. Sabine Radomski

Prof. Sabine Radomski lehrt seit 17 Jahren an der Hochschule für Telekommunikation Leipzig (HfTL) in den Bereichen Verteilte Systeme, Software Engineering, Software Management sowie User Experience. Daneben engagiert sie sich sehr stark für die Förderung des IT-Nachwuchses und forscht in den Segmenten Cloud-Computing, IT-Sicherheit und Softwarequalität.

Unter den rund 1400 Studierenden der HfTL ist sie jedoch vor allem wegen des von Ihr ins Leben gerufenen Software-Engineering Wettbewerbs bekannt. Denn an welcher Hochschule gibt es statt einer Vorlesung einen Wettbewerb. Diesen Wettbewerb gibt es mittlerweile schon das fünfte Jahr in Folge! Also wird es Zeit für ein Interview mit Prof. Sabine Radomski.

HfTL: Was hat Sie vor fünf Jahren bewogen, mit Studierenden einen Wettbewerb statt der üblichen Vorlesungen zu starten?

Prof. Radomski: Für mich steht die Praxis im Mittelpunkt meiner Lehre und wo lässt sich das für Studierende besser erleben, als in Software Entwicklungsprojekten mit echten Themen aus dem Berufsleben.

Mehr erfahren


Duale Studierende feierlich exmatrikuliert

Festansprache des Rektors der HfTL, Prof. Dr.-Ing. habil. Volker Saupe

Mit einem Festakt verabschiedete der Rektor der Hochschule für Telekommunikation Leipzig (HfTL), Prof. Dr.-Ing. habil. Volker Saupe, am 10. Februar 2018 über 200 dual Studierende im Mendelssohn-Saal des Gewandhauses zu Leipzig aus den Reihen der eingeschriebenen Kommilitonen.

In seiner Festansprache ging der Rektor der HfTL auf die Herausforderungen eines dualen Studiums, die Vereinbarkeit von akademischer Ausbildung und dem parallelen Erwerb praktischer Fähigkeiten in unterschiedlichen Bereichen der Deutschen Telekom ein.

Damit dieser Balanceakt auch gelingt, ist die internetbasierte Lehre ein wichtiger Bestandteil des dualen Studienmodells und ermöglicht den Studierenden einen Wissenserwerb auch außerhalb des klassischen Hörsaals.

Mehr erfahren


Beauty is our Business

Vortrag von Dr. Aleksandra Sowa

„Beauty is our Business“ mit diesem Zitat des niederländischen Informatikers und Wegbereiters der strukturierten Programmierung Edsger Dijkstra eröffnete Dr. Aleksandra Sowa ihren Vortrag in der HfTL.

Datenschutz und Datensicherheit müssen wieder zueinanderfinden! Diese von Sowa geprägte These zog sich wie ein roter Faden durch den Vortrag und wurde durch zahlreiche Beispiele plastisch beschrieben. Ein Beispiel aus der jüngeren Vergangenheit zeigt, welche Auswirkungen fehlerhaft programmierte Software nach sich zieht. So hatte der Chaos Computer Club (CCC) in der zur Stimmauszählung der Bundestagswahl genutzten Software „PC-Wahl“ zahlreiche Schwachstellen gefunden, welche auch nicht durch ein kurzfristiges Update des Herstellers behoben werden konnten. Für Sowa ein klarer Fall von Vernachlässigung der Security by Design – Regeln.

Mehr erfahren


Stellungnahme zur Akkreditierungsentscheidung des Wissenschaftsrates

Der Wissenschaftsrat hat sich in seiner jüngsten Sitzung gegen die Akkreditierung der Hochschule für Telekommunikation Leipzig (HfTL) ausgesprochen.

Wesentliche Kritikpunkte waren Verstöße gegen die Freiheit von Lehre und Forschung und die Selbst- und Studienorganisation der HfTL sowie eine Überlastung der Lehre und damit eine geringe Forschungsleistung. Kritik an der Lehrkompetenz bzgl. der Studiengänge und Lehrenden wurde nicht geäußert.
Gesichert bleibt, dass die derzeit eingeschriebenen Studierenden ihr Studium mit einem staatlich anerkannten Hochschulabschluss beenden können. Der Abschluss der HfTL entspricht den Qualitätsansprüchen einer staatlichen Hochschule.

Mehr erfahren


Ein Wettbewerb ohne Verlierer!

Eröffnung der Siegerehrung durch Prof. Sabine Radomski

In diesem Jahr feiert der Software-Engineering Wettbewerb an der Hochschule für Telekommunikation Leipzig (HfTL) ein Jubiläum. Seit fünf Jahren findet der von Prof. Dr.-Ing. Sabine Radomski initiierte studentische Wettbewerb an der HfTL statt und erfreut sich steigender Teilnehmerzahlen und komplexer werdender Themenstellungen aus IT-Unternehmen der Region und der Deutschen Telekom.

Im Rahmen der Siegerehrung wurden am 25. Januar 2018 aus den mehr als 300 teilnehmenden Studierenden die sechs besten Teams für ihre hervorragenden Leistungen ausgezeichnet.

Es sind nicht nur die von den zahlreichen Sponsoren bereitgestellten Preise, wie ein Scrum-Workshop, attraktive Weiterbildungsangebote im Bereich Open Source, Design Thinking und Sachpreise, welche diesen Wettbewerb so attraktiv machen. Vielmehr haben die Studierenden hier die Möglichkeit, an spannenden Themen aus der betrieblichen Praxis zu arbeiten und kreative Lösungswege zu entwickeln.

Mehr erfahren


Neuauflage der Enzyklopädie der Wirtschaftsinformatik

Nützliches Wissen auf einen Blick – dass verspricht ein Lexikon, bzw. eine Enzyklopädie mit einem möglichst breiten Themenspektrum dem Suchenden. Während früher mehrere Bände sehr dekorativ den Schrank füllten, ist im digitalen Zeitalter eine solche Enzyklopädie online für viele Nutzer verfügbar. Ein solches digitales Nachschlagewerk ist die Enzyklopädie der Wirtschaftsinformatik, welche aktuell in der zehnten Auflage erschienen ist. Wie schon in früheren Auflagen sind auch diesmal wieder Hochschullehrer der HfTL mit Beiträgen zu unterschiedlichen Themen vertreten.

Mehr erfahren


Geprüfte Sicherheit: Gütesiegel für Software

Prof. Dr.-Ing. Sabine Radomski
Dr. Aleksandra Sowa

Wissenschaft, Politik und IT-Branche wollen gemeinsam Sicherheit und Datenschutz in der digitalen Welt stärken. So soll ein Gütesiegel für die Softwarequalität entwickelt werden, das Nutzern auf einen Blick Orientierung bietet. Dafür haben Prof. Dr.-Ing. Sabine Radomski, Hochschullehrerin an der Hochschule für Telekommunikation Leipzig (HfTL), und Dr. Aleksandra Sowa innerhalb der Gesellschaft für Informatik e. V. den Arbeitskreis „Sicher in die Digitalisierung mit geprüfter Software“ gestartet.
Neben Chancen entstehen durch die Digitalisierung auch Risiken und damit Ängste bei den Verbrauchern. Die missbräuchliche Nutzung unrechtmäßig erhobener Daten, die Nichteinhaltung des Datenschutzes und unsichere IT-Systeme können zu sozialen, persönlichen und gesellschaftlichen Schäden führen.
In der gesellschaftlichen und politischen Diskussion wird das Thema des Datenschutzes und der -sicherheit bereits über einen längeren Zeitraum kontrovers diskutiert. Schlagworte wie Softwaresicherheits-Zertifikate, Vorgaben für Algorithmen oder der Begriff des technischen Datenschutzes münden aktuell in zwei praktischen Vorhaben: einerseits dem IT-Gütesiegel des BMI und andererseits in der Datenschutzzertifizierung der EU.

Mehr erfahren

<