Zum Inhalt

Die Technische Umsetzbarkeit der EU-Direktive 2019/790 Artikel 17 und die Problematik des Upload-Filters

Das vorliegende Paper beschäftigt sich mit den gesetzlichen Vorgaben der Urheberrechtsreform der EU und ihrer technischen Umsetzbarkeit. Im Fokus steht dabei die Frage, ob die Reform ohne einen „Upload-Filter“ umsetzbar ist, wie der Politiker Axel Voss behauptet. Nach einer Begriffsklärung wird bereits deutlich, dass ein softwarebasierter Filter unumgänglich ist. Im Anschluss wird diskutiert, ob eine fehlerfreie, technische Implementierung mithilfe moderner Algorithmen möglich ist. Dazu werden mehrere aktuelle Methoden zur Identifizierung von urheberrechtlich geschützten Inhalten erörtert und evaluiert. Die theoretischen Ausarbeitungen bilden die Grundlage für die Diskussion und die im Fazit gegebene Empfehlung zur Umsetzung der Urheberrechtsreform. Das Paper konzentriert sich auf den technischen Aspekt, gibt aber kein Versuchsbeispiel. Die Ausarbeitung ist primär für Studenten im Bereich der Informatik verfasst.

1. Einleitung

Durch die stetige Weiterentwicklung des World Wide Web hat sich die Art des Content-Konsums verändert. Um ein möglichst weitrechendes Publikum zu erreichen, stellen viele Künstler ihre Werke kostenlos zur Verfügung. Die verfügbaren Werke werden von einigen Nutzern rechtswidrig verwendet. Bislang lag die Verantwortung, sich gegen solche Verstöße zu wehren, bei den Urhebern selbst. Aus diesem Grund sah sich das Europaparlament gezwungen zu handeln.

2. Urheberrechtsreform

Der Ursprung des Urheberrechts lässt sich in Form von Druckprivilegien bis ins 15. Jahrhundert zurückverfolgen. Im 18. Jahrhundert wurden in Frankreich und England die ersten Urheberrechtsgesetze niedergeschrieben. Das in Deutschland heute gültige Gesetz über Urheberrecht und verwandte Schutzrechte (UrhG) wurde am 9. September 1965 erstmals erlassen [FAZ12].

In ihren Grundzügen hat sich die Rechtsprechung seitdem nicht mehr geändert. Das Gesetz definiert die verschiedenen Rechte eines Urhebers und welche Voraussetzungen eine geistige Schöpfung erfüllen muss, um geschützt zu werden. Dabei zählt gemäß § 7 UrhG jede natürliche Person, die Schöpfer ihres jeweiligen Werks ist, als Urheber. Ein besonderer Schwerpunkt der Reform ist es, ein hohes Maß an Schutz für Rechteinhaber im digitalen Raum zu garantieren und die „Klärung von Rechten“ zu erleichtern.  Primär soll die Verantwortung für die rechtmäßige Verwendung urheber-rechtlich geschützter Inhalte fortan bei den Online-Dienstanbietern liegen. Zugleich soll die Reform zukunftstauglich sein, damit der technische Fortschritt nicht behindert wird.
Ins Augenmerk der Öffentlichkeit geriet die Reform jedoch nicht im Sinne der Vereinfachung der Urheberrechte im Internet sondern als potenzielle Einschränkung der Meinungsfreiheit aufgrund des Einsatzes von „Upload-Filtern“. Besonders brisant dabei ist Artikel 17 (ehemals Artikel 13) der EU-Richtlinie 2019/790. Axel Voss, Mitglied des Europäischen Parlaments und zuständiger Berichterstatter für Upload-Filter, äußerte sich zu den Besorgnissen, dass künftig jeder Upload durch einen Filter geprüft werden müsse, wie folgt:

 „Eine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern lehnen wir als unverhältnismäßig ab.“[Lo19]

„Wenn also Lizenzen vorliegen, müssen große Plattformen „nur“ verhindern, dass solche Werke nicht hochgeladen werden, für welche die Rechteinhaber konkret mitgeteilt haben, dass sie nicht auf den Webseiten erscheinen sollen. Dies bedeutet, dass z.B. Identifizierungssoftware nur auf die Daten reagieren müsste, welche die Rechteinhaber vorher den Plattformen zur Verfügung gestellt haben.“[Vo19]

Axel Voss nutzt in diesem Zusammenhang einige homonyme Begriffe. Zur Schaffung einer gemeinsamen Basis werden nun die Kernbegriffe definiert. Der Begriff „Plattform“ bezeichnet in der Informatik grundsätzlich alle Schichten, auf denen Anwendungspro-gramme ausgeführt oder entwickelt werden [Fl19].

Im Kontext bezieht sich Voss aber nur auf Webseiten als Plattformen, besonders auf jene, die dem Austausch und der Kommunikation dienen (unter anderem YouTube, Twitter, Facebook). Des Weiteren betont er, es seien „große Plattformen“, die mit Rechteinhabern kooperieren müssten. Eine genauere Definition befindet sich dazu in der EU-Direktive unter Artikel 17 Absatz 6 [Sv19].
Es handelt sich demzufolge um Dienstanbieter, deren Jahresumsatz zehn Millionen EUR bzw. deren durchschnittliche monatliche Besucherzahl fünf Millionen überschreitet. Zudem werden in Artikel 2 Absatz 1 alle Forschungsorganisationen, welche nicht gewinnorientiert operieren oder alle Gewinne in die Forschung reinvestieren, ausgeschlossen.

Der Begriff des Upload-Filters existiert noch nicht lange und ist dementsprechend kaum fachliterarisch definiert. Till Junker, Bachelor of Arts in Politikwissenschaft und Geschichte absolvierte seine Bachelorarbeit an der Universität Greifswald und definiert darin den Upload-Filter als einen Algorithmus, der von Nutzern generierte Inhalte (user-generated content) in einem Zwischenspeicher (Cache) des jeweiligen Dienstleisters ablegt und diese erst nach einer Untersuchung auf Urheberrechtsverstöße freigibt [Ju19].
Im Gesetzestext wird der Upload-Filter nicht erwähnt. Die EU-Direktive definiert keinerlei Vorgaben hinsichtlich der Umsetzung. Bei dem Vergleich von Axel Voss Aussage mit der obigen Definition eines Upload-Filters ist eine entscheidende Gemeinsamkeit zu erkennen.
In beiden Fällen ist von einer eigenständigen Identifizierungssoftware die Rede, die auf Inhalte, über deren Rechte die Plattform nicht verfügt, reagiert und sie blockiert. Somit besteht ein Widerspruch zu Herrn Voss erster Behauptung, nach der eine Verpflichtung zum Einsatz von Upload-Filtern nicht erforderlich sei. Die praktische Umsetzung der Urheberrechtsreform ist ohne Upload-Filter nicht möglich. YouTube gibt an, dass mehr als 400 Stunden Videomaterial pro Minute auf der Plattform hochgeladen würden [An17].

Eine menschliche Überprüfung ist damit unter Erfüllung der Wirtschaftlichkeit nicht möglich. Eine Automation ist die einzige Möglichkeit für Dienstanbieter, die geforderte Überprüfung durchzuführen. Die Einführung eines allgemeinen Upload-Filters wurde bereits 2012 von dem Gerichthof der Europäischen Union als unzulässig erklärt. Das Urteil wurde aufgrund einer Klage der belgischen Verwaltungsgesellschaft SABAM gegen den Pattform-Betreiber Netlog gefällt. Laut dem Europäischen Gerichtshof verstößt ein solcher Filter gegen die Informationsfreiheit sowie gegen das Verbot einer allgemeinen Überwachungspflicht [Os12].

3. Technische Umsetzung

Die maschinelle Bildanalyse gehört zu den komplexesten Themen in der modernen Informationswissenschaft und erforscht verschiedene Ansätze zur Muster- und Bildidentifikation. Das Themengebiet wird oft als Computervision oder maschinelles Sehen bezeichnet und reicht von einfachen Hash-Verfahren zur Erkennung von Bildkopien oder einfachen, vordefinierten Objekten in einer großen Datenbank von Bildern bis hin zu komplexen, selbstlernenden Systemen, welche mithilfe von Deep-Learning-Verfahren selbstständig Muster extrahieren können.
Da im Zusammenhang mit Upload-Filtern die Wiedererkennung urheberrechtlich geschützten Materials im Mittelpunkt steht, wird nun detaillierter auf die Bilderkennung mittels virtueller Fingerprints eingegangen. Herkömmliche Hashing-Algorithmen wie MD5 oder das SHA-1 funktionieren für das Anwendungsfeld der Bilderkennung nicht, da sie zu sensibel auf Bildmodifizierungen reagieren.
So berechnen diese Verfahren selbst bei kleinsten Änderungen in der Bitfolge der Bilddatei vollkommen unterschiedliche Hash-Werte. Deshalb wurden spezielle Hash-Verfahren für das Image Hashing entwickelt. Bekannte Algorithmen sind zum Beispiel Block Hashing und der “Perceptual Hash“-Algorithmus (pHash), der auf der diskreten Kosinustransformation basiert [Bl18].

3.1 Difference Hashing

Um zu verstehen, wie ein solcher Fingerprint (Hash-Wert) eines Bildes berechnet wird, wird im Folgenden der “Difference Hash“-Algorithmus (dHash) im Detail betrachtet [Ro17]. Der Algorithmus lässt sich in vier Schritte zergliedern. Zuerst wird das Original-bild in ein Graustufenbild konvertiert. Der Hintergedanke dieses Schritts ist, dass man nur noch einen Farbkanal, und zwar den Graukanal, untersuchen muss. Hierdurch wird Rechenleistung und Zeit gespart. Außerdem ist es durch diesen Schritt möglich, Bilder zu vergleichen, die dasselbe Motiv darstellen und sich nur hinsichtlich der Farbgebung unterscheiden.
Im zweiten Schritt wird das Bild auf eine Größe von 9 x 8 Pixeln gestaucht. Dabei wird das Format ignoriert. In den meisten Fällen erfordern diese beiden Schritte am meisten Zeit und Rechenleistung. Im dritten Schritt wird der Hash-Wert berechnet. Hierfür werden benachbarte Pixel hinsichtlich ihrer Gradienten miteinander verglichen. Zur Vereinfachung wird nur getestet, ob d linke Pixel heller ist als das rechte. Wenn dies der Fall ist, wird eine „1“ in das Ergebnis geschrieben, andernfalls eine „0“.

<source> if(P[x] > P[x+1]) then 1 else 0</source>

Da das Bild auf 9 horizontale Pixel verkleinert wurde, erhält man pro Zeile acht Vergleichswerte. Aufsummiert über die acht Zeilen des Bildes erhält man 64 Binärzeichen. Diese lassen sich wahlweise als Bitmap visuell darstellen oder als 64-Bit-langer Integer-Wert in einer Datenbank abspeichern.

1111000000110000101110001100111010000110010011001000111010001110

Den erhaltenen Hash-Wert bezeichnet man als Fingerprint oder Signatur des Bildes. Fingerprints lassen sich zur Identifikation beziehungsweise zum Vergleichen von Bildern verwenden. Difference Hashing ist sehr performant im Vergleich zu anderen Image-Hashing-Verfahren. Außerdem lassen sich auch Bilder miteinander vergleichen, die sich nur hinsichtlich der Größenverhältnisse oder der Farbgebung unterscheiden – Eigenschaften, die den Hashwert nur geringfügig verändern.

Auch wenn der Fingerprint durch verschiedene Formateigenschaften nur geringfügig verändert wird, muss eine gewisse Fehlertoleranz berücksichtigt werden, um sicherzustellen, dass ähnliche Kopien erkannt werden können. Ein möglicher Ansatz ist die Berechnung der Hamming Distance der untersuchten Hash-Werte. Dieser Wert gibt an, um wie viele Bits sich die Hashes unter-scheiden. Dr. Neal Krawetz von HackerFactor empfiehlt dabei einen Toleranzbereich von 1 bis 10. Dies bedeutet, dass es sich bei Bildern, deren Hash-Werte um bis zu 10 Bits unterschiedlich sind, höchstwahrscheinlich um Kopien mit leichten Formatvariationen handelt [Ro17].

3.2 Average Hashing

Ein weiteres, mit dem Difference Hashing verwandtes Verfahren ist das Average Hashing. Auch hier wird das Originalbild verkleinert, jedoch auf eine Größe von 8x8 Bildpunkten. Das hier dargestellte Bild besitzt eine Auflösung von 500x400 Pixeln. Um dieses Bild auf eine Größe von 8x8 Pixeln zu stauchen, wird das Bild in Blöcke mit einer Größe von 500/8x400/8=62.5x50 Pixeln unterteilt. Diese Blöcke ergeben das gestauchte Bild.

Abbildung 1 - Originalbild

Abbildung 1 - gestauchtes Bild (8x8)

Anschließend wird das Bild farblich auf seine Graustufen reduziert, um die Effizienz des Algorithmus zu erhöhen.  Im nächsten Schritt unterscheidet sich das Verfahren zum Difference Hashing. Zunächst wird der Mittelwert über die RGB-Werte der 64 Pixel des Bildes ermittelt. Anschließend wird aus dem 8x8-Graustufenbild eine 8x8-Matrix erstellt, indem man den RGB-Wert jedes einzelnen Pixels mit dem erhaltenen Mittelwert vergleicht. Ist der Wert größer als der Mittelwert, wird eine „1“ an die jeweilige Stelle der Matrix geschrieben, ansonsten eine „0“. Die Konstruktion des Hash-Werts oder Finger-prints passiert nun nach demselben Prinzip wie beim Difference Hashing. Die Werte aus der Matrix werden aneinandergereiht und ergeben die binäre Repräsentation des Integer-Werts des Fingerprints [Ro17].

3.3 Fingerprintverfahren

Die Fingerprintverfahren stellen die Grundlage vieler heutiger Integritätsprüfungsalgorithmen dar, unter anderem für die PhotoDNA-Technologie. Microsoft bietet PhotoDNA als Azure Service auch für kleine Unternehmen und Organisationen an. Dadurch können auch kleine und mittelständische Unternehmen den Content ihrer Kunden auf Integrität prüfen, ohne teure Eigenlösungen entwickeln zu müssen.
PhotoDNA wurde von Microsoft in Kooperation mit der Universität Dartmouth entwickelt, um Fotos anhand eines robusten Fingerabdrucks zu identifizieren. Diese Signatur ist gegenüber kleineren Bildveränderungen, wie Farbveränderungen oder Modifizierung der Größe, unempfindlich.

Die konkrete Berechnung des Fingerprints unterscheidet sich hierbei von der bereits beschriebenen Difference-Hashing-Variante. Zunächst wird das Originalbild wieder in ein Graustufenbild interpoliert und verkleinert. Nun wird es mittels Raster in viele Einzelbilder zerteilt. Für jedes dieser Einzelbilder wird der Gradient berechnet. Aus diesen Gradienten wird anschließend der Hash-Wert des Bildes erstellt. PhotoDNA kann nicht nur urheberrechtlich geschütztes Material erkennen und Kopien aufspüren, sondern auch Muster erkennen. Hierfür werden Algorithmen aus dem Gebiet des Machine Learning angewandt. Diese Technik wird hauptsächlich zur Identifizierung von illegalen, expliziten Inhalten wie Kinderpornografie oder Missbrauch eingesetzt.

PhotoDNA hat seit seiner Einführung nachweislich zur Bekämpfung dieser Inhalte beigetragen. So schätzt Cecelia Gregson, Rechtsanwältin der Washington Internet Crimes Against Children Task Force, dass es sich aktuell bei etwa 90% der untersuchten Fälle um CyberTipline-Berichte handelt, die von Unternehmen erstellt wurden, die PhotoDNA nutzen [La18]. Microsoft hat kürzlich die neue Lösung „PhotoDNA for Video“ veröffentlicht, über die auch Videos mithilfe der PhotoDNA-Technik überprüft werden können. Hierbei werden Videos in einzelne Bilder aufgeteilt. Die Key Frames werden nun mithilfe der bereits beschriebenen Fingerprintverfahren auf explizite Inhalte geprüft. Microsoft stellt PhotoDNA kostenlos über seine Website zur Verfügung [MS19].

Ein weiteres Verfahren zur Analyse von Videos auf urheberrechtliche Verstöße ist Content ID, welches von Google entwickelt wurde. Das „Content ID“-System wird seit 2007 genutzt und stetig weiterentwickelt [Go18].
Hierbei handelt es sich um ein skalierbares System zur automatisierten Identifizierung von geschütztem Bild- und Audiomaterial und dessen Schutz vor monetärer Ausbeutung. Es ist sogar möglich, Musikstücke nur anhand der Melodie und unabhängig vom verwendeten Instrument zu identifizieren. Rechteinhaber haben durch diese Technologie die Möglichkeit, YouTube-Inhalte, die ihre geschützten Werke verwenden, zu verfolgen, zu monetarisieren oder gar komplett sperren zu lassen. Falls ein zur Nutzung von Content ID berechtigter Partner monetären Anspruch auf ein Video mit seinen rechtlich geschützten Inhalten erhebt, kann dort Werbung geschaltet werden, deren Erträge dem Rechteinhaber zufließen.
Damit ein Urheberrechtsinhaber Zugriff auf die Nutzung von Content ID erhält, müssen bestimmte Kriterien erfüllt sein. Urheberrechtsinhaber müssen Nachweise für die urheberrechtlich geschützten Inhalte erbringen, an denen sie die Exklusivrechte besitzen. Außerdem müssen die Nutzer ausreichend Referenzmaterial zur Verfügung stellen, damit die Fingerprints generiert werden können, die zur Identifikation der geschützten Inhalte benötigt werden. Falls ein Nutzer für die Verwendung von Content ID zugelassen wird, muss abschließend einer Vereinbarung zugestimmt werden, in der festgehalten wird, dass nur Inhalte als Referenz genutzt werden dürfen, an denen der Nutzer Exklusivrechte hat. Zusätzlich muss angegeben werden, in welchen Ländern diese Eigentumsrechte gelten [Go19].

Die technische Funktionsweise von Content ID ähnelt der PhotoDNA-Technologie von Microsoft und basiert auf Fingerprint Matching. Auch hier werden mittels Hash-Verfahren Fingerprints von rechtlich geschützten Bild-, Video- und Audiodateien generiert, die als Vergleichswert in einer Datenbank persistent gespeichert werden. Das System arbeitet vollständig automatisiert. Das bedeutet, dass während des Upload–Prozesses eines neuen Videos automatisch Fingerprints der Video- und Audioinhalte generiert werden und mit den Fingerprints der geschützten Inhalte aus der Datenbank verglichen werden. Sollte es währenddessen zu einem Match kommen, reagiert das System, wie oben beschrieben, je nach Angaben des Content ID-Partners mit den entsprechenden Urheberrechten.
Damit die Nutzer unabhängig vom automatisierten Content-ID-System mehr Kontrolle über den Schutz ihrer Inhalte haben, entwickelte YouTube außerdem das Copyright Match Tool [Go20].

Bei dieser Software handelt es ich um ein manuelles Tool für Mitglieder des YouTube-Partnerprogramms. Die grundlegende Technologie zur Bild- und Audioerkennung inklusive der Referenzdatensätze werden von Content ID übernommen. Der Unterschied besteht darin, dass der User über das neue YouTube Studio manuell nach Urheberrechtsverletzungen suchen kann. Dabei ist zu beachten, dass das Copyright Match Tool ausschließlich Inhalte durchsucht, die nach dem Upload-Datum des zu schützenden Videos erschienen sind. Deshalb eignet sich dieses Tool vor allem für weniger bekannte bzw. nichtprofessionelle Künstler und YouTuber, die Erstveröffentlichungen ihrer Werke über YouTube publizieren.
Für die nachträgliche Kontrolle von urheberrechtlich geschützten Musikproduktionen, die bereits mehrere Jahre auf dem Markt existieren, ist dieses Tool ungeeignet. Für diese Aufgabe muss weiterhin auf das Content-ID-System vertraut werden. Das Prinzip des Fingerprint Matching wird ebenfalls bei der softwaregestützten Identifizierung von Musik- und Soundressourcen genutzt, seit einigen Jahren sogar zur Stimmerkennung. Da die Analyse und das Vergleichen von vollständigen Audiospuren über den gesamten Frequenzbereich zu aufwendig und ungenau sind, haben Unternehmen wie Shazam oder Philips in den frühen Zweitausender Jahren Methoden entwickelt, um effizientere und robustere Resultate zu erzielen.

Im Folgenden werden diese Verfahren näher beleuchtet. Jedes der folgenden Beispiele basiert auf der visuellen Darstellung der Audiofrequenzen mittels Spektrogramms. Mithilfe von mathematischen Verfahren wie der Fourier-Transformation kann man die sich überlagernden Frequenzen, aus denen ein Ton besteht, extrahieren. Resultat dieser Prozedur ist die Sammlung der Einzelfrequenzen eines Tons, die sich erheblich leichter und genauer weiterverarbeiten und untersuchen lassen. Mit dem entstehenden Frequenzbild lässt sich zwar anhand der Amplituden der ungefähre Rhythmus des Tons oder des Musikstücks erkennen, aber dies reicht nicht zur sicheren Identifizierung aus. Da viele Störfaktoren – wie Lautsprechergrundrauschen, Hintergrundgeräusche in der Aufnahme oder Tonspurverzerrungen aufgrund von Nachbearbeitung – Einfluss auf dieses Frequenzbild haben, musste man Wege finden, um die charakteristischen Elemente in diesem Frequenzgemisch zu identifizieren. Shazam lieferte einen der ersten Ansätze für dieses Problem.
Apple entwickelte hierfür einen Algorithmus, der die stärksten Ausschläge im Spektrogramm-Bild identifizieren kann. Dabei ist auffällig, dass vor allem die Frequenzen im hohen Frequenzbereich ausschlaggebend sind, da diese nicht so leicht durch kontinuierliche Störgeräusche, wie Lautsprechergrundrauschen, überdeckt werden. Nachdem die charakteristischen Frequenzausschläge im Spektrogramm identifiziert wurden, verbindet man diese Stellen, wodurch ein Netz entsteht. Dieses Netz fungiert nun als akustischer Fingerabdruck der Audioressource.
Der Fingerabdruck enthält weit weniger Informationen als das gesamte Spektrogramm und benötigt daher weniger Speicherkapazität.

Abbildung 2 – Spektrogramm Shazam Fingerprint [Sj18a]

Ein weiterer Vorteil dieser Lösung ist, dass der Fingerprint sehr robust gegen Hintergrundgeräusche und Verzerrungen ist, da diese die stärksten Spitzen im Frequenzbild meist nicht beeinflussen. Ein Nachteil dieser Methode sind die relativ häufig auftretenden Mismatches beim Audio Matching. Es handelt sich um ein vergleichsweise grobes Ver-fahren, dass nur wenige Bereiche der gesamten Tonspur berücksichtigt. Ungefähr zur selben Zeit untersuchte Philips einen anderen Ansatz.

Das Unternehmen entwickelte einen Algorithmus, der darauf abzielt, das gesamte Spektrogramm der Audioressource so stark wie möglich zu komprimieren und die Frequenzänderungen während kleinster Zeitintervalle in einem Hash-Wert zu sammeln. Da sich dieses Verfahren auf das gesamte Spektrum der Audioressource bezieht, ist es weniger anfällig gegen Mismatches und punktuelle laute Störgeräusche, dafür jedoch schlechter im Umgang mit monotonem Hintergrundrauschen. Eine weitere Variante, entwickelt durch Intrasonics, versucht die Nachteile beider Vorgängerstrategien zu umgehen.
Dabei wird die Spektrogrammanalyse mit Ansätzen aus dem Machine Learning kombiniert. Anstatt wie bei Shazam zu untersuchen, welche Teile des Spektrogramms am stärksten Herausstechen, versucht man hier dem Algorithmus beizubringen, welche Merkmale des Spektrogramms am besten geeignet sind, um die Soundspur zu identifizieren.
Um diese Merkmale herauszufinden, durchläuft der Algorithmus eine Trainingsphase, in der das Spektrogramm mit bis zu 10 000 verschiedenen Frequenzen gefiltert wird. Die Resultate werden automatisch ge-sammelt und ausgewertet. Dadurch erhält man nach dieser Trainingsphase die optimale Filterzusammensetzung für die untersuchte Tonspur. Der Vorteil dieser Methodik besteht darin, dass das System nicht wie bei Shazam von den aus unserer Sicht charakteristischen Merkmalen des Spektrogramms sondern von den maschinell bestimmten Merk-malen abhängt. Darüber hinaus kann man durch Hinzufügen von Rauschen zu den Trainingsdaten das System so trainieren, dass ähnliches Rauschen in Zukunft ignoriert wird. Man kann dem Algorithmus also beibringen, mit bestimmen Störgeräuschen umzugehen [Sj18b].

4. Fazit

Die Urheberrechtsreform löste europaweit Proteste und Empörung aus. Kritiker sprechen im Zusammenhang mit Artikel 13 bzw. 17 von Zensur des Internets und Einschränkung der Presse- und Meinungsfreiheit. So schrieb unter anderem Tim Berners-Lee, Begründer des World Wide Web, in einer E-Mail an das Europaparlament Folgendes:

 „Article 13 takes an unprecedented step towards the transformation of the Internet from an open platform for sharing and in-novation, into a tool for the automated surveillance and control of its users.” [Be18]

Die Entwicklung neuer Filtertechniken ist sehr kostspielig. So hat unter anderem die Entwicklung des Content-ID-Systems der Google-Tochter YouTube 60 Millionen Euro gekostet [Kr18b].
Da diese Entwicklungskosten für mittelständische Unternehmen nicht tragbar sind, besteht die Sorge der Monopolbildung und es existieren Sicherheitsbedenken vonseiten der europäischen Nutzer in Bezug auf Nutzerverhaltensdaten [Re19].

Ein weiterer wichtiger Punkt ist, dass die heutigen Verfahren keine Möglichkeit zur Erkennung von „Fair Use“, Parodien oder Satire bieten. Die Benutzung urheberrechtsgeschützten Materials ist zur Verwendung in diesen Fällen jedoch laut Abschnitt 4 Unterabschnitt 3 §24 des Urheberrechtsgesetzes erlaubt. Werke aus diesen Bereichen würden fälschlicherweise gesperrt werden, da eine algorithmische Unterscheidung nach Kontext derzeit nicht möglich ist.
Satire befasst sich häufig mit kritischen Inhalten, um beispielsweise auf Missstände aufmerksam zu machen. Eine fälschliche Sperrung durch Upload-Filter ähnelt einer Zensur [Kl19]. Zu solchen fälschlichen Sperrungen kam es bereits bei aktuell angewendeten Systemen. So sperrte zum Beispiel Content ID die hochgeladene Vorlesung von Prof. William Fisher der Harvard University. In seiner Vorlesung verwendete er Musikausschnitte, unter anderem von Jimi Hendrix, in einer Länge 15 bis 40 Sekunden. Content ID sperrte das Video aufgrund des Verstoßes gegen die Urheberrechte von SME [Er16].
Im Kontext werden die Ausschnitte zur öffentlichen Bildung verwendet, was im Urheberrecht ausdrücklich von den Regulierungen ausgenommen ist. Gleichermaßen wurde ein Video gesperrt, das aus einer einstündigen Dauerschleife einer Aufnahme von Katzenschnurren besteht, da das System irrtümlicherweise eine Übereinstimmung mit einem geschützten Werk von EMI Music Publishing meldete [Er15].

Der Gesetzestext verpflichtet große Unternehmen, darauf zu achten, dass kein urheberrechtsverletzendes Material auf ihren Plattformen angeboten wird. Bei Missachtung des Gesetzes drohen Plattformbetreibern hohe Strafen. Aufgrund der strengen Haftungsregelung und der hohen Kosten, die dadurch entstehen, besteht für die Unternehmen ein großes Interesse an einem sehr empfindlich konfigurierten Filter.
Da des Weiteren keine zu hundert Prozent akkurate Filterung möglich ist, kommt es zu Overblocking. Bei Overblocking werden vorsichtshalber mehr Inhalte gesperrt als nötig.

Der CEO von Twitch, Emmett Shear, äußerte sich in einem Interview im März 2019 zu der Urheberrechtsreform. Er sagte, Twitch stehe in der Pflicht, dafür zu sorgen, dass keine urheberrechtsverletzenden Inhalte auf der Plattform in Europa verfügbar seien. Um das zu erreichen, werde ein automatisiertes Filtersystem implementiert. Shear betont im Zusammenhang mit dem erwähnten Filtersystem ebenfalls, dass der Sachverhalt Fair Use oder Ähnlichem nicht erkannt und berücksichtigt werden könne.
Des Weiteren geht er auf die Folgen der Urheberrechtsreform für Twitch und die Plattformnutzer ein. Eine der Konsequenzen bestehe darin, dass europäische Nutzer strikt aus nichteuropäischen Streams herausgefiltert werden müssten. Der gesamt sichtbare Content für Europäer beschränke sich auf Content aus Europa [Sh19].

Nach der Analyse der derzeit angewendeten Technologien zur Erkennung von rechtlich geschütztem Material, insbesondere PhotoDNA, Content ID und Audio Hashing, ist festzustellen, dass eine technische Filterlösung nicht fehlerfrei umsetzbar ist. Im Rahmen der Ausarbeitung ist der Einsatz von Künstlicher Intelligenz nicht betrachtet worden. Dr. rer. nat. Philip Häusser begegnet dem Einsatz von Künstlicher Intelligenz (KI) und neuronalen Netzen zur Erkennung von Urheberrechtsverletzungen mit Skepsis.
In einem Interview antwortet er auf die Frage, was KI im Zusammenhang mit Upload-Filtern leisten könne, dass KI bereits leicht abgeändertes Material erkennen könne. In einem Beispiel beschreibt er den Vergleich zweier ähnlicher Sätze, die KI bereits identifizieren könne.
Er betont jedoch auch, dass aktuelle KI-Technologien nicht in der Lage sind, eine zuverlässige Prüfung dahingehend zu erbringen, ob ein Inhalt gegen das Urheberrecht verstößt oder tatsächlich ein neues Werk geschaffen wurde [Be19].

Die zugrundeliegenden Forschungsergebnisse belegen, dass eine manuelle, händische Überprüfung potentiell urheberrechtsverletzender Inhalte aufgrund des zu großen Volumens nicht realisierbar ist und dass es nach aktuellem Stand der Technik der neuronalen Netze, Künstlichen Intelligenz und modernen Algorithmik nicht möglich ist, eine fehlerfreie Erkennung urheberrechtsverletzender Inhalte zu implementieren. Der verabschiedeten EU-Urheberrechtsreform kann somit nicht vollumfänglich und fehlerfrei entsprochen werden. Bis eine fehlerfreie Umsetzungsmöglichkeit gefunden wurde ist somit von der Realisierung der Reform abzuraten.

Quellen

  • [Be19] Jacob Beautemps: Upload-Filter – Ist Künstliche Intelligenz die Lösung? | Upload Filter mit VPN-Clients umgehen! www.youtube.com/watch, Stand: 09.12.2019
Abbildung 1 - Originalbild
Abbildung 1 - gestauchtes Bild (8x8)
Abbildung 2 – Spektrogramm Shazam Fingerprint [Sj18a]
 

Nach oben

<