Die EU-Staaten haben bis Juni 2021 Zeit, die umstrittene Reform des EU-Urheberrrechts in nationales Recht umzusetzen. Im Gastkommentar, hervorgegangen aus dem Schreibwettbewerb, den DER STANDARD gemeinsam mit dem Institut für Innovation und Digitalisierung im Recht der Universität Wien veranstaltet hat, widmet sich Student Lukas Jäger der Frage: Ist Art. 17 der Richtlinie 2019/790/EU, der in der Öffentlichkeit unter dem Stichwort 'Uploadfilter' diskutiert wurde, rechtlich gelungen? Warum (nicht)?

Die neue EU-Urheberrechtsrichtlinie war von Beginn an höchst umstritten. Es war daher abzusehen, dass sie mit ihrer Kundmachung den Sturm der Kritik noch nicht überstanden haben würde. Nur eine Woche nach der Veröffentlichung im Amtsblatt wurde eine Klage zur Anfechtung der Richtlinie beim EuGH eingebracht. Die polnische Regierung hatte sich mit der Klageschrift etwas unerwartet zum erstrangigen Verteidiger der Rechtsstaatlichkeit aufgeschwungen und warnte, die Richtlinie fördere Zensur und gefährde die Meinungsfreiheit. Gemeint ist damit wohl vor allem Artikel 17 (vormals Artikel 13) der Richtlinie, und dieser verdient es durchaus, einmal genauer unter die grundrechtliche Lupe genommen zu werden.

Hamburg, März 2019. Dieser Demonstrant filtert lieber Kaffee als Content.
Foto: APA/dpa/Markus Scholz

Wo also liegen die rechtlichen Probleme? Zunächst noch einmal der Inhalt von Artikel 17 zur Auffrischung: Dieser sieht vor, dass "Diensteanbieter für das Teilen von Onlineinhalten" – hierunter fallen Facebook, Youtube und viele andere mehr – künftig vorab zu prüfen haben, ob Content, der von ihren Nutzern hochgeladen wird, das Urheberrecht verletzt oder nicht. Notwendigenfalls haben sie den Upload zu verhindern, sonst wird die Urheberrechtsverletzung ihnen selbst zugerechnet. Wie die Diensteanbieter dieser Verpflichtung nachkommen, bleibt ihnen überlassen.

Unternehmerische Freiheit

Angesichts der gewaltigen Mengen an täglich hochgeladenem Material ist aber wohl nur eine Variante realistisch: die Verwendung von Uploadfiltern, also Algorithmen, die Inhalte automatisch und ohne Beteiligung von Menschen auf ihre Rechtmäßigkeit überprüfen. Diese Programme sind jedoch noch nicht ausgereift genug, um in jedem Fall korrekte Entscheidungen zu treffen, um also beispielsweise zulässige Parodien oder Karikaturen von dem geschützten Originalwerk zu unterscheiden. Bei ihrem Einsatz würden folglich unweigerlich auch rechtlich einwandfreie Beiträge gesperrt werden. Dadurch könnten Uploader an der Ausübung ihres Rechts auf freie Meinungsäußerung gehindert werden, während andere Nutzer in ihrer Freiheit, Informationen zu empfangen, eingeschränkt würden.

Aber die negativen Auswirkungen der Uploadfilter betreffen nicht nur die Meinungs- und Informationsfreiheit: Denn damit die Filter funktionieren können, müssen sie die hochgeladenen Inhalte analysieren und dabei auch personenbezogene Daten der Uploader sammeln, was mit dem Grundrecht auf Schutz personenbezogener Daten kollidieren könnte. Zu guter Letzt wird noch ein drittes Grundrecht berührt, von dem in den Medien eher selten die Rede war: das Recht auf unternehmerische Freiheit des Diensteanbieters, der sich durch Artikel 17 gezwungen sieht, ein äußerst kostspieliges und kompliziertes Filtersystem einzurichten.

Der Fall Scarlet

Der EuGH hat sich mit der Grundrechtskonformität von Uploadfiltern bereits beschäftigt. In dem Rechtsstreit zwischen der belgischen Verwertungsgesellschaft SABAM und dem Internetanbieter Scarlet hielt der Gerichtshof eine Verpflichtung von Scarlet, Uploadfilter zu installieren, mit den Rechten auf unternehmerische Freiheit, freie Meinungsäußerung und Schutz personenbezogener Daten für unvereinbar. Später bestätigte er diese Ansicht in einem weiteren Urteil.

Diese Rechtsprechung lässt sich allerdings nur begrenzt auf den neuen Artikel 17 übertragen. Der EU-Gesetzgeber hat nämlich Vorkehrungen getroffen, um die neue Bestimmung grundrechtsverträglicher zu machen. So legt Artikel 17 zur Wahrung der Meinungsfreiheit fest, dass urheberrechtlich nichtgeschützte Inhalte nicht blockiert werden dürfen und verpflichtet die Diensteanbieter, ein Beschwerdeverfahren für Uploader von gesperrtem Inhalt einzurichten. Außerdem dürfen laut der Richtlinie Nutzer bei der Überprüfung nicht identifiziert und persönliche Daten nur im Rahmen der bereits bestehenden Datenschutzregelungen verarbeitet werden. So hat man auch den datenschutzrechtlichen Bedenken Rechnung getragen.

Teure Überprüfungsverfahren

Doch daraus ergibt sich andernorts ein Problem, denn diese Absicherungen bringen die Diensteanbieter in die Bredouille: Einerseits ist die urheberrechtliche Kontrolle von großen Datenmengen nur mit automatisierten Uploadfiltern bewältig- und leistbar, andererseits dürfen nach der Richtlinie zulässige Inhalte keinesfalls geblockt und personenbezogene Daten nur in engen Grenzen verarbeitet werden. Kommen also automatisierte Filter für die Richtlinie doch nicht in Frage? Müssen stattdessen andere, deutlich teurere Überprüfungsverfahren unter Beteiligung von Menschen eingeführt werden? Die immensen Kosten, die daraus entstünden, wären wohl kaum mit der unternehmerischen Freiheit vereinbar, zumal der EuGH in Scarlet gegen SABAM schon automatisierte Uploadfilter für zu teuer und aufwändig hielt.

Am Ende könnte so gerade die eher unauffällige unternehmerische Freiheit zum Stolperstein für Artikel 17 werden. Man darf auf das Urteil des EuGH gespannt bleiben; mit der Entscheidung über die Klage Polens ist allerdings frühestens 2020 zu rechnen. (Lukas Jäger, 11.11.2019)