Innenminister Herbert Kickl begrüßt die Pläne.

Foto: APA/HANS PUNZ

Die EU möchte mit einer neuen Verordnung Terrorinhalte aus dem Netz schaffen. Dafür arbeitet die Kommission schon seit einiger Zeit an einem neuen Entwurf, der Anbieter von Onlineinhalten dazu verpflichten soll, terroristischen Content zu blockieren. Konkret soll er innerhalb von einer Stunde nach Aufforderung einer Behörde gelöscht werden – zudem müssten "proaktive" Maßnahmen gesetzt werden. Die EU-Innenminister haben der Verordnung bereits zugestimmt.

Sind damit Uploadfilter gemeint?

Das Wort wird nicht explizit genannt, jedoch sollen Mittel angewandt werden, die "automatisiert" solchen Content erkennen. Das entspricht also der Definition eines Uploadfilters, ähnlich wie jenem, der laut den Plänen für die kommende Urheberrechtsreform bereits zum Einsatz kommen soll. Um die automatisierte Erkennung sicherzustellen, ist wahrscheinlich, dass digitale Fingerabdrücke solcher Inhalte in Datenbanken gespeichert werden, auf die Anbieter Zugriff haben.

Was sind "terroristische Inhalte"?

Der EU-Rat hat sich in einer Tagung dazu entschieden, auf die Antiterrorrichtlinie zu setzen, die 2017 verabschiedet wurde. Darin werden schwere Straftaten aufgelistet, die "für eine Einstufung als terroristische Straftaten infrage kommen", falls sie mit terroristischem Ziel begangen werden; beispielsweise "Angriffe auf das Leben einer Person" oder eine dahingehende Drohung. Zudem verweist der Rat auf Content terroristischer Vereinigungen, die in der EU-Terroristenliste aufgeführt sind.

Was passiert, wenn Anbieter gegen die Vorgaben verstoßen?

Damit Anbieter sich auch an die Regelung halten, sind hohe Strafen vorgesehen – vier Prozent des Umsatzes weltweit. Damit möchte die EU vor allem Plattformen wie Youtube und Facebook in die Pflicht nehmen. Damit terroristische Organisationen nicht auf kleinere Plattformen ausweichen, sollen diese jedoch auch in die Pflicht genommen werden. Ebenfalls angepeilt werden Tauschbörsen und Cloudanbieter.

Welche Bedenken gibt es?

Uploadfilter befinden sich schon seit längerem immer wieder im Kreuzfeuer der Kritik. Einer der zentralen Punkte ist, dass sie oft legale Inhalte löschen. In der Praxis werden wohl Datenbanken mit digitalen Fingerprints zum Einsatz kommen. Große Anbieter wie Facebook und Google verwenden solche bereits, in Zukunft könnte sich die Nutzung ausweiten. Das Problem dabei ist jedoch, dass diese Datenbanken aktuell wenig Transparenz liefern – weder die EU-Kommission noch Europol haben, wie eine Anfrage von Netzpolitik.org ergab, einen Zugriff darauf. Landet ein eigentlich erlaubter Inhalt in so einer Datenbank, kann er nicht mehr hochgeladen werden.

Zudem könnte eine solche Verordnung in Kombination mit den E-Evidence-Plänen zur Folge haben, dass auch ausländische Behörden eine Löschung bei Providern beantragen könnten – und in der Folge die Aufnahme in einer solchen Datenbank. Da die Frist auf bloß eine Stunde angesetzt ist, würde das bedeuten, dass Provider kaum Zeit hätten, Einspruch zu erheben, und daher wohl eher zur Löschung tendieren würden.

Die EU will Terrorinhalte einschränken – auch mit einem Uploadfilter.
Foto: apa

Die ISPA, der Verband österreichischer Internetprovider, bezeichnet die Maßnahmen im Gespräch mit dem STANDARD als "völlig überzogen": "Die Verpflichtungen laufen auf 24/7-Bereitschaftsdienste für jene hinaus, die Nutzern die Möglichkeit geben, Inhalte im Netz zu veröffentlichen", sagt Pressesprecherin Ute Krotscheck. "De facto würden diese Verpflichtungen zu einer Monopolisierung des Hostingmarktes führen, da kleine und mittlere Anbieter die Anforderungen wohl kaum erfüllen können und dadurch aus dem Markt gedrängt werden." "Proaktive" Maßnahmen seien de facto "Zensurfilter", die Betreiber auf eigene Kosten betreiben müssten.

"Die Verordnung geht damit klar vom jahrzehntealten Ansatz weg, dass dem Provider keine derartigen Überwachungsmaßnahmen vorgeschrieben werden dürfen", sagt Krotscheck. "Wir sehen, dass das Totschlagargument der Terrorbekämpfung wieder einmal strapaziert wurde, um horrende Eingriffe in die Freiheit der Bürgerinnen und Bürger zu rechtfertigen. Wir sind sehr verwundert und bedauern, dass Österreich diesem Vorschlag zugestimmt hat."

Was sagen österreichische Parteien dazu?

Die ÖVP begrüßt die Pläne insgesamt, verweist aber darauf, dass es zu früh sei, über die Details der Verordnung zu urteilen. "Was in der wirklichen Welt nicht erlaubt ist, darf auch in der virtuellen nicht erlaubt sein. Selbstverständlich sind wir daher dafür, dass terroristische Inhalte so rasch wie möglich gelöscht werden", sagt der Abgeordnete Heinz Becker (ÖVP) zum STANDARD. Ein beträchtlicher Teil der Radikalisierung finde im Netz, oft über soziale Medien, statt. Kritische Punkte könnten die genaue Definition von "terroristischen Inhalten" sowie die Letztverantwortung für die Löschung sein, heißt es.

Auch die FPÖ steht den Vorschlägen des EU-Rats positiv gegenüber. "Online-Terrorinhalte haben eine Schlüsselrolle bei fast jedem Terrorangriff gespielt, den wir in Europa gesehen haben", sagt der EU-Ratsvorsitzende und Innenminister Herbert Kickl (FPÖ). Mit dieser Vereinbarung sende der EU-Ministerrat eine starke Botschaft an die Internetprovider. Harald Vilimsky, Delegationsleiter der FPÖ im EU-Parlament, sagt zum STANDARD, dass der aktuelle Vorschlag "in Summe den richtigen Weg weist", es aber "berechtigte Vorsicht" gebe.

Er verweist auf die Wahrung der Meinungsfreiheit, auf die Definition solcher Inhalte sowie auf Uploadfilter und die Gefahr, dass diese auch Inhalte blockieren, die eigentlich legal sind. Vilimsky fügt hinzu, dass "Schutzvorkehrungen" vorgesehen seien, etwa "die Aufsicht und die Überprüfung durch Menschen". Ebenfalls problematisch sei die Durchsetzung, da viele der betroffenen Unternehmen ihren Sitz nicht innerhalb der EU hätten.

Die SPÖ hält eine solche Regelung mit Vorbehalt für notwendig. Rebecca Kampl, parlamentarische Assistentin von SPÖ-Fraktionsvize Josef Weidenholzer, der als Schattenberichterstatter fungiert, erklärt dazu: "Inhaltlich sind wir überzeugt, dass der Ansatz, illegale Inhalte möglichst schnell aus dem Netz zu löschen, sehr gut ist." Wichtig sei, zu löschen statt zu filtern. Kritisch sehe man eine kurze Frist.

Zudem sei essenziell, dass es zu keiner privaten Rechtsdurchsetzung durch Provider kommt. Außerdem fügt sie hinzu: "Zu oft wurde die Liste der schweren Straftaten erweitert, zum Beispiel auf Copyright-Verletzungen. Man braucht einen klaren Anwendungsbereich und klare Definitionen sowie eine starke Grundrechtsgarantie."

Die Grünen sehen das Vorhaben kritisch. Michel Reimon, Leiter der grünen Delegation im EU-Parlament, sagt zum STANDARD: "Die schwammige Definition von 'Terror' wird hier zum Bumerang für Bürgerrechte." Uploadfilter würden die EU nicht freier oder sicherer machen, sondern die Meinungsfreiheit einschränken. "Wie schon beim Copyright werden kleine Plattformen sich diese Filter nicht leisten können und damit Probleme bekommen", so Reimon.

Die Neos reagieren ebenso negativ. "Wieder einmal werden unter dem Vorwand der Sicherheit Freiheitsrechte eingeschränkt. Uploadfilter können dazu verwendet werden, die Meinungsfreiheit massiv einzuschränken, und öffnen der Zensur Tür und Tor", sagt Pressemitarbeiterin Magdalena Liedl.

Wie weit ist die Richtlinie?

Noch ist es viel zu früh, um bestimmen zu können, ob die Reform so oder in einer ähnlichen Form eingeführt wird. Die Diskussionen im EU-Parlament haben noch nicht begonnen, jedoch stehen viele Abgeordnete den Vorschlägen positiv gegenüber. Berichterstatter für die Verhandlungen ist der Brite Daniel Dalton (Tories). Die Verhandlungen beginnen im Jänner kommenden Jahres, erst dann werden die Parteien sich exakter positionieren. (Muzayen Al-Youssef, 18.12.2018)