Im Fall einer potenziell unrechtmäßigen Löschung können Löschanordnungen kurzfristig überprüft werden.

Foto: APA

Die EU-Verordnung für terroristische Inhalte im Netz ist in Kraft getreten. Innerhalb von einer Stunde müssen Onlineplattformen demnach in Zukunft Content, der von beliebigen Behörden EU-weit als terroristisch eingestuft wurde, entfernen. Die Anbieter der Webseiten haben ein Jahr lang Zeit, um ihre Infrastruktur dahingehend anzupassen.

Unter derartigen Inhalten versteht die Verordnung Darstellungen, die zu terroristischen Straftaten anstiften. Zudem sind Beiträge von Vereinigungen, die in der EU-Terroristenliste geführt werden, untersagt. Betroffen sind sämtliche Plattformen, in denen nutzergenerierte Inhalte erstellt und hochgeladen werden können. Diese müssen eigene verantwortliche Kontaktstellen einrichten und einen Zustellbevollmächtigten ernennen. Zeit dafür haben sie bis Juni 2022, dann können bei Verstößen hohe Strafen folgen – nämlich bis zu vier Prozent des globalen Jahresumsatzes. Bei einer Bestrafung soll die Größe des Unternehmens und die Frage, ob die Verstöße systematisch begangen wurden, eine Rolle spielen.

Kurzfristige Prüfung

Im Fall einer potenziell unrechtmäßigen Löschung können Löschanordnungen kurzfristig überprüft werden – dafür müssen die Plattformanbieter das selbst fordern. Sollte ein Inhalt gelöscht werden, muss die betroffene Nutzerin oder der betroffene Nutzer informiert werden. Diese oder dieser kann ebenso Einspruch erheben.

Zuvor war von Netzaktivisten kritisiert worden, dass standardmäßig keine gerichtliche Kontrolle vorgesehen ist. So könnten Inhalte, die in einem EU-Staat als unproblematisch eingestuft werden, von einem anderen verboten werden.

Kein Verbot

Zudem wurden sogenannte Uploadfilter, also Systeme, die automatisiert nach bestimmten Inhalten suchen und deren Veröffentlichung unterbinden, zwar nicht explizit vorgeschrieben – aber auch nicht verboten. Aufgrund der sensiblen Strafen könnten manche Unternehmen auf diese zugreifen, um Verstöße zu vermeiden, dabei aber auch legale Inhalte blockieren. Anders als menschliche Moderatoren können die Algorithmen nämlich keinen Kontext erkennen und so auch legale Inhalte verbieten. (muz, 8.6.2021)