Foto: reuters/Ruvic

Facebook hat in Deutschland in den ersten drei Monaten des Jahres eigenen Angaben zufolge mehr als 160.000 Inhalte entfernt, die als Hassrede eingestuft wurden und damit gegen die hausinternen Richtlinien verstießen. Rund 70 Prozent davon seien vom Online-Netzwerk selbst entdeckt worden, wie es am Freitag mitteilte.

Transparenzbericht

Facebook veröffentlichte die erstmals ausgerechnete Zahl zusammen mit dem halbjährlichen Transparenzbericht zur Umsetzung des deutschen Netzwerkdurchsetzungsgesetzes (NetzDG) gegen Hass und Hetze im Netz. Gemäß NetzDG wurden laut Facebook unterdessen im gesamten ersten Halbjahr 1050 Inhalte gemeldet, von denen 349 gelöscht oder gesperrt worden seien. Aus Sicht des Online-Netzwerks ist die Aufspaltung der Meldewege notwendig, um zwischen rechtswidrigen Inhalten nach NetzDG und Verstößen gegen die Hausregeln trennen zu können. Entsprechende Angaben zum zweiten Quartal liegen noch nicht vor.

NetzDG gegen Hass im Netz

Das vor zwei Jahren beschlossene Netzwerkdurchsetzungsgesetz verpflichtet Internet-Plattformen zu einem härteren Vorgehen gegen Hass, Hetze und Terror-Propaganda. Klar strafbare Inhalte müssen binnen 24 Stunden gelöscht werden, auf Nutzerbeschwerden soll nach spätestens 48 Stunden reagiert werden. Zudem müssen die Unternehmen alle sechs Monate einen Bericht über ihren Umgang mit Beschwerden veröffentlichen. (red, APA/dpa, 26.7.2019)