Bild nicht mehr verfügbar.

Kaum gemeldete Beiträge mit extremistischen Inhalten werden gelöscht, werfen Forscher sozialen Medien vor.

Foto: AP/Jenny Kane

Die fünf größten Social-Media-Plattformen scheitern an der Aufgabe, antisemitische Beiträge zu löschen. Durchschnittlich 84 Prozent der gemeldeten antisemitischen Beiträge würden online bleiben. Das ergab eine Studie des Center for Countering Digital Hate (CCDH), in der das Vorgehen von Facebook, Twitter, Instagram, Youtube und Tiktok untersucht wurde.

Facebook schnitt demnach am schlechtesten ab, reagierte das Unternehmen doch bei 89 Prozent aller Beiträge nicht – obwohl das Unternehmen immer wieder betonte, strikter gegen Antisemitismus vorgehen zu wollen. Wirklich besser schnitt die Konkurrenz allerdings auch nicht ab.

Hunderte Beiträge, kaum Löschungen

Zur Methodik: Das CCDH meldete im Mai insgesamt 714 antisemitische Postings an die Plattformbetreiber, die gemeinsam 7,3 Millionen Mal gesehen wurden. Instagram reagierte bei 277 beobachteten Beiträgen 52-mal. Bei Tiktok kam es bei 119 Beiträgen zu 22 Löschungen. Twitter handelte bei 137 Postings 15-mal, während es bei Youtube 52 zu elf steht. Facebook reagierte auf nur 14 von 129 Beiträge.

Eine Reaktion blieb bei allen Formen des Antisemitismus aus, sowohl bei Verschwörungstheorien (die zu 89 Prozent online blieben) als auch bei extremistischen Postings, in denen der Holocaust geleugnet wird (80 Prozent ohne Reaktion) oder neonazistische Inhalte verbreitet werden. Letztere blieben in 70 Prozent der Fälle online. Doch nicht nur das, Instagram, Tiktok und Twitter erlaubten laut den Forschern mehrere antisemitische Hashtags, die im Laufe des Untersuchungszeitraums mehr als 3,3 Millionen Aufrufe erzielten, wie "Heise" berichtet.

Gegenüber "Axios" sagte ein Facebook-Sprecher bezüglich der Studie, dass man erhebliche Maßnahmen ergreifen würde, um entsprechende Inhalte zu entfernen, "während wir die Menschen mit maßgeblichen Informationen darüber aufklären". Es werde in der Studie nicht berücksichtigt, dass das Unternehmen seit 2017 gegen 15-mal mehr "Hassbeiträge" vorgegangen sei. 97 Prozent der gelöschten "Hassreden" würde man finden, bevor sie überhaupt gemeldet werden.

Sperre von Wissenschaftern

In einem davon unabhängigen Fall wurde am Mittwoch bekannt, dass Facebook die privaten Konten mehrerer Wissenschafter sperrte, die sich die Werbetransparenz und Verbreitung von Falschinformationen auf der Plattform genauer ansahen. Laut dem Unternehmen haben sie gegen die Nutzungsbedingungen verstoßen, da sie Userdaten sammelten. Die Betroffenen erwiderten hingegen, dass sie zum Schweigen gebracht würden, weil sie Probleme aufdeckten.

Die Forscher waren Teil des NYU Ad Observatory und arbeiteten an einem Projekt, mit dem der Ursprung und die Verbreitung politischer Werbebeiträge auf Facebook untersucht werden sollte, wie "The Verge" berichtet. Damit sollte aufgedeckt werden, wer für die Anzeigen bezahlt und auf wen sie abzielen.

Um ihre Arbeit zu erleichtern, entwickelten sie zudem ein Browser-Plugin, das automatisch Daten darüber sammelt, welche politischen Werbeanzeigen Nutzern angezeigt werden und warum sie gerade auf diese abzielen. Gesammelte Daten waren dann öffentlich für andere Forscher, aber auch Journalisten zugänglich, um die Trends und Probleme auf Facebook sichtbar zu machen.

Quelle für Medienberichte

Daraus entstanden mehrere Recherchen, unter anderem von "Buzzfeed News" zum Thema, dass Facebook nicht offenlegt, wer für politische Anzeigen bezahlt. Aber auch eine "The Verge"-Recherche dazu, dass rechtsradikale Falschinformationen deutlich mehr Engagement bringt als Fake-News aus linken Quellen. (red, 5.8.2021)