Foto: AFP / Arun Sankar

Fake-News, Hassrede oder auch negative Effekte auf die Psyche der User: Facebook sieht sich seit einiger Zeit vor allem negativen Schlagzeilen gegenüber. Auch dass der Konzern Medienberichten zufolge seinen Namen ändern will, dürfte zumindest teilweise am angekratzten Image liegen. Derzeit erheben mehrere Whistleblower Vorwürfe gegenüber dem Social-Media-Unternehmen, den eigenen Profit über die Sicherheit der Nutzer zu stellen.

Besonders prominent sind die angesprochenen Probleme offenbar in Facebooks größtem Markt Indien, wie mehrere US-Medien unter Berufung auf interne Unternehmensdokumente berichten. Schon 2019 sprach ein Facebook-Mitarbeiter davon, im Rahmen einer Beobachtung mit Hassrede, Falschinformationen und Gewaltaufrufen überschwemmt worden zu sein: "Bei Beobachtung des News-Feeds dieses Testnutzers habe ich in den letzten drei Wochen mehr Bilder von toten Menschen gesehen als in meinem gesamten Leben", heißt es in einem Ende Februar 2019 veröffentlichten Bericht. Zuvor legte der Analyst ein fiktives Konto eines indischen Nutzers an und folgte allen algorithmischen Vorschlägen für neue Seiten und Inhalte.

Dutzende Beobachtungen

In Wirklichkeit sollen Facebook-Mitarbeiter laut der "New York Times" dutzende solcher Studien und Memos über die Lage der Plattform in Indien geschrieben haben, laut denen das Unternehmen in ein Land expandiert sei, ohne die potenziellen Auswirkungen auf lokale Politik und Kultur vollständig zu verstehen. Gleichzeitig habe man versäumt, die notwendigen Ressourcen aufzuwenden, um auf auftretende Probleme zu reagieren – obwohl klar gewesen sein soll, dass die schwache Moderation für Missbrauch anfällig ist.

Einem weiteren Bericht zufolge verzeichneten Facebook-Analysten in den Monaten nach Dezember 2019 – ein Zeitraum, in dem in Indien religiöse Proteste stattfanden – einen bis zu 300-prozentigen Anstieg hetzerischer Inhalte, berichtet das "Wall Street Journal". Gerüchte und Gewaltaufrufe sollen im Februar 2020 vor allem im Messenger-Dienst Whatsapp verbreitet worden sein. Damals starben zahlreiche Menschen bei Zusammenstößen zwischen Hindus und Muslimen.

Hass schürende Inhalte

Nutzer beider Religionszugehörigkeit sagen demnach, dass sie "einer großen Menge an Inhalten ausgesetzt sind, die zu Konflikten, Hass und Gewalt auf Facebook und Whatsapp aufrufen". Unter anderem würden Muslime für die Verbreitung von Covid-19 verantwortlich gemacht. Außerdem soll die Behauptung verbreitet worden sein, dass muslimische Männer Hindu-Frauen als eine "Form der muslimischen Übernahme" des Landes heiraten wollen würden.

Etliche dieser Probleme sollen auch im März 2021 noch existiert haben. Laut einem damals veröffentlichten Bericht soll es zahlreiche entmenschlichende Beiträge gegeben haben, in denen Muslime mit Schweinen und Hunden verglichen wurden. Außerdem wurde die Falschinformation verbreitet, dass der Koran Männer dazu aufrufe, ihre Familienmitglieder zu vergewaltigen.

Eine KI mit zu wenig Sprachkenntnissen

Facebook wusste schon damals, dass entsprechende Inhalte auf der eigenen Plattform existieren, heißt es im Bericht, und müsse deshalb die automatische Moderation verbessern. Das Problem dabei: Facebook hat seine KI-Systeme eigenen Aussagen zufolge mit nur fünf der 22 offiziell in Indien anerkannten Sprachen trainiert. In Hindi und Bengali scheinen jedoch noch immer zu wenige Daten zur Verfügung zu stehen, um eine angemessene Überwachung von Inhalten zu garantieren. Ein Großteil der auf Muslime abzielenden Inhalte "wird nie gekennzeichnet oder bearbeitet", heißt es im Bericht deshalb.

Laut dem "Spiegel" sagte ein Facebook-Sprecher inzwischen, dass der Konzern seine Bemühungen gegen Hassrede in nichtenglischen Sprachen verstärkt habe. Zuvor ging aus internen Dokumenten hervor, dass der Großteil des Budgets zur Bekämpfung von Falschinformationen in den USA zum Einsatz kam – obwohl sich dort weniger als zehn Prozent der Nutzer befinden. (mick, 25.10.2021)