Das Bild zeigt X-Eigentümer Elon Musk
Die Sparmaßnahmen bei X führen offenbar auch dazu, dass die Content-Moderation massiv darunter leidet.
EPA/TOLGA AKMEN / POOL

Eine aktuelle Untersuchung des Center for Countering Digital Hate (CCDH) hat ernsthafte Bedenken hinsichtlich der Moderationspraktiken von X (vormals Twitter) geäußert. Konkret wirft man der Plattform das Versagen bei der wirksamen Bekämpfung von Hassreden und Fehlinformationen vor, insbesondere im Zusammenhang mit dem Konflikt zwischen Israel und Hamas. Musk habe einen "Safe Space für Rassisten" geschaffen, fasst Imran Ahmed, CEO und Gründer des CCDH, die Missstände zusammen.

Das CCDH hat bei seiner Untersuchung 200 Beiträge ermittelt, die gegen die Richtlinien der Plattform verstoßen, darunter Fälle von Antisemitismus, Islamophobie und Aufstachelung zur Gewalt gegen Muslime, Palästinenser und Juden. Erstaunlicherweise waren 98 Prozent dieser Beiträge auch eine Woche, nachdem sie X gemeldet worden waren, noch auf der Plattform zu finden – mit insgesamt mehr als 24 Millionen Aufrufen.

Die gemeldeten Beiträge wurden auf 101 Konten gefunden, von denen 43 verifizierte Nutzer sind, die durch den Algorithmus eine höhere Sichtbarkeit ihrer Beiträge erhalten. Dies gibt Anlass zu weiteren Bedenken hinsichtlich der Rolle der Plattform bei der Verbreitung potenziell gefährlicher Inhalte. Frühere Anschuldigungen des CCDH gegen die Plattform, die Zuschauerzahlen von Hassreden zu niedrig auszuweisen, führten Anfang des Jahres zu einer juristischen Auseinandersetzung, bei der die Plattform das CCDH verklagte, weil sie angeblich Daten auswertete, um "fehlerhafte" Studien zu erstellen.

X verweist auf bisherige Maßnahmen

Gegenüber The Verge hat Joe Benarroch, Head of Business Operations bei X, bestätigt, dass das Unternehmen durch den Bericht des CCDH auf diese Probleme aufmerksam gemacht wurde. Er verwies auf einen Blogbeitrag des Unternehmens, in dem auf die Schritte hingewiesen wird, die unternommen worden sind, um während des Konflikts zwischen Israel und Hamas die Sicherheit auf der Plattform zu gewährleisten.

Dazu gehören unter anderem die Löschung von 3.000 Konten, die in Verbindung mit gewaltbereiten Gruppen in der Region stehen, und das Ergreifen von Maßnahmen gegen mehr als 325.000 Inhalte, die gegen die Richtlinien der Plattform verstoßen. Nicht näher darauf eingegangen wurde im Blogbeitrag, wie schnell X auf die Meldungen dieser problematischen Beiträge und Konten reagiert hat.

Diese Situation spiegelt die große Herausforderung für soziale Netzwerke wider, wenn es darum geht, ein Gleichgewicht zwischen der Freiheit der Meinungsäußerung und der Eindämmung von Hassreden und Fehlinformationen zu finden. Da solche Plattformen eine zentrale Rolle bei der Gestaltung des öffentlichen Diskurses spielen, hat die Effizienz bei der Moderation von Inhalten erhebliche Auswirkungen auf das soziale Miteinander und die öffentliche Sicherheit. Der CCDH-Bericht unterstreicht einmal mehr die Notwendigkeit transparenter, wirksamer und rechenschaftspflichtiger Moderationspraktiken im digitalen Raum. (red, 15.11.2023)