Zuckerberg wollte mit "Downranking" eine effektive Methode etablieren, um "provokante Inhalte" nicht vor relevante zu reihen.

Foto: JOSH EDELSON

Mitarbeiter von Facebook haben zuletzt ein "massives Reihungsversagen" im Algorithmus der Plattform aufgedeckt, wodurch offenbar rund die Hälfte aller Newsfeeds "zweifelhafte Inhalte" prominent angezeigt bekamen, und das über eine Dauer von sechs Monaten.

Anstieg seit Oktober

Wie "The Verge" berichtet, habe man den Fehler intern bereits im Oktober erstmals bemerkt. Bereits damals war ein starker Anstieg an Falschinformationen in den Newsfeeds zu bemerken, ist in einem Bericht zu lesen, der erst vor einer Woche intern bei Facebook kommuniziert wurde. Weltweit stiegen die Zugriffe auf diese unerwünschten Inhalte um bis zu 30 Prozent, obwohl sie von externen Beratern bereits als potenzielles Risiko eingestuft wurden. Aber auch das Wissen über den Fehler nutzte nichts, da man intern nicht in der Lage war, die Ursache dafür zu finden. Erst am 11. März wurde man des Problems Herr.

In dem Bericht wurden als Beispiele für problematische Inhalte etwa Nacktheit, Gewalt und vor allem die russische Propaganda der letzten Wochen genannt. Gerade der Kampf gegen diese Propaganda hatte zuletzt dafür gesorgt, dass Facebook und Instagram in Russland blockiert wurden – davor war man offenbar, ohne es zu wollen, ein Multiplikator für Sender wie RT.

Ein Sprecher von Facebook hat das technische Problem bereits offiziell bestätigt. Die "Ungereimtheiten beim Downranking" hätten mit "vorübergehenden Erhöhungen der internen Metriken" korreliert. Es habe sich um einen Software-Bug gehandelt, der jetzt beseitigt sei.

Unter dem Schlagwort Downranking hatte Facebook über die Jahre versprochen, die Qualität der Newsfeeds zu erhöhen. Glaubwürdige Quellen wurden vor unglaubwürdige gereiht. Damit reagierte man vor allem auf kontroversielle Polit-Storys und auf Kriegspropaganda. Zuckerberg sagte in diesem Zusammenhang bereits 2018 in einem Interview, dass man so dem Trend entgegenwirken wolle, dass Leute vor allem auf "sensationslüsterne und provokante" Inhalte reagieren.

Mehr Transparenz

Nicht nur dieser Vorfall zeige, dass es mehr Transparenz dieser Internetplattformen benötige, sagt die ehemalige Facebook-Beraterin und Gründerin des Integrity Institute, Sahar Massachi. "Dass Fehler in solchen komplexen Systemen passieren, ist unvermeidlich", sagt Massachi, "aber was passiert, wenn eine mächtige Plattform wie diese von solch einem betroffen ist?" Wie würde man davon erfahren, wenn der Konzern damit nicht an die Öffentlichkeit geht? Es müsse Verantwortlichkeiten geben, um diese Probleme künftig schneller lösen zu können. (red, 1.4.2022)