Bild nicht mehr verfügbar.

Mehr als nur heiße Luft in schillernden Blasen? Die auf individuelle Vorlieben zugeschnittene Auswahl von Informationen in Social Media, auf Nachrichtenportalen und bei Suchmaschinen werden Filterblasen oder Filter-Bubbles genannt.

Foto: AP/Petros Karadjias

Ricardo Baeza-Yates war Gast der Vienna Gödel Lecture an der TU Wien. Bis 2016 war er Forschungsleiter bei Yahoo.

Foto: Christian Fischer

STANDARD: Kein Mensch ist objektiv. Jeder hat Vorurteile und Befangenheiten. Sie sagen, dass das Netz diese Art von "Bias" verstärkt. In welcher Weise?

Baeza-Yates: Es gibt verschiedene Arten dieser Verzerrungen. Viele Menschen machen sich Sorgen wegen Fake-News. Das ist ein Fall von Bias im Netz – die einfachste Art und auch vergleichsweise einfach zu identifizieren. Falsche Inhalte sind aber nur die Spitze des Eisbergs. Die Existenz vieler Arten von Bias ist den meisten Menschen nicht bewusst. Und darüber mache ich mir Sorgen. Ein Bias kann mit der Art der Präsentation verknüpft sein und mit der Art, wie wir mit Inhalten interagieren. Es kann auch bereits in den Algorithmen festgeschrieben sein.

STANDARD: Was sind Beispiele für diese Arten von Bias?

Baeza-Yates: Eines der größten Probleme sind Verzerrungen durch die Präsentation. Man kann im Supermarkt nur das Brot kaufen, das dort verfügbar ist. Niemals ist für einen Konsumenten jedes existierende Produkt verfügbar. Das ist auch im Web der Fall. Ein Online-Streaming-Service kann mir nur eine stark limitierte Auswahl zeigen. Viele Filme werden nicht präsentiert – nicht weil sie schlecht sind, sondern weil nicht genug Informationen zur Verfügung stehen. Wird ein Film nur von wenigen Menschen gesehen, ist schwer zu eruieren, ob er gut ist. Im Leben werden reiche Menschen immer reicher. Im Internet werden populäre Filme immer populärer.

STANDARD: Sie sprechen über Filterblasen?

Baeza-Yates: Verzerrung durch die Präsentation heißt, dass ein System nicht alles lernen, nicht alles zeigen kann. Filterblasen sind eine Konsequenz von Personalisierung. Sie zeigen den Nutzern, was sie am liebsten haben. Aber sie können nichts wirklich Neues zeigen; nichts, das man mag, aber noch nie gesehen hat. Die Frage ist: Wie kann man nur auf Basis des eigenen Wissens von der Welt etwas Neues finden?

STANDARD: Welche Strategien gibt es, um die Filterblasen im Web zu durchbrechen?

Baeza-Yates: Es gibt zumindest drei Ansätze: Der naheliegende ist, die Diversität zu verstärken. Obwohl das System weiß, der Nutzer mag A, zeigt es dennoch auch B, C und D. Der zweite Ansatz ist das, was auf Englisch "serendipity" heißt, also zufällige Entdeckungen zu ermöglichen. Der Empfehlungsalgorithmus sucht dabei etwas, was vielleicht mit Vorlieben des Nutzers verwandt ist. Der dritte Ansatz ist am extremsten. Er lautet: Zeig etwas, das dem Gegenteil der eigenen Vorlieben entspricht. Auch wenn der Nutzer es nicht mag, möchte er vielleicht wissen, dass es das gibt.

STANDARD: Auch Nachrichtenseiten wollen künftig Inhalte stärker personalisieren und Gewichtungen gemäß individueller Vorlieben bieten. Wie verhindert man dabei, dass Filterblasen entstehen?

Baeza-Yates: Eine Möglichkeit ist, dem Nutzer entsprechende Auswahlmöglichkeiten zu geben. Mit einem Klick auf einen Button könnte man das Kommando "Zeig mir mehr Diversität!" abrufen. Ein anderer Button könnte lauten: Überrasche mich! Ein dritter: Zeig mir die dunkle Seite! Auf diese Art können die Leute ihre Blase platzen lassen.

STANDARD: Sie sagten, die Verzerrungen sind nicht nur in Inhalten, sondern auch in den Algorithmen festgeschrieben. Wie das?

Baeza-Yates: Hier ist das Problem subtiler. Algorithmen verwenden Daten, um eine Lösung zu erzielen. Wenn die Daten einem Bias unterliegen, ist das auch bei der Lösung der Fall. Doch die Algorithmen können das Bias noch verstärken. Ein Beispiel: In Fotodatenbanken hilft ein lernendes System dem Nutzer, die Bilder zu beschlagworten. Es schlägt vor, dass ein Hund, ein Haustier, ein Welpe zu sehen ist. Das wird gerne verwendet. Doch darin liegt auch das Problem. Nach kurzer Zeit kommen alle Schlagwörter vom Algorithmus. Doch die einzige Art, wie das System lernen kann, ist durch neue Inhalte, die von Menschen kommen. Viel besser ist es, die Beschlagwortung dem Menschen zu überlassen und ein derartiges System als Basis für einen Suchalgorithmus zu verwenden.

STANDARD: Haben Sie noch weitere Beispiele für Bias durch die Algorithmen?

Baeza-Yates: Ein großer Teil der Menschen, die eine Suchmaschine nutzen, klicken das erstgereihte Ergebnis an – auch wenn Ergebnis Nummer drei vielleicht besser wäre. Ein Algorithmus entscheidet über die Position und das damit verbundene Ranking-Bias. Ähnlich ist es, wenn man im Online-Store ein Produkt präsentiert bekommt, für ein weiteres aber weiterscrollen muss. Es gibt auch ein soziales Bias: Ein Produkt hat vielleicht mehr positive Bewertungen, das andere ist aber günstiger. Ich wähle aufgrund dieser Bewertungen, obwohl sie vielleicht auf Fake-Empfehlungen basieren.

STANDARD: Wie können Suchmaschinen die Qualität der gefundenen Inhalte bewerten?

Baeza-Yates: Das ist ein schwieriges Problem. Es werden viele Attribute abgewogen, um die besten Ergebnisse herauszufiltern. Der wichtigste Input ist aber der Mensch. Das System glaubt, wenn viele Leute etwas anklicken, muss es das beste Ergebnis sein. Man muss diesem Problem Rechnung tragen. Also hat man in Suchmaschinen etwas eingebaut, das man Debiasing nennt. Wenn also ein neues Suchergebnis angeklickt wird, obwohl es weiter hinten gereiht ist, wird das anders gewichtet als ein bisheriges beliebtes Ergebnis.

STANDARD: Wie kann man die rapide Verbreitung falscher Nachrichten unterbinden?

Baeza-Yates: Falschinformationen breiten sich auf viele Arten aus. Oft werden falsche Inhalte aus dem Web etwa in Blogs in neuer Sprache reproduziert. Vor zehn Jahren haben wir gezeigt, dass ein Drittel der Netzinhalte aus den anderen zwei Dritteln gemacht ist. Heute ist es vielleicht bereits die Hälfte. Das Internet ist ein lebendes Organ, das sich selbst reproduziert und damit auch falsche oder mit Bias behaftete Inhalte. Die Einzigen, die das kontrollieren können, sind die Menschen. Eigentlich sollte das Prinzip so funktionieren, dass die Mehrheit der Menschen es besser wissen sollte. Dem widersprechen viele demokratische Wahlergebnisse. Da gibt es auch Beispiele in der Gegenwart.

STANDARD: Viele geben den Internetforen und Social-Media-Kanälen, die die Verbreitung ermöglichen, die Schuld.

Baeza-Yates: Ja, es gibt Klagen und Gerichtsprozesse. Aber ich kann auch nicht die Telefongesellschaft verklagen, wenn mich jemand am Telefon beschimpft. Die Menschen verstehen das Telefon als Kommunikationsmedium, das Internet aber nicht. Dabei ist es das beste, das wir haben.
(Alois Pumhösel, 15.6.2017)