Das Jahr 2016 war für Youtube turbulent. In den USA lief der Präsidentschaftswahlkampf auf Hochtouren, und das Internet wurde in bislang ungekanntem Ausmaß zum politischen Schlachtfeld. Rund um die Kampagne des späteren Wahlsiegers Donald Trump lief die Social-Media-Maschinerie auf Hochtouren – inklusive viel Desinformation, Bots und Unterstützung aus Russland.

Mittendrin fand sich auch Googles Videoplattform Youtube, die erst kurz davor die Grenze von einer Milliarde Nutzer überschritten hatte. Die Kritik an den Empfehlungsalgorithmen und der Moderation der Plattform wuchs. Wer sich für vergleichsweise harmlose Inhalte interessierte, dem wurden schon einmal Clips mit zunehmend extremerem Content serviert. Wer nach "Kritik am Feminismus" suchte, so beschreibt es "The Atlantic", landete mitunter bald bei extremen Männerrechtlern. Und einige Menschen blieben in der Verschwörungswelt hängen. Davon profitierten auch Persönlichkeiten wie Alex Jones, dessen "Infowars"-Channel damals zwei Millionen Abonnenten verzeichnete.

Youtube stritt zunächst ab, ein solches Problem zu haben, und setzte kaum Maßnahmen. Erst 2019 entschloss man sich, stärker gegen "schädliche Desinformation" und "Borderline-Content" vorzugehen. Letzteres beschreibt problematische Inhalte, die sich gerade noch innerhalb der Richtlinien bewegen. Die Empfehlungsalgorithmen wurden angepasst, um derlei Videos unsichtbarer zu machen. Kanäle, die wiederholt gegen die Regeln verstießen, wurden demonetarisiert und mitunter auch gesperrt.

Nun haben Forscher der Dartmouth University eine Studie zu den damals ergriffenen Maßnahmen im Journal "Science Advances" veröffentlicht, die auch schon einem Peer-Review unterzogen wurde. Sie haben 1.181 Personen über mehrere Monate zum Jahresende 2020 untersucht. Diese wurden zuerst über ihre politischen Einstellungen befragt und anschließend ihre Youtube-Aktivitäten mit einer eigenen Browsererweiterung ausgewertet.

Viele schon vorher radikalisiert

Daraus ergab sich, dass nur sechs Prozent der Partizipanten Videos mit extremistischem Inhalt schauten. Der Großteil von ihnen hatte zudem von sich aus bereits mindestens einen extremistischen Kanal abonniert, war also nicht vom Algorithmus dazu verleitet worden. Dazu landeten sie häufig über externe Seiten bei problematischen Clips und nicht über Links auf der Youtube-Website selbst.

Das Icon der Youtube-App.
Youtube kam um die US-Wahl 2016 stark in die Kritik.
AP/Patrick Semansky

Die Sehgewohnheiten sprechen gegen einen "Kaninchenbau-Effekt". Jene Menschen, die sich vorwiegend extremistische Inhalte aussehen, suchen diesen aktiv. Sie brachten von vornherein passende Einstellungen mit – etwa Rassismus oder Ressentiment gegenüber Genderthemen. Die Untersuchung bietet hier erstmals sehr verlässliche und granulare Einblicke, zuvor setzten Forscher oft auf Bots, die einfach nur automatisch anklickten, was der Algorithmus am Ende eines Clips präsentierte.

Eine klare Schwäche hat die Studie allerdings: Sie muss offen lassen, was vor 2019 passiert ist. Darunter auch die Möglichkeit, dass ein guter Teil der bereits extremistischen Inhalten verfallenen Probanden zuvor auf Youtube radikalisiert wurde.

Nur ein Prozent fiel in den "Kaninchenbau"

Was die Forscher aber liefern, ist eine wissenschaftliche Definition für einen "Kaninchenbau-Event". Dieser beschreibt eine Person, die einer Empfehlung folgt, die sie zu einem extremeren Video führt als jenem, das sie zuvor gesehen hat, ohne dass sie den zugehörigen Kanal abonniert hat. Einen solchen Effekt konnten die Wissenschafter nur bei einem Prozent der Teilnehmer beobachten. Auch das ist aber angesichts der riesigen Userbasis von Youtube eine beachtliche Zahl an Nutzern.

Die Schlussfolgerung ist dennoch, dass Youtube mittlerweile gute Arbeit leistet, um Radikalisierung zu unterbinden. Man hätte sich gerne der Entwicklung vor 2019 gewidmet, um einen Vorher-nachher-Vergleich zu haben. Jedoch dauerte die Umsetzung der Browsererweiterung einige Zeit, ebenso die Aufstellung der Finanzierung. Insgesamt kostete die Untersuchung rund 600.000 Dollar, wovon 500.000 an das Entwicklerteam für die Software gingen. Die Browsererweiterung wurde inzwischen als Open Source veröffentlicht und kann damit auch von anderen Forschungsteams genutzt werden. (red, 4.9.2023)