Bild nicht mehr verfügbar.

Youtuber Logan Paul besuchte einen japanischen Wald, fand eine Leiche und amüsierte sich offenbar darüber.

Foto: AP/Pizzelo

"Bro, haben wir gerade eine tote Person im Selbstmord-Wald gefunden?", hörte man den Youtube-Star Logan Paul in einem seiner Videos sagen, in dem er den Aokigahara-Wald in Japan besucht. Dann zoomte die Kamera auf eine Leiche, Paul lacht dazu peinlich berührt. Der Clip wurde millionenfach angeklickt, Logan Paul hat insgesamt 15 Millionen Abonnenten. Es folgte die Löschung des Videos, eine ausführliche Entschuldigung sowie eine Debatte über die Moderationsfähigkeiten der sozialen Medien. Denn der Vorfall rund um Paul mag zwar ein neuer Höhepunkt für verantwortungslose, womöglich schädliche Inhalte auf Youtube und Co sein – allerdings ist es bei weitem nicht die erste Kontroverse.

Antisemitismus bei populärem Youtuber

So postete der Youtuber Pewdiepie seit August 2016 insgesamt neun Videos, in denen Nazi-Symbolik oder antisemitischer Humor vorkam. Pewdiepie galt lange als der Youtuber mit den größten Werbeeinnahmen, nach seinen antisemitischen Ausfällen verlor er jedoch wichtige Partner wie Disney. Sowohl Pewdiepie als auch Paul Logan galten vor ihren Skandalen als Musterbeispiele für eine neue Welle an Superstars, die rein über soziale Medien erfolgreich wurden. Die Youtuber sind naturgemäß vor allem bei einem jungen Publikum beliebt. Sogenannte Influencer haben, wie der Name sagt, mehr Einfluss auf Jugendliche als klassische Stars auf der Film-, Fernseh- oder Musikbranche.

Keine Kontrollen

Doch sie agieren in absoluter Freiheit: Kontrollen, was erlaubt ist, gibt es auf Youtube de facto nicht. Das beweist einmal mehr das Leichenvideo von Paul Logan, das jeder, der Youtube bedienen kann, anklicken konnte. Im klassischen US-Fernsehen, aber auch auf Netflix oder Amazon Video wäre derartiges undenkbar. Man muss kein Freund von strengen Regeln wie bei der US-Telekombehörde FCC sein (keine Schimpfwörter im Rundfunk, tagsüber keine Nacktheit), um sich angesichts der aktuellen Vorfälle ein Mindestmaß an Moderation zu wünschen.

Schädliche Videos für Kinder

In US-Medien wird die Logan-Paul-Causa momentan heftig diskutiert und in Verbindung zur Aufregung um gefährliche Videos, die sich explizit an Kinder richteten, gesetzt. Blogger hatten vor einigen Monaten eine Reihe von Clips entdeckt, die obszöne und brutale Inhalte hatten, sich aber als kinderfreundliche Videos inszenierten, in denen beliebte Figuren wie Elsa aus "Frozen" die Hauptrolle spielten. Youtube kündigte als Reaktion an, deutlich mehr Ressourcen in Moderationsmaßnahmen zu stecken. Die Plattform Twitch erlaubte Streamern, weibliche Kolleginnen als "Schlampen" zu bezeichnen, die auf Twitch "nichts verloren" hätten.

Künstliche Intelligenz versagt

Als eines der Wundermittel gegen Hass im Netz gilt zurzeit künstliche Intelligenz. Doch auch die "Automoderation" sorgt für Probleme. Auf Youtube wurden etwa Streamer mit LGBT-Inhalten versteckt, da der Algorithmus diese als schädlich einstufte. Außerdem knicken die Firmen schnell ein, wenn sehr viele Nutzer Videos melden. Das kann aber auch in Form von Kampagnen erfolgen. Zurzeit sorgt etwa die Löschung eines Facebook-Beitrags für Aufregung, der Gratulationen für das von Hasspostern beschimpfte Wiener Neujahrsbaby sammeln wollte.

Zensurvorwürfe

Was also tun? Deutschland versucht derzeit, mit einem Netzwerkdurchsetzungsgesetz für eine rasche Entfernung schädlicher Inhalte zu sorgen. Soziale Medien müssen binnen 24 Stunden Meldungen über illegale Beiträge bearbeiten. Das dürfte in der Praxis aber zu einem sogenannten "Overblocking" führen. Das heißt, dass auch erlaubte Beiträge aus Vorsicht gelöscht werden.

Momentan werden Konzerne mit dem Spannungsfeld aus Meinungsfreiheit und Hassrede alleingelassen. Die profitorientierten Unternehmen wollen naturgemäß möglichst wenig Geld für ihre Communitymanager ausgeben, daher auch der Hang zu künstlicher Intelligenz. Die Vorfälle mit prominenten Youtubern und Social-Media-Persönlichkeiten – von den Ausfällen "normaler" User ganz zu schweigen – zeigen aber, dass das System nicht funktioniert. Facebook-Chef Mark Zuckerberg hat jedenfalls angekündigt, die Lösung dieses Problems 2018 zur obersten Priorität machen zu wollen. (Fabian Schmid, 5.1.2018)