Zum Autor: Michael Litschka ist Wirtschafts- und Medienethiker und lehrt und forscht an der FH St. Pölten. Er ist Gründungsmitglied des IMEC (Interdisciplinary Media Ethics Center).

Foto: Claudia Mann

Die Medien- und Kommunikationsethik hat seit einiger Zeit ein neues und wichtiges Betätigungsfeld: Algorithmen-gesteuerte Plattformökonomie und politische Entscheidungen, wie sie sich einerseits an neuen Geschäftsmodellen großer Unternehmen wie Alphabet/Google (Beispiel: Empfehlungssystem des Video-Streaming-Dienstes Youtube), andererseits an algorithmischen Unterstützungsprozessen bei Zuteilungsfragen (Beispiel: AMS-Algorithmus zur Zuteilung der Arbeitslosenförderung anhand bestimmter Kategorien Arbeitssuchender, oder Social-Credit-System in China) zeigen. Gerade für ersteren Fall besteht eine gewisse Intransparenz, was Ursprung und Ziel des Algorithmus betrifft und wie dieser genau arbeitet. Zwar können wir dies aufgrund der Geschäftspolitik der großen Plattformunternehmen nur schwer herausfinden, es gibt aber immer wieder Hinweise auf deren Arbeitsweise und damit verbundene ethische Probleme.

Unternehmen, die als sogenannte Plattformen mittels digitaler Wertschöpfungsketten große Gewinne erarbeiten und unsere Medienrezeption durch Algorithmen beeinflussen (als Beispiele können etwa Facebook, Google, Amazon, aber natürlich auch kleinere Unternehmen der Sharing Economy wie Uber und Airbnb genannt werden), sind unter anderem deshalb so stark, weil sie, statt sich auf die Qualität des Contents zu fokussieren, Clickbaiting, Monopolisierung verschiedener Serviceleistungen und nicht zuletzt die Nutzung von Userdaten für personalisierte Werbung perfektionieren. Vor allem wollen sie die Userinnen und User an sich binden, wozu unter anderem sogenannte Recommender-Systeme (Empfehlungssysteme) dienen, wie sie zum Beispiel Youtube verwendet, das aufgrund früherer Nutzerinformationen automatisch Content in Dauerschleife ausspielt.

Da nach aktuellen Schätzungen (etwa des Digital News Report 2018) mehr als 80 Prozent der 18-bis-24-Jährigen in Österreich diese Plattform nutzen (und somit Youtube in dieser Zielgruppe Nummer eins der sozialen Medien ist), und fast 25 Prozent dieser Zielgruppe auch Nachrichten über den Dienst rezipieren, stellt sich die Frage, ob der hinter diesem Empfehlungssystem stehende Algorithmus Filterblasen und Echokammern fördert. Das Algorithmen-basierte Empfehlungssystem von Youtube beeinflusst das Nutzerverhalten maßgeblich, da nach jedem Video sofort das nächste Video per Autoplay abgespielt wird; mit der Zeit lernt der Empfehlungsalgorithmus, welche Inhalte am besten zum Profil der Nutzerinnen und Nutzer passen und adaptiert so seine Vorschläge. Ziel ist vor allem die längere Verweildauer der Userinnen und User auf der Plattform.

Einfluss politische Gesinnung?

Eine aktuelle Abschlussarbeit an der FH St. Pölten untersuchte diese Thematik mittels eines Experiments. Dabei wurde die politische Gesinnung einer Person als beeinflussender Faktor eingeführt, denn viele Studien zeigen, dass Menschen gerade bei politischen Fragen ähnliche Ansichten suchen und im Netz finden wollen. Dazu wurden zwei Simulations-Accounts erstellt, deren fiktive Besitzer sich nur durch die politische Gesinnung unterscheiden, und zwar eine eher rechtskonservativ und eine eher linksliberal eingestellte Person.

Dazu wurden Kernaussagen über die jeweilige Einstellung der Personen zu Fragen der Politik (EU, Klimaschutz, Digitalisierung, Forschung/Bildung, Überwachung/Sicherheit et cetera) festgelegt. Auf der Startseite erfolgten pro Account nun Vorschläge zur Rezeption, wobei keine eigenen Suchvorgänge erlaubt waren, sondern nur die Vorschläge von Youtube herangezogen wurden. Während des vierwöchigen Experiments sahen diese fiktiven Personen drei Videos pro Tag und Account und bewerteten diese anhand ihrer politischen Gesinnung, basierend auf der in den Videos verwendeten Sprache.

Wie beeinflusst die politische Gesinnung die Algorithmen von sozialen Medien?
Foto: AP

Dazu wurden die Tags sowie die Inhalte der Videos auf Youtube herangezogen und linksliberalen beziehungsweise rechts-konservativen Standpunkten zugeordnet. Danach wurde die Zustimmung zu den Inhalten während des Experiments gemessen und somit auch das Video politisch eingeordnet. Wenn drei Videos desselben Kanals durch einen Simulationsaccount rezipiert oder dreimal derselbe Kanal/dasselbe Thema auf der Startseite vorgeschlagen wurden, wird der Kanal abonniert. Wissenschaftliche Grundlagen für die Einordnung waren Teile von Mikos‘ (2018) Film- und Fernsehanalyse (vor allem die Kategorie "Inhalt und Repräsentation") sowie das Kategoriensystem von DellaPosta et al. (2015) bezüglich liberalen und konservativen Werten.

Was das Experiment aussagt

Die ersten Ergebnisse des Experiments deuten darauf hin, dass dem rechtskonservativen Account quantitativ mehr politische Inhalte zugespielt wurden als dem linksliberalen Account, obwohl die Summe der bewerteten Videos annähernd gleich und auch die Zustimmung/Ablehnung der jeweiligen Inhalte gleich verteilt war. Es scheint also (bei aller Einschränkung durch die Methodik des qualitativen Experiments mit begrenzten Datensätzen und teilweise schwierig zu definierenden Kategorieneinstufungen), als ob der Youtube-Empfehlungsalgorithmus durch die politische Gesinnung der Nutzerinnen und Nutzer beeinflusst wird und stärker auf die Interaktionen rechtskonservativer Userinnen und User reagiert. Dies kann nun mehrere Gründe haben:

  • Es gibt ganz einfach mehr rechtskonservativen Content und entsprechende Kanäle auf Youtube, womit die Wahrscheinlichkeit einer solchen Zuteilung steigen würde.
  • Der Algorithmus kann rechtskonservative Kategorien besser filtern (sie sind von ihm eindeutiger zuordenbar) und somit eher Inhalte dieser Richtung an vermeintlich interessierte NutzerInnen ausspielen.
  • Der Algorithmus ist so programmiert, dass er auf bestimmte politische Inhalte verstärkt reagiert.

Diese Erklärungen (weitere sind natürlich möglich und wahrscheinlich) sind in unterschiedlichem Ausmaß auf Programmierfehler oder fragwürdige unternehmerische Zielsetzungen (etwa hinsichtlich Clickbaiting) zurückzuführen; zwar kann durch die beschriebene Vorgehensweise kein endgültiger Beweis dafür erbracht werden, als ersten (Warn-) Hinweise können wir das Ergebnis jedoch sehr wohl sehen. Wenn somit also künftig wieder über eine verstärkte "Regulierung" von Plattformunternehmen nachzudenken ist, würde ich folgende grundlegenden ethischen Prämissen voranstellen:

  • Die Verantwortung der Plattformunternehmen ist unternehmensethisch umfassend und beinhaltet die Legitimation ihrer Geschäftsstrategien vor dem Markteintritt und entlang der (neuen digitalen) Wertschöpfungskette. Immer mehr Expertinnen und Experten fragen dann auch, warum die hinter vielen Geschäftsmodellen steckenden Algorithmen nicht transparent gemacht werden.
  • Es wäre medienethisch betrachtet wünschenswert, wir alle wüssten über die Wirkweise dieser Algorithmen und deren Verarbeitung unserer persönlichen Daten besser Bescheid, und vor allem: wir müssen verstärkt Mitspracherechte und einen öffentlichen Diskurs diesbezüglich verlangen.
  • Die in Frage stehenden Unternehmen können mit ihren Algorithmen-basierten Modellen selbstverständlich auch viele positive Wirkungen bei den UserInnen erzielen, sie etwa bei Selektionsleistungen und Informationsflut unterstützen, und bei richtiger Programmierung auch zur Informationsvielfalt beitragen (auch hierzu gibt es bereits viel neuere Forschung). Damit dies aber in der Medienwirtschaft und bei den Konsumentinnen und Konsumenten ankommt, sollten sie bereit sein, an Branchennormen (zum Beispiel verbindlichere Kodizes oder neue politische/steuerliche/rechtliche Rahmenbedingungen) mitzuarbeiten. (Michael Litschka, 13.1.2020)