Was uns Rezipientinnen und Rezipienten an der Kommunikation auf vielen digitalen Plattformen stört, ist bekannt: Filterblasen und Echokammern determinieren unsere Wertvorstellungen und politischen Wahlentscheidungen (Stichwort Corona-Verschwörungstheorien), Algorithmen nutzen unsere Daten zur gezielten Werbeansprache (Stichwort Selbstselektion der Kaufoptionen bei Amazon) oder beeinflussen unser Verhalten im Sinne einer Anpassung an Ziele, die der Algorithmus vorgibt (Stichwort Social-Credit-System in China). Die Zunahme von Hate-Speech und Fake-News widerspricht Grundwerten unserer Informationsgesellschaft, beispielsweise dem für alle offenen Zugang zu vielfältigen Informationen oder der Herstellung einer gemeinsamen Öffentlichkeit, um Demokratie wirksam werden zu lassen.

Dass Plattformen gute ökonomische Gründe haben, den Status quo beizubehalten, sollte ebenso evident sein: Ihre hohen Reichweiten und oftmals automatisches Anwachsen der Nutzerzahlen (Netzwerkeffekte, Skalenökonomien), niedrige Transaktionskosten bei der Gewinnung neuer Kunden/Rezipienten und darauf folgende Lock-in-Effekte (ein Wechsel zu anderen Plattformen ist oft durch die Marktkonzentration unmöglich oder durch den persönlichen Nutzen der etablierten Plattform für die Einzelne unbequem; es muss schon ein öffentlicher Aufschrei wie vor kurzem bei WhatsApp sein, damit die Nutzer zu Signal strömen) sind eben zu verlockend.

Die Reaktion der Politik war lange Zeit, sich auf Marktkräfte und eine Problemlösung durch Selbstregulierung zu verlassen. Tatsächlich haben Plattformen wie Facebook immer wieder neue Nutzungsregeln aufgestellt und auch viel Geld in die Hand genommen, um etwa Postings zu identifizieren, die diese Regeln verletzt haben. Andere haben neue Privacy- und Sicherheitsregeln versprochen (zuletzt etwa Apple für seinen App Store und Messenger-Dienst). Bei den oben angesprochenen Problemen ist dies jedoch bestenfalls die Spitze des Eisbergs. Da die andere Extremlösung, eine Regulierung durch immer mehr und detailliertere Gesetze, in einer freien Marktwirtschaft impraktikabel ist und ebenfalls mit vielen Problemen behaftet (Informationsdefizite des Staates, Time-lags, bis Gesetze wirken, Unübersichtlichkeit des Plattformmarktes etc.), schlagen immer mehr Ökonomen und Kommunikationswissenschafter Ko-Regulierung als Lösung vor.

Hier gibt der Staat den Bereich vor, der reguliert werden muss, und überlässt es den Teilnehmern des jeweiligen Marktes, die Details zu regeln. Natürlich werden die Regeln überwacht und sanktioniert. Viele grundlegende Ideen der geteilten Regulierung hat ursprünglich die Ökonomin und Nobelpreisträgerin Elinor Ostrom für die Bewirtschaftung frei zugänglicher, aber knapper und im Konsum rivalisierender Güter entwickelt (Allmendegüter wie Fischereigründe, sauberes Wasser). Zwei große Unterschiede weist die heutige Plattformökonomie im Vergleich zu diesen frühen institutionenökonomischen Überlegungen auf: Während die von Ostrom fokussierte "Tragedy of the Commons" die Gefahr der Übernutzung beinhaltet, liegt bei (nicht abnutzbaren) Informationsgütern wie Content (und mit solchen handeln Plattformunternehmen unter anderem) das Problem eher auf der Angebotsseite, also bei den Unternehmen: Wir sehen Tendenzen zur Marktkonzentration, zur Unternutzung von wichtigen Informationsgütern und Content (mangelnde Informationsvielfalt) und eine erhöhte Abhängigkeit der Konsumenten von großen Plattformen.

Zudem beziehen sich die von Ostrom vorgeschlagenen Lösungen auf kleine, sich selbst überwachende Gruppen, die sich selber Regeln geben und diese (etwa durch Schiedsgerichte) sanktionieren, wobei der Staat ihnen eben dieses Sanktionsrecht zugesteht. Kann dies für multinational agierende und sich technologisch rasant weiterentwickelnde digitale Plattformen ähnlich funktionieren?

Überlegungen zur Selbstregulierung

Während die Antwort auf diese Frage bald in einem genehmigten Forschungsprojekt der Forschungsgruppe Media Business an der FH St. Pölten gesucht werden wird, bietet es sich doch an, für eine ethisch fundierte Lösung der Problematik auch die richtigen Anreizsysteme zu entwickeln und dafür institutionenökonomische Überlegungen zu nutzen. Dazu ein paar Überlegungen:

Zunächst gilt es, das Ziel möglicher Regulierungsanstrengungen zu definieren. Hier sollten (auch normativ gewendet) der freie und gleiche Zugang zu wichtigen Informationsgütern, Konzentrationskontrollen auf digitalen Märkten, Vertrauen und Transparenz in verwendete Technologie (etwa bei Algorithmen-basierten Geschäftsmodellen), Privacy Regeln, Regeln für den Gebrauch offener Daten und die Ermöglichung faktenbasierter Kommunikationsräume im Zentrum stehen. Ostrom schlägt für diese und ähnliche zu normierende Themen Quasi-Freiwilligkeit vor; die Interaktionspartner auf Plattformen erwarten kooperatives Verhalten und zeigen dieses auch selbst auf, erst bei Zuwiderhandeln sind Sanktionen zu erwarten. Genau diese Idee liegt auch im Kern der Ko-Regulierung von digitalen Plattformen (und geht demnach über die Idee der Selbstregulierung, wie sie in vielen Bereichen der Medienlandschaft üblich ist, siehe Presserat in Österreich, hinaus). Einige konkrete Vorschläge auf drei Ebenen:

Die Medienpolitik könnte sich überlegen, die Idee des öffentlichen Auftrags für öffentlich-rechtliche Sender in abgewandelter Form auch für Unternehmen der digitalen Plattformwirtschaft anzuwenden. Es geht selbstverständlich nicht darum, jeder Plattform, und sei sie noch so klein, einen Informations- oder Kulturauftrag mitzugeben, sondern sich gerade für große Plattformen zu überlegen, inwiefern aus demokratiepolitischer Sicht deren Einfluss bereits jetzt schon so groß ist, dass Fragen wie "Ermöglichen oder behindern wir einen faktenbasierten Diskurs?" in der Unternehmenspolitik und -philosophie eine zentrale Rolle spielen müssen – immerhin erhalten viele der angesprochenen Unternehmen auch Steuerbegünstigungen, Infrastruktur und Humankapital eines Landes zugesprochen.

Hier fällt auch die in der Medienpolitik bereits andiskutierte Subventionierung digitaler Medien (die nun scheinbar als Subventionierung der Digitalisierungsanstrengung vor allem traditioneller Medien kommen wird) hinein. Ebenso die komplexe Frage der Konzentrationsbekämpfung im Mediensektor, wo der Wettbewerb bekanntlich oft nicht über den Preis, sondern andere Faktoren wir Aufmerksamkeit oder Anzahl der Nutzer geführt wird. Ein finanzielles Anreizsystem wäre hier auch das Konzept der Besteuerung von Medien- und Werbegütern ("Digitalsteuer"), das natürlich zumindest europaweit zu denken wäre.

Bild nicht mehr verfügbar.

Wie müssen große Plattformen reguliert werden?
Foto: REUTERS/Dado Ruvic/Illustration/File Photo

Medienrecht und Codes of Conduct

Auf der Ebene der Plattformunternehmen selbst sollten Technologieplattformen wie Google und Facebook in die Governance von Medienunternehmen einbezogen werden, denn sie verbreiten Content (auch wenn sie selbst das oft anders sehen). Solcherart würden vermehrt Elemente des Medienrechts zum Tragen kommen, aber auch die Möglichkeit (beziehungsweise Verpflichtung, wenn man es ko-regulierend betrachtet), an verschiedenen gut etablierten Selbstregulierungsmodellen mitzuarbeiten. Viele Medienunternehmen und Organisationen haben zum Beispiel Codes of Conduct entwickelt (siehe NYT-Ethikkodex, Ehrenkodex für die österreichische Presse), die weit über das hinausgehen, was in den selbstgegebenen Regeln der großen Plattformen steht, insbesondere wo es dort meist um das Verhalten der Community und nicht um das Geschäftsgebaren des Unternehmens geht. Genau Letzteres steht aber im Zentrum moderner CSR-Debatten und sollte demnach auch in der Plattformökonomie Eingang finden. Ein ko-regulierender Anreiz wäre hier die Koppelung von Förderungen an die Mitgliedschaft in selbstregulierenden Organisationen, zumindest aber an das Vorhandensein eines normativ gut unterfütterten Kodex.

Zuletzt gälte es auch auf der individuellen Ebene der Nutzer und Plattformmanager vermehrt ethische Überlegungen anzustellen. Wir können etwa die Verantwortung als "Produser", also als zugleich Content produzierende und rezipierende Individuen, nicht einfach ablegen, sondern sind angehalten, die Reichweite unserer medialen Wirkungen (zum Beispiel bei Postings) immer neu mitzudenken.

Für die Plattformverantwortlichen selbst ist es entscheidend, eine Wertabwägung zwischen ihrem auf Exklusion beruhendem Geschäftsmodell und dem (siehe oben) öffentlichen Auftrag zur Publizität/Information durchzuführen und die "license to operate" (also die Legitimität ihres Geschäftsmodells in der Öffentlichkeit) gut zu argumentieren. Auch hier müsste bei unkooperativem Verhalten eine Sanktionsmöglichkeit bestehen, wofür neuere Regulierungsideen ja bereits Vorschläge aufbieten.

Einschränkung der Meinungsfreiheit?

Es ist interessant zu sehen, dass etwa die geplanten Digital Services und Digital Markets Acts der EU einige dieser Fragen direkt ansprechen. User sollen irreführenden Content kennzeichnen und Plattformen illegale Angebote besser nachprüfen können. Letztere sollen auch Nachweise über die Art der Content-Moderation führen, wobei Entscheidungen darüber anfechtbar sein sollen. Es wird sogar mehr Transparenz bezüglich der verwendeten Algorithmen verlangt, wobei zu sehen sein wird, inwiefern das mit dem Recht auf Bewahrung der Firmengeheimnisse kollidieren wird. Sehr große Plattformen müssen zudem ein Risikomanagementsystem aufbauen und der Forschung Daten zur Verfügung stellen. Compliance soll unter anderem auch durch einen Code of Conduct sichergestellt werden. Man wird sehen, ob die Hoffnungen, die mit diesen neuen Regulierungsvorschriften verbunden sind, halten.

Bleibt eine Frage, die durch die erwähnten Institutionen und Ko-Regulierungen nicht unbedingt gelöst werden kann, nämlich jene der Reichweite und Einschränkung der Meinungsfreiheit. Das Argument, eine stärkere Regulierung könnte die Meinungsvielfalt gefährden, hört man oft, und es muss ernst genommen werden. Der Fortschritt des vorliegenden Vorschlags wäre aber der: Während privat organisierte und von öffentlicher (oder gar staatlicher) Aufsicht weitgehend unbehelligt agierende Plattformen bereits jetzt vermehrt in Kommunikationsprozesse eingreifen (beispielsweise Warnungen vor Fake-News, Löschen von Posts oder ganzen Accounts), müssten sie unter einer ko-regulierten Governance in erster Linie nachweisen, welche Prozesse zur Behebung der oben angeführten Probleme sie einführen und wie sie über diese Prozesse Transparenz und Einigung herstellen. Die Wahrscheinlichkeit, Grundrechte anders auszulegen als zum Beispiel die Gerichte oder eine darüber vernünftig erzielte Einigung der beteiligten Bürger, sollte dann sinken. Wie so oft kommt es auf den Weg an, der zu einem Ergebnis führt. Beruht dieser auf einer langen Tradition der Rechtsprechung, auf Einbezug der Bürger und auf transparenter diskursiver Regelsetzung, wird die Akzeptanz (auch von Ko-Regulierung) höher sein. (Michael Litschka, 13.2.2021)