Bürger haben im Netz immer weniger Einfluss. Die IT-Riesen geben den Ton an. In ihrem neuen Buch "Übermacht im Netz" zeigt die Techjournalistin Ingrid Brodnig die negativen Folgen von Digitalisierung – und wie man sich dagegen wehren kann.

Foto: Ingo Pertramer/Brandstätter Verlag

STANDARD: Ihr neues Buch beschreibt negative Konsequenzen von Digitalisierung. Wie wird man bei all dem nicht paranoid? Oder sollte man das sein?

Brodnig: Ich glaube, paranoid zu sein ist mittlerweile das Normalste der Welt. Manchmal haben wir vielleicht den Verdacht, dass Geräte oder Plattformen etwas sammeln, was sie tatsächlich nicht an Information über uns zusammentragen. Das baut darauf auf, dass in vielen Fällen erst durch große Affären oder unabhängige Wissenschafter aufgedeckt wurde, was über uns gesammelt wird. Die Gefahr ist, dass dieses Unbehagen auch zu dem Gefühl führt, dass wir nichts machen können. Das wäre falsch. Wir sehen sehr viele Brennpunkte, dass Daten ohne unser Wissen gesammelt werden. Dass Digitalkonzerne kaum Steuern zahlen. Dass Algorithmen immer mehr Entscheidungen über uns treffen. Paranoia ist normal, aber sie darf nicht in Untätigkeit enden, sondern in der Erkenntnis: Wir müssen jetzt aktiv werden.

STANDARD: Die Privatsphäre ist von vielen Seiten bedroht. Haben wir uns daran gewöhnt, dass wir immer öffentlicher werden?

Brodnig: Ich glaube, dass große Digitaldienste gesellschaftliche Normen prägen oder zu prägen versuchen. Sie versuchen uns zu ermuntern, mehr über uns zu teilen. 2009 hat Facebook seine Settings geändert, sodass es plötzlich der normale Modus war, öffentlich zu posten. Wir wurden tatsächlich getrieben, mehr und mehr über uns offenzulegen. Erst nach den letzten Datenskandalen wie Cambridge Analytica ruderte das Unternehmen zurück und sagt zumindest, dass Privatsphäre wichtig ist. Tatsächlich ist es aber ein Problem, dass wir User eigentlich gegen die Standard-Settings ankämpfen. Die Standard-Settings unserer Geräte sind so eingestellt, dass grundsätzlich sehr viel erlaubt ist und sehr viele Daten automatisch erfasst werden. Wenn man zum Beispiel ein Android-Handy hat und die Standardeinstellungen akzeptiert hat, sollte man nicht überrascht sein, wenn Google alle vier Minuten abfragt, wo man sich befindet beziehungsweise wo das Handy ist. Das hat eine unabhängige Untersuchung ergeben. In der Ökonomie gibt es den Begriff menschliche Trägheit – wir wissen, dass viele Menschen die Standard-Settings nicht überprüfen. Wirkliche Privatsphäre haben wir in vielen Fällen deshalb nicht, weil die Privatsphäre nicht der Normalzustand ist. Das Standard-Setting ist Datensammeln, und das gehört geändert.

Das Buch "Übermacht im Netz" ist am 16. September im Brandstätter-Verlag erschienen.
Foto: Brandstätter Verlag

STANDARD: Das Problem ist aber, dass viele Leute Dienste wie Facebook nutzen. Wie kann man ausbrechen, wenn Freunde, Familie und Arbeitskollegen alle diese Dienste und Plattformen verwenden?

Brodnig: Wir Menschen können einen kleinen Widerstand leisten, wir dürfen aber die Anziehungskraft dieser Giganten nicht unterschätzen. Ich habe mit der Forscherin Marjolein Lanzing gesprochen, die für mehr Privatsphäre kämpft. Sie wollte nicht Whatsapp nutzen, sondern Signal – eine wesentlich datenschutzaffinere App. Sie hat auch versucht, ihre Freunde dazu zu bringen. Das hat nicht geklappt. Ihr Fußballteam hat sich über Whatsapp ausgetauscht – und sie stand zweimal im Regen auf dem Fußballplatz, bis sie klein beigegeben und Whatsapp zusätzlich installiert hat. Ökonomen nennen das Netzwerkeffekte. Ich kann zwar schon als Einzelner so etwas boykottieren – ich empfehle wirklich jedem: Nutzt Signal! Aber wir sind nicht mehr in einer Zeit, wo ich als Einzelner alles allein boykottieren kann. Da wird man am Ende sehr allein sein. Wir brauchen staatliche Regulierung. Ein riesiger Fehler war, dass Facebook Whatsapp kaufen durfte.

STANDARD: Sie nennen im Buch einige Beispiele, wie Unternehmen unsere Daten verwerten. Google nutzt offenbar Recaptchas, um seine künstliche Intelligenz zu trainieren.

Brodnig: Jeder kennt diese Bilder im Netz, wo man belegen muss, dass man kein Roboter ist – und man muss zum Beispiel alle Straßenschilder auf Fotos erkennen. Google nutzt diese Information nicht nur, um zu überprüfen, wer ein Bot ist und wer ein realer Mensch, sondern auch um seine künstliche Intelligenz zu trainieren. Das heißt, jeder Klick, den wir bei einem Recaptcha hinterlassen, macht Googles Software klüger. Darum bin ich kein Fan des Worts Gratisdienste. Es stimmt zwar, dass viele Angebote ohne Geld laufen, aber wir zahlen ständig mit unserer Aufmerksamkeit, mit unseren Daten und letztlich auch mit unserem Wissen.

STANDARD: Wie sieht es mit psychologischen Versuchen aus?

Brodnig: Generell sollte man damit rechnen, dass die gesammelten Daten für viel mehr Zwecke analysiert werden, als uns auf den ersten Blick bewusst ist. In Australien etwa hat ein Facebook-Mitarbeiter einen Vortrag gehalten, in dem behauptet wurde, dass Facebook den Gefühlszustand von Jugendlichen nachvollziehen kann. Ob sie sich "gestresst", "überfordert" oder gar "wertlos" fühlen. Also eine gewisse Verletzbarkeit von Jugendlichen wurde über ihr Posting-Verhalten berechnet, diese Ergebnisse einer kleinen Gruppe präsentiert und dann an Medien geleakt. Bei Facebook sind manche Emotions-Experimente sogar gut dokumentiert, weil sie eine Zeit lang recht offen waren und Forschungspublikationen erlaubt haben.

STANDARD: Man kann auch das Verhalten der User beeinflussen?

Brodnig: Soziale Medien sind so gebaut, dass sie Herdeneffekte auslösen. Wenn viele Menschen etwas teilen, steigt die Chance, dass man selbst etwas teilt. Das lässt sich auch politisch anwenden. 2010 haben Wissenschafter gemeinsam mit Facebook ein Experiment gemacht. Da fand die US-Kongresswahl statt, und 60 Millionen Amerikaner bekamen auf Facebook einen Hinweis am Wahltag eingeblendet, dass heute die Wahl stattfindet. Inklusive Fotos, welche Freunde schon wählen waren. Bei diesen Usern stieg die Wahrscheinlichkeit, dass sie wählen gehen, messbar um 0,39 Prozentpunkte. Das waren insgesamt 340.000 Menschen, die zusätzlich zur Wahl gingen. Das konnten die Forscher deshalb messen, weil in den USA dokumentiert ist, ob ein Bürger wählen war oder nicht. Ich würde stark davon ausgehen, dass viele solcher Untersuchungen, wie sich zum Beispiel das Userverhalten verändert, nicht öffentlich sind.

STANDARD: In den USA tut sich gerade sehr viel, Amazon, Apple, Google, Facebook werden von mehreren Stellen untersucht. Bis vor einigen Jahren war es ja eher die EU, die sich diese Monopole kritisch angesehen hat. Was hat sich da geändert?

Brodnig: Was sich in den USA verändert hat, ist die Wahl von Donald Trump – nämlich dass zumindest ein Teil der Erklärung, wieso gerade dieser Kandidat so sichtbar wurde, das Netz ist. Es ist sicher zu simpel, zu sagen, Trump wurde wegen des Internets Präsident. Aber seit der US-Wahl stellt sich die Frage, welchen Einfluss Plattformen auf unseren Alltag haben, was wir wissen und wie wir die Welt wahrnehmen. Seit damals wird die Frage gestellt, ob Facebook und Google eine unbehagliche Rolle haben. Trump hat auch Cambridge Analytica genutzt – hier wurden Daten gesammelt, ohne die Zustimmung der Menschen.

STANDARD: Was ist da passiert?

Brodnig: Facebook speichert alles Mögliche, was wir gelikt und kommentiert haben. Cambridge Analytica hat diese Daten abgesaugt, um politische Profile von Usern zu erstellen. Solche Fälle haben dazu geführt, dass nun ernst genommen wird, welche langfristigen gesellschaftlichen Auswirkungen das hat. Gerade in den USA wird auch die Frage diskutiert, ob hinter den Algorithmen der großen Plattformen ein problematisches Weltbild steht – und ob das ständige Optimieren von Werbeeinnahmen zu unbehaglichen Nebeneffekten führt. Da ist auch Youtube im Gespräch. Wir sehen, dass teilweise rechtsextreme Accounts große Reichweiten über Youtube erzielen. In den USA ist diese politische Besorgnis noch einmal größer.

STANDARD: Sie gehen auch auf das Social-Credit-System in China ein. Ist so etwas auch in Europa oder den USA denkbar?

Brodnig: Von einer extremen Ausformung wie China sind wir weit entfernt. Das Besondere an China ist, dass es China wie keinem anderen Land gelungen ist, dass der Staat die Regeln im Netz vorgibt. China hat als einziges Land wirkliche Gegengewichte zu Facebook und Google aufgebaut, weil sie dort blockiert werden. Es gibt zum Beispiel Wechat anstelle von Whatsapp. China fährt eine viel radikalere Kontrollstrategie, und das würde ich nicht eins zu ein auf Europa umlegen. Aber dieser Wunsch, Userverhalten zu beeinflussen, indem man Daten sammelt, den gibt es auch in der Privatwirtschaft. Das Social-Credit-System in China ist aber in vielen Fällen noch nicht so aufgebaut, wie man es vielleicht auf den ersten Blick glauben könnte. Es gibt zum Beispiel keinen einheitlichen, staatlichen Score, den jeder Bürger bekommt.

STANDARD: Wie weitreichend ist das System derzeit?

Brodnig: Es gibt wirklich viele Facetten, die unbehaglich sind. Ein dokumentiertes Beispiel: Ein Ausländer geht bei Rot über die Straße und wird von einer Kamera gefilmt, die Kamera hat Gesichtserkennung und kann ihn identifizieren. An vielen Kreuzungen gibt es auch "Walls of Shame" – da sieht man die Bilder der Leute, die bei Rot rübergegangen sind. Und weil er identifiziert wurde, kann ihm auch eine gewisse Strafe berechnet werden. Dieser Ausländer hat tatsächlich eine Strafe über sein Wechat-Konto bekommen, die der Staat automatisch abgebucht hat. Das sind Zustände, die in Europa wirklich schwer denkbar sind. Aber im Kleinen gibt es auch bei uns Gefahren. Zunehmend kommen wir in eine Phase, wo Gesichtserkennung Normalität wird. Die österreichische Polizei will bis Ende des Jahres Gesichtserkennung bei Videoauswertungen machen. Das ist kein Social-Credit-System, aber bei uns gibt es auch die Frage: Hält sich der Staat genug zurück, oder wird teilweise im Zweifelsfall zu viel ausprobiert?

STANDARD: Ein Thema in Ihrem Buch sind die Auswirkungen der Digitalisierung auf den Jobmarkt. Was kommt in den nächsten Jahren auf uns zu?

Brodnig: Ich habe mir sehr viele Untersuchungen angeschaut, wie sehr die Automatisierung den Jobverlust erwartbar macht. Wie groß das Potenzial von Automatisierung ist. Und generell muss man sagen, die Schätzungen gehen wahnsinnig weit auseinander. Eine Untersuchung der Universität Oxford kommt zum Schluss, dass 47 Prozent der amerikanischen Gesamtbeschäftigung automatisierbar sind. Die OECD wiederum sagt, dass nur 14 Prozent der Jobs automatisierbar sind. Dass diese Zahlen so weit auseinanderliegen, deutet für mich darauf hin, dass wir es nicht wirklich wissen. Aber selbst in den konservativsten Schätzungen kann man davon ausgehen, dass ein Teil der Jobs durch Algorithmen oder Roboter eher ersetzt werden kann. Gerade neuronale Netzwerke, die sehr gut darin sind, Muster zu erkennen, können einfach mehr Aufgaben erledigen als Automatisierung früher.

STANDARD: Wie sieht es mit den Arbeitsbedingungen aus?

Brodnig: Wir diskutieren wahnsinnig intensiv über eine Frage, die wir nicht genau beantworten können – nämlich: Wie viele Jobs gehen verloren. Auch wissen wir noch nicht, wie viele neue Jobs entstehen. Wir sollten aber auch über eine andere Frage diskutieren. Die neuen Jobs, die in den letzten zehn Jahren entstanden sind: Bieten die gute Arbeitsbedingungen? Und da habe ich bei der Zukunft der Arbeit eher die Sorge, dass gerade die Digitalisierung, wie wir sie jetzt erleben, einerseits sehr viele schlecht bezahlte Jobs bringt – und das auch in guten Jobs teilweise zur Überwachung führt. Das ist dieser sogenannte digitale Taylorismus, bei dem mitgeloggt wird, wie viel ein Mitarbeiter aktiv ist, wo er unterwegs gewesen ist. Das Dritte ist: Es gibt schon auch schöne Begriffe, bei denen mitunter darüber hinweggeblendet wird, dass sehr problematische arbeitsrechtliche Bedingungen existieren.

STANDARD: Welche wären das?

Brodnig: Es gibt zum Beispiel die Gig-Economy, bei der kein klassisches Anstellungsverhältnis mehr existiert, sondern ich werde pro Miniauftrag bezahlt. Wir sehen auch, dass gerade in der Digitalbranche eine Kluft zwischen den Topjobs und den anderen Jobs existiert. Wenn ich Programmierer oder Manager bei Facebook bin, verdiene ich spitze. Eine Zahl aus dem Frühjahr: Der durchschnittliche Facebook-Mitarbeiter verdient 240.000 Dollar im Jahr an Gehalt und Bonuszahlungen et cetera. Aber Facebook hat nicht nur Programmierer und Manager. Die haben auch Leiharbeiter in vielen Gegenden der Welt, die Moderatoren sind, die Postings auf Hasskommentare, Gewaltbilder, Pornoszenen et cetera überprüfen. Die verdienen im Schnitt 28.800 Dollar im Jahr. Uns wird oft eine rosige Arbeitswelt bei Digitalkonzernen gezeigt, aber ein Teil der Jobs, die direkt oder indirekt bei diesen Plattformen stehen, ist alles andere als gut bezahlt.

STANDARD: Ein Modell, das im Zusammenhang mit möglichen Jobverlusten immer wieder genannt wird, ist das bedingungslose Grundeinkommen. Sie befürworten es nicht. Wieso?

Brodnig: Das Problem ist: Es gibt sehr unterschiedliche Ansätze, was das bedingungslose Grundeinkommen sein soll. Es gibt Ansätze, die starten bei 600 Euro im Monat. Davon kann man nicht leben. Und in der Regel heißt es: Dafür fallen alle anderen Sozialleistungen weg. Wenn in Deutschland ein bedingungsloses Grundeinkommen von 1.000 Euro eingeführt würde, dann würden die meisten Hartz-IV-Empfänger weniger kriegen als bisher, weil viele Arbeitslose auch Zusatzzahlungen wie Mietzuschuss bekommen. Das bedingungslose Grundeinkommen müsste sehr hoch sein, um wirklich genug abzuwerfen. Dann ist die Frage, ob sich das finanzieren lässt. Wenn jeder Deutsche 1.000 Euro im Monat kriegt, würde das im Jahr eine Billion Euro kosten. Das ist im Moment schwer stemmbar. Nehmen wir an, so ein bedingungsloses Grundeinkommen kommt, und es werden dafür alle anderen Sozialmaßnahmen abgeschafft, dann gibt es nur noch einen Hebel im Sozialsystem. Das Gute an einem so komplexen Sozialsystem, wie wir es haben, ist, dass sich nicht mit einer großen Gesetzesänderung alles abschaffen lässt.

STANDARD: Die Frage ist also, was wir mit der Technologie anfangen ...

Brodnig: Ich finde wichtig zu erkennen: Das ist nicht die Schuld der Technologie. Es geht eher darum, wie Technologie angewendet wird. Es ist beeindruckend, wie viele Tätigkeiten Algorithmen tatsächlich gut leisten können. Forscher aus Heidelberg haben einen Algorithmus trainiert, der Hautkrebs besser als die meisten Ärzte erkennen kann. Die Frage ist nur, was machen wir mit solcher Technologie. Da gibt es eine Dystopie und eine Utopie. Die Dystopie ist: Die Maschine kann einen Teil der ärztlichen Tätigkeit übernehmen, der Arzt schaut am Tag mehr Patienten an, er muss schneller von einem Patienten zum nächsten hüpfen. Tatsächlich gibt es in der Medizin die Gefahr, dass je mehr Technik zum Einsatz kommt, weniger Zeit für den Patienten existiert. Die Utopie ist: Die Maschine nimmt dem Arzt einen Teil der Tätigkeit ab und macht das sehr gut. Und dafür kann der Arzt mehr Zeit für das Gespräch mit dem Patienten haben.

STANDARD: Sie wollen mit Ihrem Buch Bürgern auch Handwerkszeug geben, um sich gegen unfaire Praktiken zu wehren. Was können wir tun?

Brodnig: Als Einzelner wird man nicht wirklich die Macht der Digitalriesen beseitigen können. Wir alle müssen eine andere Politik, die das ernst nimmt, einfordern. Aber es gibt ein paar Schritte, die ich schon machen kann. Das Erste ist: aufmüpfig sein. Wir Europäer haben ja durchaus Rechte, die andere gar nicht haben. Zum Beispiel können wir Auskunft einfordern. Wir können laut der Datenschutzgrundverordnung von jedem Unternehmen verlangen, dass es uns sagt, welche Information es über uns gespeichert hat. Ich habe Amazon eine Anfrage geschickt, welche Daten sie über mich gespeichert haben. Die haben 16 Jahre zurück jede einzelne Bestellung von mir abgespeichert. Ich kann nachlesen, was ich 2002 zu Weihnachten bestellt habe. Das Zweite ist: Verbündete suchen. Es gibt den Datenschützer Max Schrems, der juristisch kämpft. Er finanziert sich über Spenden. Damit werden Gerichtsverfahren ermöglicht. Eine weitere Organisation ist Epicenter Works. Wir sind noch weit davon entfernt, dass hier eine ausgewogene Debatte stattfindet, weil sich die großen Konzerne sehr leicht viele Juristen leisten können. Die kleineren Datenschutzorganisationen bestehen oft aus einer Handvoll Mitarbeitern.

STANDARD: Das setzt voraus, dass sich die Menschen aktiv mit diesen Themen auseinandersetzen. Aber viele lesen zum Beispiel gar keine Datenschutzbestimmungen. Ist es sinnvoll, Facebook und Co in der Schule zu lehren?

Brodnig: In der Schule zu sensibilisieren ist zu hundert Prozent sinnvoll. Ich habe noch einen Tipp. Die Menschen, die das Buch oder auch den Web-STANDARD lesen, sind wahrscheinlich schon überdurchschnittlich interessiert. Wenn ich so jemand bin, soll ich das auch hinaustragen. Jeder, der das liest, kennt sicher jemanden, der solche Informationen nicht liest, und dem zu erzählen "Weißt du eigentlich, dass dein Handy alle vier Minuten vielleicht deinen Standort kommuniziert", hilft. Noch effizienter ist es in der Schule. Es gibt sehr gute Einrichtungen, die das machen. SaferInternet.at ist eine Aufklärungsorganisation, die an Schulen geht. In meinem Buch habe ich ein Beispiel von einer Mutter, die veranlasst hat, dass Safer Internet an die Schule ging und über Datensicherheit und Privatsphäre sprach. Und nach diesem Workshop haben die Schüler zum Teil sogar manche Apps gelöscht und ihr Verhalten geändert. Ich glaube aber, dass unsere Gesetze und die Sicherheitsstandards so groß sein müssen, dass auch der uninformierteste und uninteressierteste Nutzer geschützt wird. Am Ende brauchen wir ein Netz, wo ich nicht dauernd hinterherrecherchieren muss, was macht die App? Sondern wo ich ein gewisses Grundvertrauen haben kann. Dieses Netz haben wir derzeit nicht.

STANDARD: Zum Abschluss: Was war bei Ihren Recherchen der größte Aha-Effekt?

Brodnig: Die Menschen glauben oft, dass das, was wir jetzt gerade erleben, einzigartig ist. Das Internet ist mächtiger als jede technologische Erfindung davor. Stimmt schon auch. Nur, ein wirkliches Aha-Erlebnis für mich war, dass wir solche Probleme im Lauf der Geschichte immer wieder hatten. Als zum Beispiel das Radio aufkam, gab es die Frage, kann man Funkwellen überhaupt regulieren, das läuft ja über den Äther? Gerade die USA waren da extrem zurückhaltend und haben lange keine Gesetze gemacht. Dann ist Folgendes passiert: 1912 ist die Titanic gesunken, und ein Teil des Problems war, dass die Funkrufe teilweise niemand gehört hat. Dann haben sich Funksignale auch überlappt. Und am Festland hörte es sich so an, als habe jemand gefunkt "Alle Passagiere sicher". Tatsächlich sind 1.500 Menschen gestorben. Nach dieser Katastrophe wurde die Politik mit einem Schlag aktiv. Es ist normal, dass wir am Anfang überfordert sind, aber irgendwann mehren sich die Rufe nach Regulierung, und bisher ist es der Menschheit bei jeder neuen Erfindung gelungen, Regeln vorzugeben. Ich glaube, wir sind jetzt in dieser Phase, wo wir auch für das Internet neue Regeln finden. (Birgit Riegler, 19.9.2019)