Gewaltfantasien, Hass und Hetze: im Internet werden Frauen schnell Opfer von Angriffen. Meist gehen diese sofort unter die Gürtellinie.

Foto: APA/dpa/Julian Stratenschulte

Sperrungen auf Wikipedia, untergriffige Beleidigungen und Drohungen – Gleichberechtigung im digitalen Raum ist mindestens genauso eine Illusion wie in der realen Welt. Besonders in Social Media zeigt sich häufig: Es wird noch einige Weltfrauentage brauchen, bis Frauen und als weiblich gelesene Personen endgültig dieselbe Redefreiheit genießen, die für viele männliche User selbstverständlich ist.

Sexualisierte Angriffe und Gewaltfantasien

Ob tragisches Einzelschicksal wie im Fall von Dr. Lisa-Maria Kellermayr oder Ergebnisse großangelegter Studien wie "The Chilling", bei der knapp 1.100 Journalistinnen über ihre Erfahrungen mit Online-Gewalt berichten und ein erschütterndes Bild der Lage zeichnen: Wer sich als Frau im digitalen Raum äußert, riskiert oft mehr als nur simple Gegenrede. Dabei geht es kaum noch um inhaltlichen Dissens, weiß Josephine Ballon von der gemeinnützigen Organisation Hate Aid, die Beratung und Unterstützung für Opfer von Online-Hassrede anbietet. Angriffe gegen Frauen gehen praktisch "immer unter die Gürtellinie", sagt Ballon gegenüber dem STANDARD. "Es geht häufig um Vergewaltigungsandrohung, Verstümmelungsfantasien – das ist einfach eine andere Qualität von Angriffen, die Frauen im Internet erleiden müssen." Männer seien von diesem Phänomen weit weniger betroffen.

Beleidigungen im Netz nehmen stark zu

Die gemeinnützige Organisation Zara – Zivilcourage und Anti-Rassismus-Arbeit – leitet die Beratungsstelle #GegenHassImNetz. Jedes Jahr veröffentlicht der Verein einen Bericht, in dem die gemeldeten Fälle dokumentiert und nach Kategorien aufgeschlüsselt werden. Seit der Veröffentlichung des letzten Reports wurden bereits 778 Fälle (Zeitraum September 2022 bis 31. Jänner 2023) gemeldet, sagt Zara auf Anfrage des STANDARD. Inwiefern Beleidigungen aufgrund des Geschlechts zugenommen hätten, lässt sich derzeit nicht verlässlich sagen, doch ganz allgemein kämen "Beleidigungen im Netz viel häufiger vor als in den Jahren zuvor". Auch die Qualität und Intensität habe sich "merkbar ins Negative verändert".

Web@ngels im Einsatz gegen Hasspostings

Um Hass im Netz entgenzuwirken, setzt sich Zara aktiv für Zivilcourage ein. So gab es letztes Jahr auch eine zweimonatige Kooperation mit dem STANDARD: Im Rahmen des Projekt "Web@ngels" wurden acht ehrenamtliche Mitarbeiterinnen und Mitarbeiter von Zara ausgebildet, um sich gegebenenfalls deeskalierend im Forum einzuschalten, indem sie "informiert und zivilcouragiert" auftreten.

Dabei geht es aber nicht um eine Einschränkung der Meinungsfreiheit: Durch die "Sensibilisierungs- und Präventionsmaßnahmen" sollen Userinnen und User, die sich "an der Grenze zwischen Meinungsfreiheit und Hass bewegen, zunächst zur Reflexion ihres Postingverhaltens und in weiterer Folge zu einer positiven Veränderung angeregt werden", beschreibt Zara die Aufgaben der Web@ngels. Mitlesende sollen so auf die "Bedeutung und Wirksamkeit von Gegenrede aufmerksam gemacht und optimalerweise dazu angeregt werden, selbst digitale Zivilcourage zu zeigen". Im Zeitraum vom 1. Oktober bis 30. November 2022 haben sich die Ehrenamtlichen 435-mal eingeschaltet und eine Gegenrede gepostet.

Fake-Porn Skandal in der Gamer-Szene

Abseits von beleidigenden Postings haben auch die Fortschritte künstlicher Intelligenz zu einer Verschärfung der Situation beigetragen. Anfang Februar sorgte ein Skandal in der Gamer-Szene für Aufsehen: Der Streamer "Atrioc" leakte unabsichtlich eine Seite mit Deepfake-Pornos populärer Streamerinnen und sorgte damit für einen ungewollten "Boost" dieser Seiten. In einem Entschuldigungsvideo berichtet er unter Tränen, dass er lediglich auf einen Link geklickt habe, der ihn dann auf die Seite mit dem gefälschten Videos weitergeleitet hatte.

Streamerin teilte Reaktion in emotionalem Video

Wie belastend die Situation für die Opfer ist, wird in einem spontan aufgenommenen Video der Streamerin QTCinderella, einer der Betroffenen, sichtbar: "Ich wollte live gehen, denn so sieht Schmerz aus", sagt sie in dem kurzen Clip unter Tränen, nachdem sie erfahren hatte, dass derartige Aufnahmen von ihr kursieren. "Wenn du imstande bist, dir Frauen anzusehen, die sich nicht verkaufen, die nicht davon profitieren, sexualisiert dargestellt zu werden, dann bist DU das Problem", richtet sie all jenen aus, die sich die gefälschten Aufnahmen anschauen und verbreiten.

"So sieht Schmerz aus" – die Streamerin QTCinderella wurde Opfer von Deepfake-Pornografie und entschloss sich, ihr Leid zu teilen, damit Täter sehen können, was sie den Opfern antun.
schleezer

Obama-Deepfake war erst der Anfang

Auch auf politischer Ebene ist das Missbrauchspotenzial enorm: Waren ältere Beispiele von Deepfake-Videos von Barack Obama noch eine harmlose "Demo-Version", zeigen die falschen Video-Calls mit einem vermeintlichen Witali Klitschko im Sommer 2022 bereits, dass die Bedrohung durchaus real ist.

"Wir befinden uns in einer Zeit, in der unsere Feinde es so aussehen lassen können, als würden wir bestimmte Dinge sagen. Selbst, wenn wir diese Dinge niemals sagen würden", sagt eine Fake-Version von Barack Obama. Der eigentlich Jordan Peel heißt und Schauspieler ist.
BuzzFeedVideo

Deepfakes für alle, von allen?

Früher waren derartige Foto- und Videomanipulationen noch Menschen mit technischen Vorkenntnissen vorbehalten. Doch mithilfe von Face-Swap-Apps – Anwendungen, mit denen sich Gesichter auf Fotos oder Videos mit wenigen Klicks austauschen lassen – kann heutzutage praktisch jeder Deepfakes anfertigen. Waren früher hauptsächlich prominente Persönlichkeiten Opfer derartiger Angriffe, betreffen die Fakes heute auch Privatpersonen. Denn für eine – zumindest halbwegs – überzeugende Fälschung braucht es heute weit weniger Bildmaterial als noch vor einigen Jahren.

Großer Schaden trotz schlechter Fälschung

Dass die Ergebnisse nicht immer lupenrein sind, macht im Netz wenig Unterschied. "Was im Internet ist, wird einfach für bare Münze genommen, deswegen kann es Schaden anrichten innerhalb von wenigen Sekunden", so Josephine Ballon. Ob man bei mehrmaligem Hinsehen dann erkennen könne, dass es sich um eine Fälschung handle, sei gar nicht mehr ausschlaggebend. Es geht um den Eindruck, um ein Säen von Zweifel, mit dem eine Einzelperson diskreditiert werden soll.

Deepfake-Pornografie – ein Frauenproblem

Und diese Art der Herabwürdigung hat mit dem Einsatz von KI ein völlig neues Level erreicht. Das geht zumindest aus den – sehr spärlich verfügbaren – Ergebnissen einzelner Studien hervor. Die Firma SensityAI (ehemals Deeptrace Labs), ein Unternehmen, das sich auf Deepfake-Erkennungs-Software spezialisiert hat, analysierte im Dezember 2018 über ein Jahr lang 14.678 Deepfake-Videos auf verschiedenen Streaming-Plattformen und Pornoseiten. Die Ergebnisse waren ernüchternd: 96 Prozent der Fake-Videos waren nicht einvernehmlich erstellte, pornografische Videos – damals waren noch hauptsächlich Prominente betroffen. Insgesamt wurden die Videos der Deepfake-Porno-Webseiten über 134 Millionen Mal aufgerufen. Pornografische Inhalte richteten sich ausschließlich (100 Prozent) gegen Frauen, in nichtpornografischen Videos fanden sich dagegen überwiegend Männer (61 Prozent).

Öffentliche Bloßstellung, um Frauen mundtot zu machen

Für Organisationen wie HateAid sind die neuen Technologien durchaus ein Grund zur Sorge. Deepfakes werden häufig als "Mittel digitaler Gewalt" eingesetzt und stellen ein "sehr effektives Tool" dar, um – vor allem Frauen – mundtot zu machen. Die Betroffenen werden oft gar nicht so sehr als Person angegriffen – vielmehr soll an ihnen ein Exempel statuiert werden. Auf diesem Weg soll ihnen vermittelt werden: "Wenn du als Frau hier öffentlich auftrittst und dich zu diesen Themen äußerst, dann kann dir das passieren. Deswegen halt lieber den Mund, mach lieber nichts", fasst Ballon ihre Beobachtungen zusammen.

Antifeministische Netzwerke

Besonders jene, die sich öffentlich zu kontroversen Themen äußern, werden häufig Ziel derartiger Angriffe. So sind HateAid Fälle antifeministischer Netzwerke bekannt, die es sich zur Aufgabe gemacht haben, Frauen bloßzustellen und zu "shamen". Dabei werden nicht nur kompromittierende Bilder verbreitet, sondern oft auch die Social-Media-Handles, Klarnamen oder Adressen der Personen. Für die Opfer bedeutet das eine schwerwiegende psychische Belastung mit weitreichenden Konsequenzen – die Angst, auf der Straße erkannt zu werden oder den Job zu verlieren, wenn dem Arbeitgeber derartige Bilder zugespielt würden, wird zum täglichen Begleiter.

Bin ich gefährdet?

Wenn nun auch Privatpersonen ins Visier der Angreifer geraten, wie soll man (und frau) sich davor schützen? Josephine Ballon glaubt nicht, dass plötzlich von allen Frauen Nacktfotos im Netz auftauchen – "dann wird es ja auch irgendwann unglaubwürdig". Dennoch ist die Bedrohung real, auch für Privatpersonen. So habe Hate Aid auch schon Fälle erlebt, bei denen die Personen lediglich einen Social-Media-Account ohne große öffentliche Reichweite hatten. Zumindest zum Zweck des Identitätsdiebstahls werden Deepfakes bei Privatpersonen aber derzeit noch kaum eingesetzt. Bei Hate Aid wurden derartige Vorfälle jedenfalls bisher noch nicht gemeldet. Das ist durchaus ein kleiner Lichtblick – denn sogar ein einzelnes Foto, beispielsweise von einem Ausweis, kann genügen, um Gesichtserkennungstechnologie zu umgehen, wie Sensity AI bereits 2021 zeigte.

Heutzutage reicht ein einzelnes Foto, um Gesichtserkennung auszutricksen.

Prävention schwierig, Reaktion umso wichtiger

Die naheliegendste Lösung wäre demnach, überhaupt keine Fotos von sich ins Internet zu stellen – das sei aber natürlich nicht Sinn und Zweck der Sache, betont Ballon. Letztendlich sei es vor allem wichtig, Anzeige zu erstatten – auch wenn das oft die größte Hemmschwelle für die Opfer bedeutet. Betroffene würden häufig nicht ernst genommen oder gefragt, ob sie die Bilder nicht selbst hochgeladen hätten. Selbst wenn es einem gelingt, sich Gehör zu verschaffen, müssen Frauen die kompromittieren Aufnahmen oft mit männlichen Beamten durchgehen – was in diesem speziellen Fall eine zusätzliche emotionale Belastung bedeutet.

Es braucht viel Sensibilisierungsarbeit – für Behörden, Betroffene und in der Gesellschaft

Auch Zara berichtet von sehr unterschiedlichen Erfahrungen mit den Behörden, wenn es um Hass im Netz geht – diese seien zum Teil sehr gut, teilweise aber "auch ernüchternd". "Uns fällt auf, dass es sehr viel Sensibilisierungsarbeit braucht, bei Betroffenen und auch bei den Behörden beziehungsweise der Gesellschaft allgemein, um das Thema Hass im Netz besser zu bekämpfen", heißt es seitens Zara. Die BMJ-Kampagne "Hilfe bei Gewalt" hat hier bereits einen wichtigen Grundstein gelegt: Auf Plattformen wie Instagram und Tiktok konnte man über die Influencerinnen und Influencer wie Christl Clear oder Satansbratan auch beim jüngeren Publikum ein Bewusstsein für das Thema Hass im Netz zu schaffen.

Unbedingt melden

Denn nur wenn ein Vorfall gemeldet wird, kann die Verbreitungsgeschwindigkeit der Inhalte überhaupt erst beschränkt werden. "Man sollte aktiv werden. Man sollte alles melden, was man findet auf der Plattform, und darauf hinwirken, dass diese Bilder heruntergenommen werden", sagt Ballon über die Verbreitung von Deepfakes.

Täterinnen und Täter bleiben oft anonym

Ein Problem, das sowohl Zara als auch Hate Aid aber gleichsam anmerken, ist die Schwierigkeit, Täterinnen oder Täter auszuforschen. Für eine "effektive und erfolgreiche Rechtsdurchsetzung" wäre das aber notwendig, so Zara. Zwar bestehe die Möglichkeit, einen Ausforschungsantrag zu stellen – doch die Polizei "muss von sich aus aktiv werden und nachforschen", oft bringen die Versuche keine brauchbaren Daten zutage.

Für die Betroffenen ist das aber oft sekundär, denn das Leid "geht mit dem initialen Hochladen erst los", sagt Josephine Ballon. Einmal hochgeladen, verbreiten sich die Inhalte rasant: "über die Algorithmen der Plattformen, über andere User die das möglicherweise teilen".

Täter ermutigen einander, Inhalte abzuspeichern

Die Entfernung durch Plattformen funktioniert laut Hate Aid in der Regel innerhalb einiger Tage. Doch derartige Löschversuche werden häufig auch seitens der Täter unterbunden. "Wir haben auch schon Fälle gesehen, wo Männer sich ganz gezielt gegenseitig geraten haben, dass man die Bilder herunterladen soll, um sie dann wieder hochzuladen, damit sie von der Plattform nicht gelöscht werden können", sagt Ballon. Oft sind den Tätern (oder Täterinnen) die Konsequenzen gar nicht ausreichend bewusst. Das Hochladen und Teilen gefälschter Bilder kann "lebenslanges Leid" zur Folge haben – "da gibt es einfach Dynamiken, die man aus der Hand gibt, wenn man einfach mal denkt, man rächt sich jetzt mal kurz". (Lisa Haberkorn, 08.03.2023)