Das Bild zeigt die Künstlerin Taylor Swift
Ein Albtraum geht viral: Die Sängerin Taylor Swift musste diese Woche mitansehen, wie sich gefälschte Nacktbilder von ihr über Social Media verbreiteten.
Chris Pizzello/Invision/AP

Die berühmte US-amerikanische Sängerin Taylor Swift und ihre Fans durchleben gerade einen absoluten KI-Albtraum. Mit Entsetzen mussten sie diese Woche feststellen, dass auf diversen Social-Media-Plattformen, vorrangig auf X, Deepfake-Nacktbilder der Künstlerin kursierten. Das Bildmaterial, das mithilfe generativer künstlicher Intelligenz (KI) generiert worden ist, hat erneut Forderungen an Gesetzgeber ausgelöst, die Würde und Privatsphäre von Frauen zu schützen und entschiedene Maßnahmen gegen Plattformen und Technologien zu ergreifen, die für die Verbreitung solch erniedrigender Inhalte verantwortlich sind.

Eines dieser gefälschten Bilder, das ursprünglich auf X gepostet wurde, erreichte 47 Millionen Aufrufe, bevor das verantwortliche Konto am Donnerstag gesperrt wurde. Obwohl X Maßnahmen ergriff, um mehrere andere Accounts zu sperren, die gefälschte Bilder von Taylor Swift verbreiteten, tauchten sie weiterhin auf verschiedenen Social-Media-Plattformen auf und blieben trotz der konzertierten Bemühungen der Unternehmen, sie zu entfernen, bestehen.

Die schnelle Verbreitung dieser Bilder auf X zeigt die Schwierigkeit für Plattformen, KI-generierte Inhalte effektiv zu moderieren. Trotz der Richtlinien von X gegen synthetische und manipulierte Medien blieben viele der anstößigen Beiträge online und wurden weiterhin geteilt. In einigen Regionen wurde der Begriff "Taylor Swift AI" sogar als Trendthema geführt, was nur zu einer weiteren Verbreitung der Bilder beitrug.

Während sich X öffentlich verpflichtete, die anstößigen Bilder zu entfernen, überflutete die treue Fangemeinde von Taylor Swift daher die Plattform mit Protesten. In einer konzertierten Aktion überschütteten sie X mit echten Swift-Inhalten, die mit einschlägigen Schlüsselwörtern und dem Satz "Protect Taylor Swift" versehen waren, um die expliziten Inhalte zu verschleiern und ihre Auffindbarkeit zu erschweren.

Die Spur führt zu Telegram

Einem Bericht von "404 Media" zufolge wurden die Bilder ursprünglich in einer Telegram-Gruppe erstellt, in der sexuell anstößiges Bildmaterial prominenter Frauen geteilt wird. Zur Erstellung soll häufig das Microsoft-Tool Designer zur Anwendung kommen. In dieser Gruppe wurden offenbar auch Methoden entwickelt, um die Sicherheitsmaßnahmen von Microsoft zu umgehen, beispielsweise durch die Verwendung veränderter Namen von Prominenten in den Aufforderungen zur Erzeugung von Bildern.

Das rasche Wachstum der KI-Branche hat verschiedene Unternehmen dazu veranlasst, Tools auf den Markt zu bringen, die es den Nutzern ermöglichen, mit einfachen Anweisungen Bilder, Videos, Texte und Audioaufnahmen zu erstellen. Diese KI-Tools erfreuen sich großer Beliebtheit, haben aber auch die Hürden für die Erstellung von Deepfake-Inhalten erheblich gesenkt, bei denen Personen bei Handlungen oder Äußerungen gezeigt werden, die sie in Wirklichkeit nie getätigt haben.

Kein Einzelfall

Forscher und Politiker äußern daher zunehmend Bedenken, dass sich Deepfakes zu einem wirksamen Desinformationsinstrument entwickeln. Gewöhnlichen Internetnutzern wird es dadurch ermöglicht, unzulässige Bilder oder erniedrigende Darstellungen von Personen in der Öffentlichkeit zu erstellen. Erst vor kurzem wurden wieder KI-Tools zur Manipulation eingesetzt, um während der Vorwahlen in den USA gefälschte Anrufe von Präsident Biden zu erzeugen. Taylor Swift selbst wurde vor kurzem Opfer einer Deepfake-Werbung für Küchengeräte, und auch Tom Hanks und Scarlett Johansson mussten sich schon mit unerlaubter KI-Werbung auseinandersetzen.

Vorfälle wie dieser unterstreichen die eindeutigen Risiken dieser Technologie für Persönlichkeiten des öffentlichen Lebens – aber auch für Bürgerinnen und Bürger, die sonst nicht im Rampenlicht stehen. Und einmal mehr zeigen sie die dringende Notwendigkeit von Regulierungsmaßnahmen, technologischen Sicherheitsvorkehrungen und einer stärkeren Sensibilisierung für die Gefahren, die von künstlich generierten Inhalten ausgehen. (bbr, 26.1.2024)