Mehr Sextortion-Fälle mit KI-Bezug.
Laut der US-Behörde nehmen die Fälle zu, bei denen KI-generierte Inhalte zum Einsatz kommen.
AP

Immer wieder hat man in den vergangenen Jahren die Warnung gehört, dass künstliche Intelligenz bald zu immer mehr Deepfakes führen wird. Mit dem aktuellen Hype um generative KI scheint diese Gefahr Wirklichkeit geworden zu sein. Die US-Bundespolizei FBI warnte am Montag, dass Betrügerinnen und Betrüger für Sextortion-Maschen immer häufiger auf KI-generierte Deepfakes setzen würden.

Ausgangsmaterial sind laut der US-Behörde in der Regel Fotos und Videos, die die Täter von sozialen Medien abgreifen oder von den zukünftigen Opfern zugeschickt bekommen. Besonders besorgniserregend macht das Ganze, dass nicht nur erwachsene Personen, sondern auch minderjährige Kinder betroffen sein sollen. Die Täter würden deren Bilder so weit manipulieren, "dass sie explizite Inhalte enthalten", schreibt das FBI. "Die Fotos oder Videos werden dann öffentlich in sozialen Medien oder auf pornografischen Websites verbreitet, um die Opfer zu belästigen oder zu erpressen."

Forderung nach Geld

Das Ziel ist dabei klar: Die betroffenen Personen werden mit den erstellten Fake-Inhalten belästigt. Konkret drohen die Täter an, die Videos und Fotos an Familienmitglieder, Freunde und Bekannte zu schicken – zumindest dann, wenn die Opfer ihnen kein Geld überweisen.

Sextortion an sich ist nicht neu. Seit April konnte das FBI allerdings eine Zunahme der Fälle beobachten, bei denen gefälschte Bilder und Videos genutzt wurden, die von Social-Media-Plattformen abgegriffen oder während Videochats aufgenommen wurden. Auch hier wurde unter Androhung der Veröffentlichung entweder eine Zahlung oder die Zusendung echter Bilder oder Videos mit sexuellem Inhalt gefordert. Diese werden dann für weitere Erpressungsversuche genutzt.

Vorsicht geboten

Grund dafür ist eine immer niedrigere technische Schwelle. Wie "Ars Technica" berichtet, gibt es eine Vielzahl an kostenlos zugänglichen Tools zur Erstellung von Deepfakes, was die Betrugsmasche immer einfacher macht. Angefeuert werde das Problem durch die raschen Fortschritte im Bereich der künstlichen Intelligenz. Häufig reiche schon ein einziges Foto aus, um ein Fake-Video zu erstellen.

Um der Sextortion-Masche nicht selbst zum Opfer zu fallen, rät das FBI zur Vorsicht bei der Veröffentlichung persönlicher Fotos und Videos in Kombination mit persönlichen Daten im Internet. Obwohl diese "scheinbar harmlos sind, wenn sie gepostet oder geteilt werden, können sie böswilligen Akteuren eine Fülle von Inhalten bieten, die sie für kriminelle Aktivitäten nutzen können", schreibt die Behörde. Fällt man dennoch Betrügern zum Opfer, sei es wichtig, alle in Verbindung stehenden Informationen aufzubewahren und sich an die Behörden zu wenden. Nur so bestehe die Chance, die Verantwortlichen dingfest zu machen. (red, 7.6.2023)