Die KI-Imitation echter Menschen, besser bekannt unter dem Begriff "Deepfake", ist mittlerweile allgegenwärtig. Die Film- und Werbeindustrie hat die Technologie für sich entdeckt. Die "Bild", Deutschlands größtes Boulevardblatt, setzt in ihrer aktuellen Werbekampagne unter anderem auf die Manipulation einer Rede des Kanzlers Olaf Scholz (SPD), dem man eigene Worte in den Mund legt.

Aber auch Betrüger machen sich das Potenzial zunutze. In Texas wurde ein Fall dokumentiert, bei dem einem 82-Jährigen ein hoher Geldbetrag entlockt wurde. Der Pensionist, Jerry, erhielt am 21. Oktober einen Anruf, bei dem sich die Person am anderen Ende der Leitung als "Seargent Matthews" vom örtlichen Polizeibüro vorstellte.

BILD bleibt BILD TV Spot
Der "Bild"-Werbespot mit einer gefakten Rede von Olaf Scholz.
BILD

Schwiegersohn soll Unfall verursacht haben

Er erklärte seinem Opfer, dass dessen Schwiegersohn Michael einen schweren Unfall verursacht habe und in Haft sitze. Anschließend meldete sich scheinbar der Schwiegersohn am anderen Ende der Leitung und flehte ihn an, die Kaution für seine Freilassung zu stellen. Diese belief sich insgesamt auf einen Betrag von 17.000 Dollar.

Dabei nutzten die Kriminellen mit hoher Wahrscheinlichkeit ein System, um die Stimme des Betrügers in einer Aufzeichnung oder nahezu in Echtzeit so zu manipulieren, dass sie – zumindest übers Telefon – täuschend echt klingt. Für dieses "Voice-Cloning" gibt es eine Reihe an kommerziellen, aber auch quelloffen verfügbaren Lösungen. Deren Nutzungsbedingungen verbieten in der Regel den Einsatz zu solchen Täuschungszwecken, kontrollieren lässt sich das freilich kaum. Mitunter reichen bereits einige Sekunden einer Sprachaufnahme, um eine zumindest sehr ähnlich klingende Stimme zu erzeugen.

Nicht nur Jerry fiel darauf herein, sondern auch seine Tochter. "Ich habe Michaels Stimme gehört. Ich dachte, ich hätte mit ihm gesprochen", wird diese zitiert. Jerry hob schließlich das Geld auf der Bank ab und übergab es einem Kurier. Dessen Autokennzeichen notierte er sich zwar, jedoch gelang der Polizei die Ausforschung dennoch nicht, nachdem er den Betrug zur Anzeige gebracht hatte.

Geld weg

Die 17.000 Dollar dürften verloren sein. Jerry, der mit seiner Frau in einem betreuten Wohnheim lebt, überlegt nun, auf Arbeitssuche zu gehen. "Es ist wirklich traurig. Wir waren auf das Geld angewiesen", zitiert ihn ABC13. Innerhalb seiner Familie setzt man nun auf ein Passwort, um sich im Zweifel identifizieren zu können. Eine Freundin der Familie hat eine Spendenkampagne auf der Plattform GoFundMe gestartet.

Gegenüber Fox Business empfiehlt Mike Scheumack, CEO des Identitätsschutz-Anbieters IDIQ, dass man im Verdachtsfall – insbesondere wenn es sich um eine unbekannte Nummer handelt – sofort auflegen und den Freund oder die Verwandte über eine bekannte Nummer anrufen sollte, um auf Nummer sicher zu gehen.

Variante des "Enkeltricks"

Bei dieser Betrugsmasche, einer Form des sogenannten "Enkeltricks", versuchen Betrüger ihre Opfer in den "Kampf-oder-Flucht-Zustand" ("Fight or Flight") zu versetzen, um unter Druck unüberlegte, emotionale Entscheidungen zu provozieren. Häufig versuchen die Kriminellen dabei, ältere Menschen hinters Licht zu führen, um dabei etwa kognitive oder körperliche Defizite oder fehlendes Wissen über moderne Betrugsmethoden auszunutzen.

Jerry ist freilich nicht das erste Opfer von KI-gestütztem Betrug dieser Art. Wie Recherchen des SWR zeigen, wird auch in unseren Breitengraden mittlerweile zu entsprechenden Werkzeugen gegriffen, um Stimmen zu manipulieren. (gpi, 8.11.2023)