Vor wenigen Wochen erhielt ein Finanzangestellter im Hongkonger Büro einer multinationalen Firma per E-Mail eine Einladung zu einer Videokonferenz. Der Absender: der Finanzvorstand aus dem Vereinigten Königreich. Er solle geheime Transaktionen ausführen, so die Ansage. Der Mitarbeiter war zunächst misstrauisch und dachte an eine Phishing-Mail, doch als er den Link öffnete und seine Kollegen live und in Farbe in den Kacheln der Videokonferenz sah, waren seine Bedenken weggewischt.

Warum Verdacht schöpfen, wenn einen der Chef aus Übersee anschreibt und das Team eingeweiht ist? Die Kollegen sahen echt aus, und sie klangen auch so. Gutgläubig folgte der Mitarbeiter den Instruktionen und führte 15 Transaktionen im Umfang von 200 Millionen Hongkong-Dollar (umgerechnet 24 Millionen Euro) an verschiedene Bankkonten aus. Als sich der Mitarbeiter bei seinem obersten Boss rückversicherte, war es schon zu spät. Das Geld war weg.

Futuristisch leuchtende Hologramme von Menschen in einem futuristischen, dunklen Büro
KI-Klone können etwa die Identität von Vorgesetzten annehmen oder als Phantommitarbeiter sensible Daten ausspionieren.
Getty Images

Der Mitarbeiter war auf einen besonders perfiden Trickbetrug hereingefallen: Wie die Polizei gegenüber lokalen Medien mitteilte, waren die Kolleginnen und Kollegen in dem Videoanruf nicht echt, sondern fake – sie wurden mithilfe von künstlicher Intelligenz (KI) in das Bewegtbild eingebaut. Die Polizei vermutet, dass die Betrüger im Vorfeld ihrer Tat Videoaufnahmen heruntergeladen und damit ein KI-System trainiert hatten, das die digitalen Klone erzeugte. Wie die Täter an das Material gelangten und ob möglicherweise interne Quellen angezapft wurden, ist Gegenstand polizeilicher Ermittlungen.

Schnelle Entwicklung

Deepfakes nehmen rasant zu. Vor wenigen Tagen erst erhielten zahlreiche Bürger in New Hampshire automatisierte Fake-Anrufe von US-Präsident Joe Biden. Die KI-Manipulationen treffen aber nicht nur Politiker und andere Prominente wie jüngst Taylor Swift, von der Deepfake-Pornobilder im Netz kursierten, sondern zunehmend auch Unternehmen.

So hatten 2021 Cyberkriminelle mithilfe von KI-Werkzeugen die Stimme eines Bankdirektors in den Vereinigten Arabischen Emiraten geklont und einen Bankangestellten am Telefon um 35 Millionen US-Dollar geprellt. In einem ähnlich gelagerten Fall wurde der Geschäftsführer eines Energieunternehmens von einem Telefonbetrüger überlistet, der mit der Stimme des Chefs der deutschen Mutterfirma sprach. Das Opfer glaubte, den deutschen Akzent seines Vorgesetzten zu hören und führte Überweisungen an ein ungarisches Konto aus. Als der Geschäftsführer sah, dass der vermeintliche Boss von einer österreichischen Nummer anrief, schöpfte er Verdacht – und unterließ eine zweite Zahlung. Doch da war der Schaden schon angerichtet.

Inzwischen ist die Technik weitaus ausgefeilter – und das Missbrauchspotenzial entsprechend größer. Rufnummern lassen sich manipulieren, und mithilfe von frei zugänglichen KI-Werkzeugen lassen sich mit nur wenigen Sekunden Trainingsmaterial Stimmen klonen. Man kann mit KI sogar einen Nachrichtensprecher bauen, der in der gewünschten Zielsprache einen Text aufsagt. Voice-Scams bergen auch für Unternehmen erhebliche Gefahren.

Wie kann man sich schützen?

Das FBI warnte bereits 2022 in einem Bericht vor Manipulationen bei Remote-Jobs, bei denen sich vermeintliche Bewerber in Videointerviews als eine andere Person ausgeben, um Zugang zu internen Dokumenten zu erlangen oder Schadsoftware einzuschleusen. Seit der Pandemie finden immer mehr Vorstellungsgespräche online statt. Doch im Gegensatz zum physischen Raum können Personalerinnen im virtuellen Raum kaum feststellen, ob ihnen ein echter Mensch oder eine Sprechpuppe gegenübersitzt, deren Mimik und Stimme von einem Computer synthetisiert wurden.

Vor allem in Branchen, in denen viel remote gearbeitet wird, ist die Verwundbarkeit groß. Eine Bewerbung ist dank ChatGPT schnell geschrieben. Kaum hat man sich versehen, hat man eine Phantommitarbeiterin im Team, die am ersten Tag im Intranet herumschnüffelt und sensible Daten wie Sicherheitspläne oder Termine der Führungsebene abgreift – und dann plötzlich abtaucht. Die Personalabteilungen von Remote-Firmen sind gewarnt. Doch was kann man tun, um Deepfakes zu identifizieren?

Der amerikanische Arbeitsmarkt- und Personalexperte John Sullivan rät zu umfangreichen Background-Checks bei der Einstellung von Bewerbenden. Personaler sollten vorher Social-Media-Profile unter die Lupe nehmen und gezielte Fragen zu Publikationen oder Stationen im Lebenslauf stellen, empfiehlt er auf seiner Website. Da die meisten Fake-Bewerbenden in Ländern wie Russland, China, Nordkorea und Nigeria lebten, reichten auch einfache Prüffragen wie "Was ist CNN?", um mögliche Betrügerinnen und Betrüger zu entlarven. Zudem lassen sich Deepfakes an technischen Unzulänglichkeiten beziehungsweise Anomalien wie nichtblinzelnden Augen oder fehlender Lippensynchronisation erkennen. Häufig wirkt auch die Mimik steif. Am Telefon, wo man kein Bild vor Augen hat, stellt sich die Situation aber noch einmal anders dar.

Im Zeitalter der KI muss man damit rechnen, dass Anrufende oder Konferenzteilnehmer fake sind. Vielleicht führen die Bild- und Tonmanipulationen am Ende doch dazu, dass man sich in Präsenz trifft. Denn dort weiß man, dass einem auch die richtige Chefin gegenübersitzt. (Adrian Lobe, 28.2.2024)