Ein KI-generierter Avatar einer Frau
"Emma" kann man um ein paar Euro buchen. Aktuell bewirbt sie Urlaubsreisen für Betrüger.
Watchlist Internet

Lange hat es ja nicht gedauert, bis generative künstliche Intelligenz (KI) für Betrugsmaschen herhalten muss. KI-Avatare verbreiten Propaganda, generierte Bilder ebenso. Der neueste Schmäh sind aber gefakte Urlaubsportale mit angeblich persönlicher Beratung. Die Beraterinnen und Berater sind aber von einer KI generiert, die Avatare nicht echt und die Urlaubsangebote zu gut, um wahr zu sein.

Urlaubs-Scam vom KI-Avatar

Eine Woche All-inclusive-Urlaub in Hurghada, Ägypten, für nur 429 Euro klingt unschlagbar günstig. Die Werbung wird über Facebook, Instagram, Tiktok und Youtube ausgespielt, wie "Watchlist Internet" berichtet. Besonders originell, das angebliche Reisebüro gibt es nicht, die Dame in der Werbung ist mithilfe einer Bild-KI generiert und wirkt auch auf den zweiten Blick nicht besonders überzeugend. Das hält Unternehmen wie Kofi Reisen aber nicht davon ab, auf Whatsapp wird auch noch persönliche Beratung angeboten, bei der Kundinnen und Kunden zu weiteren Ausgaben überredet werden. Die Konsumentenschützer warnen aber vor allzu freudigen Überweisungen an dubiose Reisebüros: "Haben Sie Geld an Kofi Reisen überwiesen, ist dies oft leider unwiederbringlich verloren."

Neuer Schmäh via Booking.com

Mit weniger KI-Einsatz, dafür umso frecher gehen aktuell Betrüger vor, die eine neue Betrugsmethode für sich entdeckt haben. Dafür nutzen sie die gute Reputation von Booking.com aus. Aktuell scheinen Kriminelle es wieder zu schaffen, ihre nicht existenten Unterkünfte auf der Plattform zu veröffentlichen. Aktuell kommt es beispielsweise zu Angeboten, die eine kostenlose Stornierung beinhalten und Zahlung vor Ort bei Urlaubsantritt versprechen – das klingt erst einmal für den Gast für vorteilhaft.

Das vermeintlich unwiderstehliche Angebot ist auch buchbar. Doch kurz darauf folgt die Stornierung durch die Unterkunft selbst, die noch über Booking.com-Kanäle kommuniziert wird. Als Grund wird meist ein Fehler in der Zahlungsabwicklung genannt. Anschließend versuchen die Kriminellen die Kundinnen und Kunden auf betrügerische Seiten zu locken, um dort doch noch eine Buchung abschließen zu können.

Dort versuchen die Betrügerinnen und Betrüger die Kundschaft zu einer angeblichen Verifikation ihres Zahlungsmittels zu überreden. Nach der Eingabe der Zahlungsdaten sollen die Opfer einen Geldbetrag zur Verifikation in Ihrer Banking-App freigeben. Eine Abbuchung soll nicht stattfinden, und das Geld soll unmittelbar wieder auf dem eigenen Konto verfügbar sein, heißt es.

Tatsächlich wird das Geld aber abgebucht, die angebliche Verifikation war eigentlich eine Zahlung – die versprochene Unterkunft wird freilich nie gebucht. Wie es die Kriminellen überhaupt schaffen, auf Booking.com zu gelangen, ist nicht restlos geklärt. Möglich ist, dass die Betrüger sich durch Phishing-Angriffe Zugang zu einem ursprünglich seriösen Account verschaffen.

"Der gesamte Buchungsprozess muss über Booking.com abgewickelt werden. Sobald eine Unterkunft dazu drängt, über externe Kanäle zu kommunizieren, obwohl die Buchung noch nicht abgeschlossen ist, Zahlungsmittel zu verifizieren, oder nach einer Stornierung doch noch eine Buchung verspricht, ist Abstand zu nehmen", rät man bei "Watchlist Internet".

Wie man Deepfakes erkennt

Laut dem IT-Sicherheitsunternehmen Kaspersky gibt es keinen pauschalen Weg, Deepfake-Videos mit bloßem Auge zu erkennen. Wenn das Ausgangsmaterial nicht ausreicht oder von schlechter Qualität ist, sind manche Animationen nicht lippensynchron, Bildbereiche unscharf oder aber Bewegungen abgehackt. Es sei jedoch nur eine Frage der Zeit, bis weder IT-Forensiker noch Algorithmen gut gemachte Deepfakes als solche enttarnen könnten.

Bis dahin untersuchen Experten das Material auf kleinste Ungereimtheiten: Treten Artefakte im Bild auf? Stimmen Licht und Schatten? Sind die Winkel und Unschärfen der Gesichtszüge korrekt? Passen Kleidung und Haare? Ist der Hautton natürlich? Blinzeln die dargestellten Personen wie ein echter Mensch? Auch die Analyse der Tonspur ist eine Möglichkeit für IT-Forensiker, ein Deepfake-Video als solches zu enttarnen, sollten beispielsweise die im Tonsignal versteckten Zeitstempel nicht konsistent sein, heißt es bei Kaspersky. Die größte Hoffnung im Kampf gegen Deepfakes sind aber KI-Systeme.

"Emma" kostet 26 Euro im Monat

Im Fall der gefälschten Reiseberaterin ist aber wahrscheinlich, dass sie mithilfe eines kommerziellen Anbieters erstellt wurde. Tatsächlich kann man die Dame käuflich erwerben: Um 26 Euro im Monat ist "Emma" bei der britischen KI-Firma Synthesia buchbar. Die Videos des Unternehmens werden hauptsächlich für Schulungen, Erklärvideos oder Produktmarketing verwendet. Die digitalen Zwillinge basieren auf dem Aussehen echter Schauspieler und Schauspielerinnen und können 120 verschiedene Sprachen und Dialekte sprechen. Darüber hinaus bietet das Unternehmen 85 Charaktere mit verschiedenen Geschlechtern, Altersgruppen, Ethnien, Stimmtönen und sogar Modetrends zur Auswahl an.

Die Avatare der Firma Synthesia erlangten im Februar diesen Jahres erstmals Bekanntheit, als sie in Propagandavideos im Sinne der Kommunistischen Partei Chinas des falschen Nachrichtensenders "Wolf News" eingesetzt wurden. (pez, 27.6.2023)