Eine Seniorin, die telefoniert. 
Beim Enkeltrick werden ältere Personen dazu gedrängt, einem angeblichen Verwandten rasch Geld zu überweisen.
IMAGO/Fleig / Eibner-Pressefoto

Der Enkeltrick ist per se nicht neu: Betrüger geben sich bei älteren Personen als deren Enkel oder Neffen aus und drängen diese dazu, Geld zu überweisen. In letzter Zeit setzen die Verbrecher jedoch zunehmend die Technologie des KI-Voice-Cloning ein, um für ihre Opfer noch überzeugender zu wirken, wie Stefan Strauß vom Institut für Technikfolgen-Abschätzung an der Österreichischen Akademie der Wissenschaften (ÖAW) in einem Beitrag des Ö1-"Morgenjournals" erklärt.

Bei Voice-Cloning wird künstliche Intelligenz genutzt, um aus Schnipseln von Original-Audiomaterial täuschend echte Klone von Stimmen zu erschaffen. Ein Anbieter wirbt damit, dass eine Minute Original-Audiomaterial ausreicht, um das Modell entsprechend zu trainieren.

Anschließend muss das Tool nur noch mit geschriebenem Text gefüttert werden, der daraufhin in gesprochene Sprache umgewandelt wird. Wie das funktioniert und wie echt die synthetischen Stimmen klingen können, hat auch der STANDARD bereits im nachfolgenden Podcast-Beitrag demonstriert.

Dass diese Technologie immer häufiger auch für Betrug genutzt wird, hat zwei Ursachen. Erstens gibt es immer mehr dieser Tools, die Nutzung ist recht niederschwellig gestaltet, in Form von Abomodellen kostet das Klonen mehrerer Stimmen einen niedrigen einstelligen Eurobetrag pro Monat. Zweitens gibt es im World Wide Web und vor allem auf Social Media ausreichend Audio- und Videomaterial der echten Enkel, das die Verbrecher zum Klonen der Stimmen nutzen können.

Wenigen Menschen ist dabei bewusst, dass auch die eigene Stimme ein biometrisches Merkmal ist, das einer Person eindeutig zugeordnet werden kann, wie der Experte im Radiobeitrag erläutert: "Biometrie ist immer schon ein kritischer Aspekt gewesen. Aber durch künstliche Intelligenz wurde nun ein Stadium erreicht, in dem biometrische Merkmale einer Person leicht erfasst und imitiert werden können."

So schützt man sich

Hier braucht es mehr Bewusstsein für die Thematik, führt Strauß aus. Dazu gehört erstens mehr Vorsicht bei der Frage, wo man Aufnahmen der eigenen Stimme veröffentlicht. Auf dem Portal onlinesicherheit.gv.at heißt es zudem, dass Verbrecher die Menschen hinter der Originalstimme manchmal anrufen, um ihnen Aussagen zu entlocken, die anschließend für Betrugszwecke verwendet werden. Hier ist keine KI im Spiel, es gilt jedoch auch hier der Ratschlag: Seien Sie sparsam mit Aussagen gegenüber Fremden am Telefon, etwa bei Telefonumfragen.

Erhält man wiederum einen derartigen Anruf, so rät der Forscher zu dem, was auch für ominöse SMS und E-Mails gilt: einer gesunden Portion Skepsis. So sollten eine unbekannte Nummer und die Bitte um Geld Gründe für Misstrauen sein: "Wie plausibel ist es, dass ein Angehöriger oder eine Angehörige anruft und plötzlich eine Geldforderung hat oder eine extreme Notsituation zeichnet, bei der man zum raschen Handeln gezwungen wird?"

Auf onlinesicherheit.gv.at werden weitere Punkte genannt, die skeptisch stimmen sollten: Erscheint der Sprechstil unüblich oder zu "perfekt"? Immerhin machen Menschen beim Sprechen zwischendurch Pausen oder variieren das Tempo. Die eingesetzte KI hingegen hat oft noch Schwierigkeiten, diese Unregelmäßigkeiten nachzuahmen. Ein weiteres Indiz für einen KI-Fake ist, dass die Antworten des Anrufers nur bedingt zu den eigenen Fragen passen, in dem Fall bedienen sich die Betrüger vorgefertigter Audiodateien.

Wo Voice-Cloning nützlich sein kann

Betont wird von Strauß allerdings auch, dass es bei der Technologie des Voice-Cloning nicht nur missbräuchliche Anwendungen gibt, sondern dass diese auch für gute Zwecke eingesetzt werden kann. Etwa wenn Menschen krankheitsbedingt nicht mehr sprechen, aber noch schreiben können. In dem Fall könnte die geschriebene Sprache in gesprochene umgewandelt werden und so die Kommunikation erleichtern.

Eine andere Möglichkeit ist, auf diese Weise kostengünstig Hörbücher zu produzieren. In den USA setzt Amazon diese Technologie zum Beispiel ein, um Indie-Autorinnen und -Autoren den Sprung auf die Hörbuchplattform Audible zu erleichtern. In Österreich lässt das Start-up Oscar Stories nicht nur individuelle Kinderbücher von einer KI erstellen, sondern diese auf Wunsch auch von einer KI-Stimme vorlesen.

Eine weitere bösartige Nutzung ist hingegen jene im Bereich der Fake News. So wurden US-Bürgerinnen und -Bürger vor ein paar Wochen angeblich von Präsident Joe Biden angerufen, der mit ihnen über die bevorstehende Wahl sprechen wollte. Auch hier handelte es sich um einen KI-Fake. (stm, 21.2.2024)