Ein bevorstehendes Problem: Anrufe mit fingierten Stimmen.

Foto: AP

Die enorm schnelle Entwicklung im Bereich der Deepfakes macht es immer schwieriger, echte und gefälschte Inhalte voneinander zu unterscheiden. Das gilt nicht nur für Videoinhalte, bei denen das Gesicht einer Person mit jenem einer anderen ausgetauscht wird – sondern für Tonaufnahmen. Die US-Wettbewerbs- und Verbraucherschutzbehörde Federal Trade Commission (FTC).

Bei einem Workshop (via "The Verge") erklärte die FTC-Exdpertin Laura DeMartino, dass Stimmen seit Jahren nachgeahmt werden – mittlerweile sei man aber zu einem Punkt angelangt, an dem es nur eine sehr kleine Originalaufnahme braucht, um eine Stimme zu klonen. Durch Maschinenlernen klingen die Fake-Stimmen täuschend echt.

Anonyme Kommunikation

Einerseits erlaube das Kriminellen, anonym zu kommunizieren, wodurch Betrugsmaschen viel leichter werden. Bisher waren Fälle, die viel Kommunikation brauchen, selten, da sie für Täter einen hohen Aufwand bedeuteten. So sei es grundsätzlich nicht so leicht, sich als jemand anderer auszugeben – wenn man aber eine Stimme so stark verzerren kann, dass sie identisch zu dem Opfer klingt, wird das in der Zukunft wohl anders sein.

Doch neben der offensichtlichen Probleme, vor denen Nutzer in Zukunft stehen werden, könnte diese Entwicklung auch positive Aspekte mit sich bringen: So könnten Menschen, die ihre Stimme verlieren, eine synthetische Version ihrer Stimme nutzen.

Das größte Problem wird aber wohl das Thema Social Engineering am Telefon darstellen. So könnten sich Kriminelle am Telefon als das Opfer ausgeben, um Zugriff auf verschiedenste Services zu erlangen. (red, 30.1.2020)