Sprachassistenten können mit hochfrequenten Tönen theoretisch so manipuliert werden, dass sie unerwünschte Befehle ausführen.

Foto: AP/Stewart

Wer Sprachassistenten im Alltag nutzt, muss ihren Einsatz in Zukunft möglicherweise überdenken: US-amerikanische Forscher haben mit einer Attacke namens Nuit (Near-Ultrasound Inaudible Trojan) demonstriert, dass die Schwächen in Mikrofonen von intelligenten Geräten und Sprachassistenten genutzt werden können, um aus der Ferne unbemerkt auf Smartphones und Haushaltsgeräte zuzugreifen. Die Studie ergab, dass Siri von Apple, Google Assistant, Microsofts Cortana und Amazons Alexa für solche Nuit-Angriffe anfällig sind, wenngleich in unterschiedlichem Ausmaß.

Dadurch besteht die Möglichkeit, dass Millionen von Geräten wie Handys, Laptops, Lautsprecher, Lampen, Garagentore und Haustürschlösser aus der Ferne gehackt werden können. Sie müssen "nur" mit speziell erstellten hochfrequenten Tönen manipuliert werden, um unerwünschte Aktionen auszuführen. Das können Telefonanrufe oder Geldtransfers sein, aber auch die Deaktivierung von Alarmsystemen oder das Entriegeln von Türen ist bei entsprechender Hardware im Haus vorstellbar.

Der "stille" Angriff

Wie "Bleeping Computer" berichtete, haben die Forscher haben zwei Arten von Nuit-Angriffen entwickelt: Bei Nuit-1 wurde der intelligente Lautsprecher des Opfers dazu genutzt, das Mikrofon und den Sprachassistenten auf demselben Gerät anzugreifen. Bei Nuit-2 wurden das Mikrofon und der Sprachassistent des Opfers genutzt, um ein anderes Gerät anzugreifen.

Bei diesen Angriffen werden Sprachbefehle so moduliert, dass sie für das menschliche Ohr fast unhörbar sind, aber von Sprachassistenten erkannt werden können. Diese modulierten Signale werden dann in andere Dateien wie eine App oder ein Youtube-Video eingebettet. Wenn ein anfälliges Gerät die Datei empfängt, führt es die (unhörbaren bzw.) versteckten Befehle aus, ohne dass der Benutzer es bemerkt.

Von den 17 untersuchten Geräten waren die Nuit-1- und Nuit-2-Angriffe gegen das iPhone X, XR und 8 erfolgreich und unbemerkt. Nuit-1-Angriffe waren erfolgreich gegen das MacBook Pro 2021 und das MacBook Air 2017 sowie gegen das Samsung Galaxy S8, S9 und A10e. Amazons Echo Dot der ersten Generation konnte auch nur einem Angriff mit stiller Antwort standhalten und führte ansonsten die versteckten Befehle aus.

Angriffe vermeidbar

Die Forschungen zeigen aber auch, dass es möglich ist, sich vor solchen Nuit-Angriffen zu schützen. Zum einen kann man beispielsweise Kopfhörer verwenden, da der Klang von Kopfhörern zu leise und zu weit entfernt ist, um an das Mikrofon übertragen zu werden und so den Sprachassistenten zu aktivieren. Zum anderen ist es ratsam, die Aktivitäten des Sprachassistenten im Blick zu behalten. Nicht zuletzt könnten die Hersteller auch selbst Technologien entwickeln, um die Erkennung von unhörbaren Frequenzsignalen zu verbessern und entsprechende Befehle zu ignorieren. (red, 7.4.2023)