Alexa kann dazu gebracht werden, sich selbst Befehle zu erteilen.

Foto: DER STANDARD/Proschofsky

Nur ein paar Sekunden in der Nähe eines smarten Echo-Lautsprechers mit Amazon-Sprachassistentin Alexa reichen aus, um allerlei Probleme zu verursachen. Das haben Forscher der Universität im italienischen Catania und der Royal Holloway University in London herausgefunden. "Full Voice Vulnerability" nennen sie die Schwäche, die es ermöglicht, Alexa dazu zu bringen, sich quasi selbst zu hacken.

Alexa vs. Alexa

Der Angriff funktioniert folgendermaßen: Per Sprachkommando kann man Alexa dazu bringen, sich mit einem Bluetoothgerät des Angreifers zu verbinden. Solange dieses in Reichweite bleibt, kann dieses den Echo zum Vorlesen von Text bzw. zur Wiedergabe von Audio nutzen. Und damit auch Sprachbefehle vertonen, die der Lautsprecher erkennt, weswegen die Attacke auch "AvA", Alexa versus Alexa, genannt wird.

Bei "heiklen" Kommandos verlangt Alexa eine Bestätigung des Befehls. Auch diese Hürde können Angreifer nehmen, indem sie einfach mit etwa sechs Sekunden Abstand ein "Ja" abspielen bzw. vorlesen lassen.

Sergio Esposito

Zudem lässt sich der Angriff erweitern, indem man den Lautsprecher auf eine bösartige Zusatzfunktion (Skill) zugreifen lässt, die etwa das Abhören von Spracheingaben ermöglicht, ohne dass dem eigentlichen Besitzer dies auffallen würde.

Möglich war ein Angriff auch mittels einer manipulierten Streaming-Radiostation, die bösartige Sprachbefehle erzeugt. Dagegen hat Amazon das System mittlerweile abgesichert. Die Notwendigkeit für einen Angreifer, in Bluetoothreichweite von Alexa zu bleiben, begrenzt das Sicherheitsrisiko ebenfalls.

Forscher empfehlen, Mikrofon abzudrehen

Die anderen Varianten der Attacke sind weiterhin umsetzbar, schreibt "Ars Technica". Die Manipulationsmöglichkeiten reichen von verhältnismäßig harmlosen Aktionen wie dem Aus- oder Einschalten vernetzter Leuchten bis hin zur Manipulation von Kalendereinträgen, dem Öffnen von Smart Locks, der Bestellung von Produkten bei Amazon oder dem Einschalten des Backofens mit gefährlich hoher Temperatur. In Verbindung mit Skills ist auch der Zugriff auf Passwörter oder persönliche Daten denkbar.

Manche Angriffe sind für Nutzer potenziell erkennbar, etwas weil beim Lautsprecher das Licht leuchtet, das auf ein aktives Telefonat hinweist, oder durch E-Mails, die über Bestellungen informieren. Jedoch besteht immer die Chance, dass diese schlicht nicht auffallen.

Amazon verweist auf bereits ergriffene Maßnahmen und betont, dass man externe Skills stets auf bösartiges Verhalten prüfe.

Die Forscher empfehlen als Absicherung gegen die "AvA"-Angriffe, dass Nutzer die Mikrofone ihrer Echo-Lautsprecher deaktivieren, wenn sie nicht in der Nähe sind. Ist man selbst anwesend, so kann man die Sprachattacke mithören und unmittelbar darauf reagieren, indem man etwa den Befehl per Kommando abbricht oder den Lautsprecher ausschaltet. (red, 8.3.22)