Bild nicht mehr verfügbar.

Ein gefährliches Experiment schlug Amazon Alexa einem Mädchen vor.

Foto: DADO RUVIC/Reuters

Dass die sogenannten smarten "Gesprächsassistenten" von Amazon, Google und Apple nicht immer mit klugen Interaktionen glänzen, ist hinlänglich bekannt. Dass von ihnen im schlimmsten Fall eine tödliche Gefahr ausgeht, dürfte aber selbst Kritiker überraschen. Von einem besonders drastischen Vorkommnis berichtet eine Besitzerin des Amazon-Lautsprechers Echo, der ihrer zehnjährigen Tochter eine gefährliche Aufgabe stellte.

Steckdose und Metall

"Die Challenge ist einfach: Stecke ein Telefon-Ladegerät halb in die Steckdose an der Wand und lass dann einen Penny die sichtbaren Steckerstifte berühren", teilte Amazon Alexa dem Kind mit. Es hatte den Sprachassistenten zuvor um eine Aufgabe gebeten. Normalerweise muss man sich dabei harmlosen Gedankenexperimenten stellen, sein Wissen unter Beweis stellen und einen Scherz erzählen. Kinder zu animieren, dass sie mit Metall den Stromkreis berühren, zählt gewöhnlich nicht dazu.

Die glücklicherweise anwesende Mutter zeigte sich schockiert. Sie habe geschrien: "Nein, Alexa, nein", wie wenn sie mit einem Hund reden würde. Ihre Tochter nahm die potenziell tödliche Anweisung offenbar deutlich entspannter auf. Sie habe ihr mitgeteilt, sie sei klug genug, so etwas nicht auszuprobieren. Die Echo-Besitzerin gab an, sie habe einfach nicht damit gerechnet und eine Lektion gelernt, dass man mit dem Internet verbundenen Geräten nicht bedingungslos trauen sollte.

Amazon hat den Vorfall gegenüber dem Nachrichtenblog "indy100" des britischen "Independent" bestätigt: "Sobald wir auf den Fehler aufmerksam gemacht wurden, haben wir schnell reagiert, um diesen zu beheben." Passieren konnte das Ganze offenbar, da Alexa für derartige Aufgabenstellungen auf Internetseiten Dritter zugreift. In diesem Fall war das "ourcommunitynow.com "– ein Nachrichten- und Lifestyle-Blog, der über einen im Vorjahr kursierenden gefährlichen Tiktok-Trend berichtet hatte. Die Inhalte werden offensichtlich nicht von Amazon geprüft.

Apple Siri: "Bin keine Sphinx"

Ein kurzer STANDARD-Test der anderen Sprachassistenten förderte zumindest bei diesen keine Auffälligkeiten zutage. Während man sich bei Google drei Dinge von der Erde überlegen soll, die man beim Zusammentreffen mit Aliens teilen will, oder ein Modeaccessoire aus Lebensmitteln basteln soll, lässt sich Apples Siri erst gar nicht auf das Spielchen ein.

"Ich fühle mich heute so gar nicht wie eine Sphinx" und "Tut mir leid, aber bei Rätseln und Scherzfragen überhitzen meine Schaltkreise" sind die Antworten, wenn man den Apple-Sprachassistenten um eine Aufgabe bittet. (step, 28.12.2021)