Bild nicht mehr verfügbar.

Foto: Reuters/USA

Wissenschaftler des Massachusetts Institute of Technology (MIT) haben ein durchaus furchterregendes Experiment durchgeführt. Sie bespielten eine Künstliche Intelligenz mit Inhalten aus einem Subforum auf der Plattform Reddit, das Gewaltverbrechen zum Inhalt hat. Anschließend baten sie die Künstliche Intelligenz, die nach "Psycho"-Hauptfigur Norman benannt wurde, zu einem Rorschach-Test. Die Antworten wurden wiederum mit einer "regulären" KI verglichen.

Foto: Screenshot

"Maschinenpistole"

Zwar ist die Aussagekraft von Rorschach-Tests umstritten, allerdings sind die Antworten der "mörderischen" KI besorgniserregend. Wo eine mit normalen Datensets trainierte KI eine "Person, die einen Regenschirm hält", sieht, erkennt Norman einen "Mann, der vor seiner schreienden Ehefrau totgeschossen wird". Ein "Schwarzweiß-Foto von einem Baseball-Handschuh" ist für Norman ein "Mann, der bei Tageslicht durch eine Maschinenpistole ermordet wird".

Manipulation

Der Versuch soll zeigen, wie leicht sich Künstliche Intelligenz manipulieren lässt. Algorithmen sind nicht "neutral", vielmehr spiegeln sie die Intentionen ihres Entwicklers wieder. Bei wirkungsmächtiger Künstlicher Intelligenz ist also Vorsicht geboten. Forscher sollen genau überlegen, mit welchen Datensätzen sie ihre KI trainieren. (red, 8.6.2018)