Eine Simulation der US-Luftwaffe mit einer KI-Drohne soll zu überraschenden Resultaten geführt haben.
APA/AFP

Die Angst, dass sich Maschinen einmal gegen ihre eigenen Schöpfer wenden könnten, ist nicht neu. Nun sorgt ein Vorfall für Aufsehen, der im Rahmen des "Future Combat Air and Space Capabilities Summit" vor wenigen Tagen an die Öffentlichkeit gelangt ist. Eine KI-gesteuerte Drohne soll bei einer Simulation der US-Luftwaffe den eigenen Operator eliminiert haben, weil er ihrer Ansicht nach ihrer Aufgabe im Weg gestanden sei. Zu Schaden sei niemand gekommen, mittlerweile wurde der Vorfall von der US-Luftwaffe dementiert.

Colonel Tucker Hamilton, hochrangiges Mitglied der US-Luftwaffe für KI-Tests und -Einsätze, erzählte von einer Simulation, bei der eine künstliche Intelligenz (KI) ungewöhnliche Strategien angewandt haben soll, um ihre Missionsziele zu erreichen. Konkret ging es darum, dass eine KI-gesteuerte Drohne die Anweisung erhielt, Luftabwehrstellungen des Gegners zu erkennen und auszuschalten. Für das Identifizieren und Ausschalten gab es Punkte, das Ausschalten durfte aber erst nach Freigabe durch einen (menschlichen) Operator erfolgen.

Mit allen Mitteln zum Ziel

Da dieser Abschüsse verhinderte, soll die Drohne einfach ihn abgeschossen haben. "Was hat sie also getan? Sie hat den Operator getötet. Sie tötete den Operator, weil diese Person sie daran hinderte, ihr Ziel zu erreichen", wird Hamilton im Blogpost der Royal Aeronautical Society zitiert.

Das ist aber noch nicht alles: Als die KI angewiesen wurde, den Operator aus einleuchtenden Gründen nicht zu töten, ging sie für die Punktemaximierung mit einer anderen Strategie ans Werk: Sie soll begonnen haben, den Kommunikationsturm zu zerstören, über den der Operator mit der Drohne kommunizierte, um danach ungestört ihre Ziele ausschalten zu können.

Hamilton habe im Rahmen dieser Erzählung davor gewarnt, sich zu sehr auf künstliche Intelligenz zu verlassen, und habe hinzugefügt: "Man kann keine Gespräche über künstliche Intelligenz, Intelligenz, maschinelles Lernen und Autonomie führen, wenn man nicht auch über Ethik und KI spricht."

Die Simulation hat nie stattgefunden

Die US-Luftwaffe dementiert, dass diese Simulation jemals stattgefunden habe. Offiziell jedenfalls nicht. In einer Erklärung gegenüber "Insider" spielt man die Erzählung von Hamilton herunter. "Die Abteilung der Air Force hat keine solchen KI-Drohnen-Simulationen durchgeführt und setzt sich weiterhin für einen ethischen und verantwortungsvollen Einsatz von KI-Technologie ein", sagt Air-Force-Sprecherin Ann Stefanek: „Es scheint, dass die Kommentare von Colonel Hamilton aus dem Kontext gerissen wurden und anekdotisch gemeint waren."

Und auch eine aktualisierte Darstellung von Hamilton berichtigt mittlerweile, dass es keine tatsächliche Simulation gegeben habe, sondern dass er lediglich ein "Gedankenexperiment" beschrieben habe. Hamilton räumte ein, dass er sich dabei wohl missverständlich ausgedrückt habe. (bbr, 3.6.2023)