Es werden derzeit striktere Regeln für KI diskutiert.

Foto: Reuters / Dado Ruvic

Es war nur eine Frage der Zeit, bis auch Rüstungsunternehmen auf den Hype rund um generative KI-Systeme aufspringen. Vergangenen Mittwoch war es dann soweit – und die US-Softwarefirma Palantir von Milliardär Peter Thiel präsentierte ihre Artificial Intelligence Platform (AIP) für den Kriegseinsatz. Diese soll bei der militärischen Überwachung helfen, eine Aufklärungsdrohne entsenden und sogar verschiedene Angriffspläne vorschlagen können, heißt es in einer Präsentation des Unternehmens.

Während sich Konsumentinnen und Konsumenten freuen, mit Chatbots wie ChatGPT, Bing und Bard über interessante Themen sprechen zu können, zeigt Palantirs Vorstoß also, welche Anwendungszwecke die Industrie für sogenannte Large Language Models (LLMs) wie GPT-4 und Co erwägt.

Verboten per Gesetz

Diese Entwicklung hat auch eine Reihe von US-Politikern in Sorge versetzt, wie ein neuer Gesetzesvorschlag zeigt. Unter dem Namen "Block Nuclear Launch by Autonomous AI Act" zielt dieser darauf ab, "die Verwendung von Bundesmitteln für den Abschuss einer Atomwaffe durch ein autonomes Waffensystem, das keiner angemessenen menschlichen Kontrolle unterliegt", zu verbieten. Wie "The Verge" hervorhebt, verbietet das US-Außenministerium KI zwar schon heute den eigenständigen Abschuss von Atomwaffen. Sollte das Gesetz verabschiedet werden, würden diese Regeln allerdings in nationales Recht gegossen.

Derzeit hält das Pentagon fest, dass die Vereinigten Staaten für alle Maßnahmen, "die entscheidend für die Information und Umsetzung von Entscheidungen des Präsidenten über die Einleitung und Beendigung des Einsatzes von Kernwaffen sind", einen Menschen in der Schleife hält. Der von zwei Demokraten und einem Republikaner eingereichte Gesetzesentwurf geht in dieselbe Richtung. Ohne angemessene menschliche Kontrolle sollen autonome Waffensysteme keine Atomwaffen starten können oder "Ziele zum Zweck des Abschusses" auswählen oder angreifen dürfen.

Vorbildfunktion

Ganz grundsätzlich hält der Text fest, dass keine "Entscheidung über den Einsatz einer Atomwaffe" von "einer künstlichen Intelligenz getroffen werden" sollte. Deshalb der vorgeschlagene Grundsatz der menschlichen Kontrolle. Gemeint ist damit, dass Menschen sowohl Zielauswahl, Zeitpunkt, Ort, Art des Einsatzes und den Angriff selbst kontrollieren sollen.

Dass all das per Gesetz verankert werden soll, obwohl es bereits vom Außenministerium verboten wurde, hat laut "The Verge" vor allem ein Ziel: Aufmerksamkeit auf die Thematik zu lenken, damit entsprechende Verbote nicht nur von den USA, sondern auch von anderen Atommächten wie China und Russland ausgesprochen werden.

Abstraktion des Krieges

Das Stichwort der menschlichen Kontrolle ist auch in Bezug auf Palantirs KI-Plattform interessant. Denn im eingangs erwähnten Werbevideo spielt der Mensch eine verschwindend geringe Rolle. Er versorgt die KI bloß mit passenden Stichworten und gibt von ihr getroffene Entscheidungen frei – was für eine immer größere Abstraktion von Kriegshandlungen führen könnte. Diese Problematik wird im Video genauso wenig thematisiert wie die zahlreichen Defizite von LLMs. Immer wieder liefern diese falsche Ergebnisse, erfinden diese teilweise sogar. Ob und wann Palantirs AIP tatsächlich zum Einsatz kommen wird, bleibt also abzuwarten. (mick, 30.4.2023)