Mit Sprengkörpern bestückte Drohnen werden im Ukrainekrieg häufig eingesetzt.

Foto: IMAGO/Andrei Rubtsov

Vergangene Woche veröffentlichte das US-Außenministerium eine "Erklärung zur verantwortungsvollen militärischen Nutzung künstlicher Intelligenz (KI) und Autonomie". Das Dokument ist zwar rechtlich nicht bindend, dennoch hofft man, dass sich verbündete Staaten den Prinzipien verschreiben und so eine Art globaler Standard für den verantwortungsvollen Einsatz militärischer KI-Systeme geschaffen wird.

In der Erklärung wird vor allem betont, dass eine Entwicklung im Einklang mit internationalen Gesetzen erfolgen muss und dass es hohe Standards für die Überprüfung der KI-Systeme braucht.

KI und "autonome Systeme"

KI wird hier als die Fähigkeit von Maschinen definiert, Aufgaben auszuführen, die sonst menschliche Intelligenz erfordern. Darunter fällt beispielsweise die Erkennung von Mustern, das Treffen bestimmter Vorhersagen oder das Ergreifen von Maßnahmen.

Dies gelte sowohl für den digitalen Raum als auch für intelligente Software hinter "autonomen physischen Systemen". Als "autonom" gelten sämtliche Systeme, die nach ihrer Aktivierung ohne weiteres menschliches Eingreifen funktionieren, beispielsweise Drohnen.

"Best Practices" im Umgang mit militärischen KI-Systemen

Die Erklärung umfasst eine Liste von zwölf Punkten, die bewährte Verfahren ("best practices") bei der Entwicklung und der Nutzung militärischer KI-Systeme definieren. Dabei werden bekannte Probleme im Umgang mit künstlicher Intelligenz berücksichtigt: Die Risiken und Vorteile einer militärischen Nutzung sollen sorgfältig abgewogen und "unbeabsichtigte Vorurteile und Unfälle reduziert" werden. Explizit betont wird auch die Einhaltung des humanitären Völkerrechts.

Menschen entscheiden über den Einsatz von Atomwaffen

Auch soll die menschliche Kontrolle und "Beteiligung" an allen Maßnahmen beibehalten werden – vor allem wenn es um Entscheidungen über den Einsatz von Atomwaffen geht. Das zuständige Personal muss derart geschult sein, dass es die Fähigkeiten und Grenzen der Technologie versteht und "kontextbezogene Urteile über deren Einsatz" fällen kann.

Entwicklung muss nachvollziehbar sein

Die Vorurteile und Verzerrungen, die beim Umgang mit KI beobachtet werden, sollen durch "bewusste Schritte" minimiert werden. Militärische KI-Systeme sollen demnach mit "überprüfbaren Methoden und Datenquellen" entwickelt werden, und die Vorgänge sollen entsprechend dokumentiert werden.

Die Sicherheit und die Wirksamkeit dieser Systeme sollen einem ständigen Überwachungsprozess unterliegen. Dies gelte vor allem für selbstlernende KI-Technologien, bei denen regelmäßig sichergestellt werden muss, dass kritische Sicherheitsmerkmale nicht herabgesetzt ("verlernt") werden.

Militärischer Einsatz von KI umstritten

Der Einsatz von künstlicher Intelligenz zu militärischen Zwecken gilt schon länger als umstritten. Das Bemühen, ein internationales Verbot derartiger Technologie durchzusetzen, scheiterte bislang an der mangelnden Bereitschaft mehrerer Großmächte.

Beim ersten internationalen Gipfel zum verantwortungsvollen Umgang mit künstlicher Intelligenz im Militär, der am 16. Februar in Den Haag stattfand, unterzeichneten zumindest mehr als 60 Länder – darunter die USA und China – einen "Aufruf zum Handeln", der den verantwortungsvollen Einsatz künstlicher Intelligenz im Militär befürwortet.

Menschenrechtsexperten kritisierten allerdings, dass in der Erklärung KI-gesteuerte Drohnen und Slaughterbots (also Roboter, die ohne menschliches Eingreifen töten können) nicht ausreichend thematisiert würden. (Lisa Haberkorn, 24.2.2023)