Bild nicht mehr verfügbar.

Immer wieder gibt es Bestrebungen, autonome Waffen zu verbieten.

Foto: REUTERS/Annegret Hilse

Es ist nicht weniger als die dritte große Revolution in der Waffenindustrie. Die erste war das Schießpulver, die zweite waren Nuklearwaffen und die dritte seien nun die autonomen Waffensysteme, warnt die niederländische NGO Pax, die sich mit ihrer Forschung weltweit für eine Stärkung des Friedens einsetzt. Noch sind keine vollautonomen Systeme bekannt, die aktuell im Einsatz wären, zweifelsfrei habe sich in den vergangenen zehn Jahren aber ein Trend gezeigt, wonach immer mehr Unternehmen in immer mehr Staaten an der Entwicklung dieser Systeme arbeiten. Autonome Waffen würden "fundamentale rechtliche und ethische Prinzipien verletzten und den internationalen Frieden gefährden", warnen die Forscher.

Besonders besorgniserregend ist für Pax, dass es aktuell keine international rechtlich verbindlichen Regeln für die Produktion oder den Einsatz dieser Systeme gibt. Zwar gibt es immer wieder Forderungen von Aktivisten, aber auch ranghohen Militärs nach scharfen Regeln oder gar einem gänzlichen Verbot der gesamten Waffengattung – allen voran Russland und die USA legen sich aber regelmäßig quer. Die Waffenindustrie ist also auf sich alleingestellt und setzt sich ihre eigenen Regeln und Grenzen – oder eben nicht.

Fast alle säumig

Für den aktuellen Bericht befragte Pax die 50 führenden Rüstungsunternehmen nach deren Guidelines für die Produktion autonomer Waffensysteme. Nach Einschätzung der Forscher hätten sich nur vier Unternehmen zufriedenstellende Regeln auferlegt. 16 werden aufgrund fehlender oder lascher Vorschriften mit "mittlerer Sorge" und ganze 30 mit "großer Sorge" betrachtet – darunter Lockheed Martin, Boeing und Rafael. Entscheidend bei der Bewertung ist vor allem, inwiefern der sogenannte "human in der the loop", der Faktor Mensch in der Schleife garantiert wird – also die Frage, ob nach wie vor ein Mensch die Entscheidung zu töten trifft.

Vox

Bei zahlreichen defensiven Systemen – etwa bei der Raketenabwehr – haben Menschen bereits heute nur noch eine unterstützende Funktion. Die Geräte erkennen die Geschoße von allein und fangen diese auch vollautonom ab. Der Geschwindigkeitsvorteil durch die Automatisierung ist selbstverständlich auch attraktiv für offensive militärische Operationen – droht aber das Töten noch ein Stück weiter zu entmenschlichen, als es der Einsatz von Drohnen ohnehin schon tat. Hauptkritikpunkt bleibt vor allem die Unterscheidung von Algorithmen zwischen mutmaßlich legitimen Zielen und Zivilisten – wenngleich Menschen hier auch schon katastrophale Fehler begangen haben. Immerhin könnte theoretisch aber jemand zur Verantwortung gezogen werden.

Die Forscher identifizieren im Bericht vor allem die sogenannten Loitering Weapons als Gefahr, weil bei ihnen nur mehr ein winzig kleiner Schritt zur tatsächlichen Autonomie notwendig ist. Diese "schlummernden" beziehungsweise "herumlungernden" Waffen sind Drohnen, die nach ihrem Start erst einmal für einige Minuten, in Extremfällen aber bis zu zwei Stunden, über einem Einsatzgebiet herumschwirren, ehe sie zuschlagen. Noch trifft ein Mensch die Entscheidung über den Beschuss von Zielen. Dank ausgereifter Gesichtserkennungssoftware und präziser Ortungstechnik könne aber auch dieser Schritt theoretisch recht leicht autonom umgesetzt werden, warnt Pax. (faso, 23.12.2019)