Tretminen sind unmenschlich. Darüber besteht weitestgehend ein gesellschaftlicher Konsens. Deshalb ist ihr Einsatz mittlerweile streng verpönt, deshalb haben wir sie als Menschheit auch verboten. Was macht sie neben der rohen Gewalt so besonders unmenschlich? Dass sie von Menschenhand erbaut wurden, letzten Endes aber ohne das direkte Zutun eines Menschen töten, mitunter auch spielende Kinder und arbeitende Bauern. Es lässt die Waffe so besonders brutal wirken. Auch weil niemand in letzter Minute eingreifen kann.

In den vergangenen Jahren wurde die Sorge hinsichtlich des entmenschlichten und automatisierten Tötens wieder stärker, als sich die Angst vor den Killerdrohnen langsam breitmachte. Für manche drängte sich sogar der Vergleich auf, wonach Landminen eine Art Vorstufe dieser modernen autonomen Angriffsdrohnen wären. Schließlich müsste und könnte in ihrer modernsten Ausführung der Mensch nicht länger eingreifen. Der vielbeschworene "human in the loop", der Mensch, der stets die letztgültige Tötungsentscheidung trifft, wird aus ebenjener Schleife herausgenommen. Das macht vielen Menschen Angst. Die Rufe nach einem Verbot von "Killerdrohnen", ähnlich jenem der Landminen, werden laut. Zu Recht?

Die große Frage: wird KI künftig tatsächlich so in Drohnen und andere Geräte integriert, dass das gezielte Töten von Soldaten erleichtert wird, oder werden sich die Einsatzmöglichkeiten tatsächlich eher auf Spionage und logistische Einsätze – wie das im Bild gezeigte Auftanken eines Fighterjets – konzentrieren?
Foto: AFP PHOTO /BOEING/KEVIN FLYNN/HANDOUT

Den Menschen macht aus, dass er Werkzeuge geschickter als alle anderen Lebewesen nutzt. Erfindungen dienen meist dazu, sich anstrengende, eklige oder gefährliche Arbeiten von einer Maschine oder einem Roboter abnehmen zu lassen.

Kurz gesagt: Die Drecksarbeit will keiner machen. Nun gehört das Morden und Töten für die allermeisten Menschen glücklicherweise eben auch nicht gerade zu den angenehmsten Tätigkeiten. Es erscheint deshalb nur logisch, dass der Tötungsakt mit dem Fortschritt der Technik und der Menschheit zusehends entmenschlicht wurde. Auch um die eigene Gefahr zu reduzieren.

Größere Distanz zum Opfer

Zwar morden Menschen auch heute noch auf dieselbe Weise wie beim ältesten bekannten Mord der Weltgeschichte – nein, nicht der biblische Kain-und-Abel-Mord, sondern jener im nordspanischen Höhlensystem Sima de los Huesos, wo laut Ausgrabungen ein Mann vor 430.000 Jahren durch einen doppelten Schlag mit einem Stein auf die Schädeldecke umgebracht wurde. Dennoch vergrößerte sich im Laufe der letzten Jahrhunderte zusehends die Distanz von Täter zu Opfer.

Erst wurde der Speer erfunden, später die Schusswaffe, dann die Bombe aus dem Flugzeug oder die Interkontinentalrakete von der anderen Seite des Ozeans. Seit wenigen Jahren sind die professionellen Tötungskommandos der Heere gar immer öfter reine Joystickpiloten in irgendwelchen Bunkern in weit entfernten Ländern. Das ist für jene, bei denen das Töten zur Job-Description gehört, ebenso praktisch wie für die Verteidigungsministerinnen dieser Welt, die zu Hause weniger eigen Opfer zu beklagen haben. Zumindest sofern man aufseiten der hochentwickelten Staaten der Welt kämpft, die Unsummen für die Landesverteidigung und moderne unbemannte Drohnen ausgeben.

"Dauerbeschuss"

Die Angst vor den "Killerrobotern" ist ein in Science-Fiction-Literatur und Film weitverbreitetes und vor allem wiederkehrendes Element. Nun aber, so schien es, dürfte uns die zusehende Entmenschlichung des Kriegs auch im realen Leben eingeholt zu haben. Anfang Juni machte ein UN-Bericht die mediale Runde, wonach es bereits im Vorjahr bei den Kämpfen um Tripolis zur autonomen Verfolgung libyscher Rebellen durch eine Angriffsdrohne des türkischen Typs Kargu-2 gekommen sein könnte.

Der Expertenbericht blieb diplomatisch vage, sprach von einem "tödlichen autonomen Waffensystem", welches die Kämpfer "verfolgt" habe und das so programmiert sei, dass es "keinerlei aktiver Datenverbindung" zwischen dem Operator und dem Flugobjekt bedürfe. Es gibt keine bestätigten Opfer, der UN-Bericht legt aber nahe, dass es unter den Rebellen welche gegeben haben könnte. Nicht zuletzt hätten die Kämpfer unter "Dauerbeschuss" gestanden.

Die angeblich autonom agierende Drohne.

Dass die Drohne von regimetreuen Truppen eingesetzt wurde, gilt als gesichert, inwieweit sie sich ihre Ziele tatsächlich selbst ausgesucht hat, ist jedoch noch unklar. Klar ist: Auch heute gibt es schon semiautonome Systeme. "Sogenannte Loitering Munitions, Lenkwaffen, die über längere Zeit über einem Ziel herumkreisen, können schon heute autonom Ziele bekämpfen", sagt etwa der Militärexperte Franz-Stefan Gady zum STANDARD. Der große "Gamechanger" sei der libysche Einsatz also auf keinen Fall, "da es seit Jahrzehnten automatisierte Prozesse bei militärischen Systemen gibt, die durchaus ohne menschliche Kontrolle Ziele hätten bekämpfen können", sagt Gady.

Mangels klarer Definitionen über die verschiedenen Grade der Autonomie ist es aber prinzipiell schwierig zu sagen, wie groß die Kluft zwischen dem, was technisch bereits möglich ist, und dem, was praktisch zum Einsatz kommt, tatsächlich ist.

Automatik oder KI?

Die vom türkischen Rüstungshersteller STM entwickelte Waffe wird jedenfalls als "mit rotierenden Blättern" manuell oder autonom einsetzbare Angriffsdrohne beworben. Gady warnt aber vor den marketingwirksamen KI-Versprechungen der Rüstungsindustrie. "Es könnte auch eine simple Automatik, die mit vorprogrammierten Algorithmen arbeitet, im Spiel gewesen sein, die eine einfache Zielerkennung durchführte und dann das Ziel angriff", sagt der Rüstungsexperte. Es sei nicht überall KI drin, wo sie draufsteht!

Das Promo-Video.
STM

Dass die "Killerroboter" nun aber großflächig oder auch nur in begrenztem Maße zum Einsatz kommen, schließt Militärexperte Gady aus. Den Hauptgrund dafür sieht er im inhärenten Vertrauensproblem, nämlich dass sich autonome Waffen (noch) nicht erklären können, warum sie eine bestimmte Handlung gesetzt haben. Das wiederum ist für die internationale Diplomatie unabdingbar.

Diskussionen über ein angebliches KI-Wettrüsten hält der Militärexperte angesichts des jüngsten Einsatzes für nicht angebracht. KI sei eine "Allzwecktechnologie, die erst dann militärisch bedeutsam wird, wenn sie mit anderen Technologien effektiv integriert wird." Man habe schließlich in den 1930ern auch nicht von einem Verbrennungsmotorenwettrüsten gesprochen. Die Kombination aber mache es aus, sprich: Was macht man mit den offensichtlichen Vorteilen der KI? Für Franz-Stefan Gady sind diese nach wie vor eindeutig in der Überwachung und der Aufklärungsarbeit, aber auch in der Logistik zu erkennen, weniger in der gezielten Tötung von feindlichen Soldaten.

Ethisch heikle Fragen

Gady sieht die Chance auf ein Verbot autonomer Waffen gleich null. Gadys Antworten machen klar: Er hält es für eine eindimensionale Lösung eines komplexeren Problems. Viel eher müsse man sich jetzt, wo KI zusehends in Militärs integriert wird, und da seien auch schwierige ethische Fragen zu stellen und beantworten: etwa ob es moralisch noch richtig sei, "Soldaten sterben zu lassen, weil man sich weigert, autonome Systeme gegen einen Gegner einzusetzen, der keine Skrupel hat, selbige zu verwenden". Hier muss der gesellschaftliche Konsens jedenfalls noch gefunden werden. (Fabian Sommavilla, 4.7.2021)