Kambodscha und China demonstrierten bei ihrer bisher größten gemeinsamen Militärübung Golden Dragon einen vierbeinigen Kampfroboter, der mit einem Maschinengewehr auf dem Rücken ausgestattet ist.
AFP/TANG CHHIN SOTHY

Es kam, wie es eigentlich kommen musste: Mehr als 20 Jahre nach der Vorstellung von Big Dog, einem vergleichsweise harmlosen Projekt von Boston Dynamics und der Darpa, bewegt sich die Menschheit auf ein Szenario zu, in dem Roboterhunde zumindest teilweise kritische Rollen in Kampfeinsätzen übernehmen werden. Nicht nur die USA können auf diesem Gebiet mit fortschrittlicher Technologie aufwarten. Auch die chinesische Armee hat vor kurzem ihre Roboterhunde von der Leine gelassen, die mit Maschinengewehren ausgestattet sind, und testet sie ausführlich in verschiedenen militärischen Szenarien.

Keine Zukunftsmusik mehr

Die präsentierte Initiative ist nicht bloß als vorsichtiger Testballon zu betrachten. Laut Wired sind diese Tests Teil eines größeren Bestrebens, Roboterhunde fest im Arsenal der Armee zu verankern. Die Hunde wurden zuletzt in gemeinsamen Militärübungen mit Kambodscha eingesetzt, wo urbane Kampfsituationen nachgestellt worden sind. Dabei zeigten die Hunde ein Einsatzspektrum, das von einfachen Erkundungen bis hin zu gezielten Eliminierungen reichte. Solche Demonstrationen veranschaulichen die zunehmende Fähigkeit dieser Technologien, zumindest in der Öffentlichkeit, kurz vor der Verwendung in echten Kampfszenarien zu stehen.

Robot Dog Highlighted at China-Cambodia Joint Military Exercise.
CCTV Video News Agency

Auf der anderen Seite des Pazifiks sammelt das US-Militär seit Jahrzehnten schon Erfahrungen mit ähnlichen Entwicklungen. Das Pentagon hat in den letzten Jahren mit verschiedenen Waffen auf diesen (optisch hundeähnlichen) Plattformen experimentiert, darunter mit älteren Modellen wie dem M4A1 und neueren wie dem XM7.

Offiziell sind diese Experimente Teil eines breiteren Programms zur Erkundung der möglichen militärischen Anwendungen von Robotern, die an vorderster Front eingesetzt werden könnten. Tatsächlich ist bekannt, dass wenigstens das United States Marine Corps Forces Special Operations Command (Marsoc) solche Bodendrohnen bereits verwendet.

Die Logik hinter den Roboterhunden ist klar: Sie sollen die Risiken für menschliche Soldaten minimieren und gleichzeitig die Effizienz und Wirksamkeit militärischer Operationen steigern. Diese Roboter können in gefährliche Gebiete vordringen, um Aufklärungsdaten zu sammeln – aber auch, um als erste Angriffslinie zu dienen.

Widerstand ist zwecklos

Trotz offensichtlicher technologischer Fortschritte werfen insbesondere die bewaffneten Roboterhunde wichtige ethische Fragen auf. Die Idee, autonome oder semiautonome Waffensysteme einzusetzen, die eigenständig Ziele identifizieren und angreifen können, stößt auf erheblichen Widerstand und Besorgnis in der internationalen Gemeinschaft. Der Gedanke, dass Maschinen nicht die Entscheidung über Leben und Tod übernehmen sollten, war Ende April auch Thema einer Konferenz in Wien.

Chinesische Soldaten beim Testen der Roboterhunde, bevor sie an der Militärübung Golden Dragon teilnehmen.
AP/Heng Sinith

Unter dem Titel "Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation" forderten die Teilnehmer ein internationales Regelwerk für den Einsatz von KI-gesteuerten Waffensystemen. Sie betonten die Notwendigkeit menschlicher Kontrolle bei der Anwendung von Gewalt und verwiesen darauf, dass es ihre Verantwortung sei, Schutzmaßnahmen für die Menschheit zu entwickeln. Diese Forderungen sollen in einer Abschlusserklärung an den Uno-Generalsekretär herangetragen werden. Die Teilnehmer verglichen die Situation mit dem entscheidenden Moment in der Karriere des Atomphysikers Robert Oppenheimer und warnten vor den Gefahren wissenschaftlicher Durchbrüche, die durch geopolitische Spannungen entstehen könnten.

Österreichs Außenminister Alexander Schallenberg (ÖVP) betonte im Rahmen der Konferenz die Dringlichkeit, die Entwicklung dieser Technologien bereits in einer frühen Phase zu regulieren, um auf die schnellen technologischen Fortschritte zu reagieren. Er wies auf ein begrenztes Zeitfenster für regulatorische Maßnahmen hin und mahnte, die Gelegenheit nicht ungenutzt verstreichen zu lassen. Die Konferenz zog über 900 Teilnehmer aus 142 Ländern an.

Auch führende Robotikunternehmen, darunter übrigens Pionier Boston Dynamics, haben unabhängig davon Erklärungen abgegeben, dass sie ihre Technologien nicht für offensive militärische Anwendungen lizenzieren würden. Diese Selbstregulierungsversuche unterstreichen die Spannung zwischen dem militärischen Potenzial dieser Technologien und dem Bestreben, das öffentliche Vertrauen in die Robotik nicht zu untergraben.

Auf der anderen Seite dürfte es zwei der größten Streitmächte der Welt kaum davon abhalten, auf diesem Gebiet weiterhin zu "zündeln". Zu groß ist die Versuchung, bessere Waffen zu entwickeln als andere Staaten – und zu gering der Stellenwert des Gelernten aus der Vergangenheit, welche Katastrophe man mit "innovativen" Waffentechnologien anrichten kann. Dafür gibt es auch etliche jüngere Beispiele in der Zeitgeschichte, um mit hochproblematischen Drohnenangriffen der USA im Nahen Osten oder fragwürdigen US-Experimenten in der Ukraine nur zwei Beispiele zu nennen. (bbr, 17.6.2024)