Drohnen – im Bild die amerikanische MQ-9 Reaper – können Waffensysteme tragen und zumindest teilautonom im Einsatzgebiet operieren, gegebenenfalls auch töten.

Foto: Reuters / Smith

Mahnt die Politik, neue Waffen einzudämmen: Reisner.

Foto: Conrad Seidl

Wien – Die Landesverteidigung steht vor neuen Herausforderungen: Terrororganisationen verfügen über einfache, aber wirkungsvolle Drohnen, Großmächte entwickeln selbstlernende Systeme, die auf dem Gefechtsfeld autonom agieren können. Für die Soldaten – auch für jene des Bundesheeres, die wie Oberstleutnant Markus Reisner häufig in Auslandseinsätze gehen – gibt es Bedrohungen, über die bisher wenig bekannt ist. Reisner gibt im Gespräch mit dem STANDARD einen Überblick.

STANDARD: Worauf müssen sich Soldaten des Bundesheeres heute einstellen?

Reisner: Die letzten zwei Jahrzehnte waren von sogenannten asymmetrischen Konflikten geprägt, in denen potente Militärmächte von technologisch unterlegenen erfolgreich herausgefordert wurden. Dem wurde wiederum mit Technologie begegnet – auch mit teilautonomen Systemen.

STANDARD: Da geht es um selbstständig agierende Aufklärungssysteme oder sogar um Kampfroboter?

Reisner: Die ganze Bandbreite. Mit der Folge, dass es gezielte Tötungen gibt, die außerhalb des Rechtsrahmens, also außerhalb des humanitären Völkerrechts passieren. Weil es nicht ganz klar ablesbar ist, ob die Zielperson, die hier getötet worden ist, tatsächlich die Zielperson war, um die es gegangen ist. Und ob die Kollateralschäden, also zum Beispiel im Falle von zusätzlichen Menschen, die ums Leben gekommen sind, der Verhältnismäßigkeit entsprochen haben.

Böse Überraschung durch Drohnen

STANDARD: In Serien wie "Homeland" sieht man so etwas und denkt sich: Das können Großmächte. Aber jetzt ist das weiter verbreitet?

Reisner: Genau. Dies war für westliche Militärmächte eine böse Überraschung. Der sogenannte "Islamische Staat" war in der Lage, Minidrohnensysteme einzusetzen, und zwar mit großem Erfolg. Zum Beispiel in der Aufklärung von möglichen Anschlagszielen.

STANDARD: Das sind aber jetzt nicht die Drohnen, die wir im Elektronikfachhandel in Österreich kaufen können?

Reisner: Zum Teil schon. Das sind Drohnen mit Kameras und einer gewissen Transportfähigkeit für behelfsmäßige Sprengladungen.

Auch Bundesheer-Soldaten bedroht

STANDARD: Also ein Gurkenglasl mit einer Handgranate drinnen?

Reisner: Zum Beispiel. Ähnliches wurde eingesetzt. Natürlich konnten diese terroristischen Gruppierungen keine eigene Drohnenproduktion aufbauen, sondern sie haben vorrangig Systeme gekauft, die sie auf dem freien Markt entsprechend abschöpfen konnten, und haben diese mit behelfsmäßigen Sprengmitteln ausgestattet. Für Soldaten ist dies eine neue Herausforderung, weil sie nun auch im Lager kaum mehr geschützt sind, da sie ja jederzeit durch eine Drohne angegriffen werden könnten.

STANDARD: Was bedeutet das für die österreichischen Soldaten in internationalen Einsätzen?

Reisner: Wir haben dieselben Herausforderungen wie Soldaten von potenten Nationen. Auch wir sind gefordert, Systeme zu entwickeln oder zu beschaffen, die den aktuellen Entwicklungen auf dem Gefechtsfeld etwas entgegensetzen können. Das heißt etwa, dass man heimtückische Sprengfallen entschärfen kann. Oder dass Drohnen gekauft werden, damit Soldaten auf Patrouille vorausschauend erkennen, ob sie möglicherweise in einen Hinterhalt fahren.

Autonome Systeme als Herausforderung

STANDARD: Jetzt kommt dazu, dass Systeme entwickelt werden, die selbstständig in Einsätze gehen. Das wird unser Bundesheer in absehbarer Zeit wohl nicht haben – aber möglicherweise ein Feind gegen unsere Truppen einsetzen.

Reisner: Wir sind gefordert, unsere Soldaten so auszubilden, dass sie diese Entwicklungen mitdenken. Wenn das Gegenüber Techniken einsetzt, die sich außerhalb des Völkerrechts befinden, dann müssen wir uns darauf einstellen. Das kostet nicht viel Investition, sondern es kostet uns Gehirnschmalz, um entsprechend darauf vorbereitet zu sein.

STANDARD: Stichwort Völkerrecht: Funktionieren die Haager Landkriegsordnung und die Genfer Konvention angesichts der neuen Technologien überhaupt noch?

Reisner: Das ist eine der zentralen Fragen. Natürlich versucht man in den Einsatzräumen die Prinzipien des humanitären Völkerrechts – etwa Verhältnismäßigkeit und Menschlichkeit – nicht nur leere Worthülsen sein zu lassen. Wir müssen jedoch möglicherweise das Völkerrecht dort nachjustieren, wo es zum Beispiel aufgrund der Schaffung einer künstlichen Intelligenz oder der Schaffung von Lethal Autonomous Weapon Systems möglicherweise zu einer Entwicklung kommt, die wir als Menschheit nicht zulassen wollen.

Öffentliches Bewusstsein fehlt

STANDARD: Das Völkerrecht zu gestalten ist aber keine Aufgabe der Militärs, oder?

Reisner: Interessanterweise ist es aber gerade das Militär, das sehr früh mit den Entwicklungen konfrontiert ist, die in der Politik noch gar kein Thema sind. Und es sind Soldaten, die sagen: Liebe Staatenlenker, überlegt einmal, wo, in welche Richtung wir uns da hinentwickeln. Es wäre jetzt Zeit, darüber nachzudenken in einem öffentlichen Diskurs. Wollen wir diesen Weg so weitergehen oder nicht?

STANDARD: Im Internet greifen einander jetzt schon übungsweise Systeme mehr oder weniger autonom an – und das könnte in die reale Welt überschwappen. Dafür brauchte es Regelungen?

Reisner: Genau. Man kann ja nicht generell sagen, dass autonome Systeme "gut" oder "böse" sind. Zu Lande kann der Einsatz eines Roboters zur Entminung einen sehr positiven Effekt haben. Im Wasser können Roboter nützlich sein zur Kartierung des Unterwassergeländes – sie können aber auch eingesetzt werden, um Unterseekabel anzuzapfen. Und es ist auch verständlich, dass der Cyberraum mittlerweile vom Militär als eigene Domäne der Kriegsführung bezeichnet wird. Als Mensch ist man gerade im Cyberraum der Herausforderung ausgesetzt, nur noch sehr eingeschränkt Entscheidungen treffen zu können. Ein Abwehrsystem muss hier ja in Lichtgeschwindigkeit entscheiden: Was wird angegriffen, wer ist der Angreifer, wie kann man diesen bekämpfen? Die Frage ist jedoch, ob hier eine Kettenreaktion ausgelöst werden könnte. Wo ist das Ende der Abwehrmaßnahmen? Endet es beim Einsatz von Atomraketen?

Automatisch zum Atomkrieg

STANDARD: Autonome Abwehrsysteme würden einen Gegenangriff auslösen?

Reisner: Ja. Aus dem Studium der Fachliteratur lässt sich klar ableiten, dass potente Staaten zumindest einen Gegenschlag einkalkulieren. Beziehungsweise wird das als Drohung in den Raum gestellt, um möglicherweise zu vermeiden, dass der Gegenüber überhaupt nur daran denkt, digitale Bereiche eines Staates anzugreifen.

STANDARD: Zurück zur taktischen Ebene: Wenn Systeme wie Flugzeugträgergruppen oder auch Flughäfen eine Bedrohung zu erkennen vermeinen, müssen sie sehr rasch reagieren – wie viel Entscheidungsmöglichkeit hat der verantwortliche Offizier überhaupt noch, wenn eine mögliche Bedrohung durch ein einfliegendes Objekt erkannt wird?

Reisner: Er ist hoffentlich Kontrollinstanz. Es gibt da durchaus fatale Beispiele in der Vergangenheit: etwa der amerikanische Kreuzer Vincennes im Persischen Golf. Als 1988 vermutet wurde, er würde angegriffen, wurde eine Abwehrmaßnahme gesetzt und im Ergebnis eine iranische Passagiermaschine abgeschossen. Es ist also falsch anzunehmen, dass die Technik in einer angespannten Situation immer die richtige Antwort geben kann. Ich denke, wenn die mächtigen Staaten der Erde übereinkommen, dass es zu einer unkontrollierten Kettenreaktion kommen könnte, dann müssen sie einen Mechanismus einbauen, wie wieder alle zur Räson kommen können. Weil sonst ein Szenario eintritt, das kein Mensch mehr beherrschen kann.

STANDARD: Das Wissen darüber liegt vor allem bei den Militärs, die Handlungsoptionen, das zu regeln, liegt aber bei den Juristen oder bei den Diplomaten?

Reisner: Der Mensch will sich nicht gern bevormunden lassen. Und ich hoffe, dass er sich auch in Zukunft nicht von einer Maschine bevormunden lässt.

Völkerrecht gegen Kampfmaschinen

STANDARD: Was müsste man in Maschinen einprogrammieren, damit sie nicht uns als Menschheit vielleicht auslöschen?

Reisner: Es gibt ja das berühmte Beispiel der Asimov'schen Gesetze, wo also schon damals sehr früh von Isaac Asimov versucht worden ist, einen gewissen Standard als kleinsten gemeinsamen Nenner festzulegen. Das Wesentliche ist, dass es Kontrollinstanzen gibt. Im Gegensatz zu früheren Entwicklungen sehen wir jedoch schon einen ersten Diskussionsansatz in der Öffentlichkeit. Dies gibt ein bisschen Hoffnung, dass man erkennt, was da passiert – im Gegensatz zum Beginn des Atomzeitalters, wo ja vieles verklärt war und man nicht wusste, was die Atombombe eigentlich bedeutet.

STANDARD: Was könnte der Beitrag der Republik Österreich sein?

Reisner: Aufgrund unserer Historie haben wir den großen Vorteil, dass wir sehr ernst genommen werden, wenn wir eine Initiative im Bereich Rüstungskontrolle setzen. Keiner unterstellt uns böse Absichten. Uns glaubt man, dass wir versuchen, die Menschheit ein bisschen besser zu machen, so naiv und abstrakt das möglicherweise klingt. Es gibt verschiedene Ansätze: Es wird versucht, eine Konvention zur Beschränkung von Lethal Weapon Systems zu entwickeln: Dem Einsatz von vollautonomen "intelligenten" Waffensystemen soll Einhalt geboten werden. Ich denke, das österreichische Außenministerium setzt da sehr gute Initiativen.

STANDARD: Aber wir haben auch Hausaufgaben zu erledigen.

Reisner: Wir müssen uns auch unserer eigenen Verantwortung bewusst sein, Österreich ist ein Hochtechnologieland. In Österreich passieren technologische Entwicklungen auf einem hohen Niveau, diese Entwicklungen könnten theoretisch auch missbraucht werden, deshalb sollten wir tunlichst danach trachten, dass uns diese Entwicklungen nicht aufgrund eigener Sorglosigkeit aus den Händen genommen werden. Der Schutz des eigenen Cyberraums ist eine der Aufgaben, die sich daraus ableiten lassen. (Conrad Seidl, 6.2.2019)