85 US-Luftangriffe im Irak und in Syrien wurden mithilfe von Zieldaten geflogen, die von einer KI-Bilderkennung stammten.
APA/AFP/South Korean Defence Min

Es war nur eine Frage der Zeit, bis KI-Technologie in den Kriegsgebieten dieser Welt eingesetzt wird. Nun hat das US-Militär erstmals Einblicke gegeben, wie es künstliche Intelligenz einsetzt. Einem Bericht von "Bloomberg News" zufolge nutzt das Pentagon KI-gestützte Bilderkennung, um Ziele für Luftangriffe zu identifizieren. Diese Technologie soll bei der Durchführung von mehr 85 Luftangriffen im Nahen Osten eingesetzt worden sein.

Dabei handelt es sich um US-Bombenangriffe vom 2. Februar 2024 im Irak und in Syrien – die fraglichen Bombardierungen, die am 2. Februar in verschiedenen Teilen des Irak und Syriens stattfanden. Dabei wurden sieben Einrichtungen von US-Bombern und Kampfflugzeugen zerstört. Darunter Raketen, Drohnen und Operationszentren der Milizen, berichtet "Bloomberg". Sie waren Teil einer organisierten Reaktion der Regierung Biden auf den Drohnenangriff in Jordanien im Jänner, bei dem drei US-Soldaten getötet wurden. Die US-Regierung hat iranische Unterstützer für den Angriff verantwortlich gemacht.

KI-Forschung seit 2017

Schuyler Moore, Chief Technology Officer vom Central Command der US-Streitkräfte berichtet davon, dass "Computervision-Algorithmen" eingesetzt wurde. Dabei dürfte es sich um ein Programm für maschinelles Lernen handeln. Konkret dürfte die Software Zieldaten auswerten und etwa dabei helfen, feindliche Raketenwerfer zu identifizieren. Jedenfalls sei das System im Einsatz gewesen, um zu erkennen, wo sich Bedrohungen befunden hätten, so Moore. Die Offizierin führte weiter aus, dass KI-Systeme auch dabei geholfen hätten, Überwasserschiffe im Roten Meer zu identifizieren, von denen das Zentralkommando (Centcom) nach eigenen Angaben mehrere zerstört habe. Die vom Iran unterstützten Huthi-Milizen im Jemen haben wiederholt Handelsschiffe im Roten Meer mit Raketen angegriffen.

Die Ziele wurden im Rahmen von Project Maven entwickelt. Dabei handelt es sich um eine 2017 gestartete Initiative zur beschleunigten Einführung von KI und maschinellem Lernen im gesamten Verteidigungsministerium. Gleichzeitig soll künstliche Intelligenz die Aufklärung unterstützen, wobei damals noch der Fokus auf den Kampf gegen den "Islamischen Staat" lag. Laut Moore kann das System Ziele anhand von Satellitenbildern und anderen Datenquellen lokalisieren und identifizieren. Mit dem Angriff der Hamas auf Israel am 7. Oktober hätten die US-Streitkräfte Project Maven deutlich beschleunigt und nun "nahtlos" eingesetzt.

KI bleibt (noch) hinter dem Menschen zurück

Das US-Militär fügte eilig hinzu, dass die KI-Fähigkeiten von Maven nur dazu dienen, potenzielle Ziele zu finden. Priorisierung und Verifzierung sowie die Freigabe eines Luftangriffs würden sehr wohl von Menschen durchgeführt.

Außerdem werden die KI-generierten Bilddaten ständig von Menschen überprüft, fügte Moore hinzu. Man nehme die Verantwortung sowie das Risiko eine KI-Fehlers sehr ernst. "Es ist in der Regel ziemlich offensichtlich, wenn etwas nicht stimmt", so Moore. "Es gibt nie einen Algorithmus, der einfach nur arbeitet, zu einem Ergebnis kommt und dann zum nächsten Schritt übergeht", sagte sie. "Jeder Schritt, an dem KI beteiligt ist, wird am Ende von einem Menschen kontrolliert.

Dass Angriffe nicht vollautomatisch erfolgen, dürfte auch ganz praktische Gründe haben: Übungen im Vorjahr mit Zielvorgaben durch eine KI hätten gezeigt, dass solche Systeme bei der Empfehlung der Angriffsreihenfolge oder der Wahl der geeignetsten Waffe häufig hinter dem Menschen zurückbleiben. Oder um es kurz zu machen: Sie sind einfach nicht so weit. (red, 28.2.2024)