Palantir will künstliche Intelligenz fit für den Kriegseinsatz machen.

Foto: Reuters / Arnd Wiegmann

Es war nur eine Frage der Zeit, bis der Hype um generative KI die Rüstungsindustrie erreicht – und jemand auf die Idee kommt, ein System für den Kriegseinsatz zu präsentieren. Ende April war es dann so weit. Die Softwarefirma Palantir des US-Milliardärs Peter Thiel veröffentlichte ein Werbevideo für ihre neue Artificial Intelligence Platform (AIP). Diese soll bei der militärischen Überwachung helfen, eine Aufklärungsdrohne steuern und sogar verschiedene Angriffspläne erstellen können. Hauptaufgabe der Person hinter dem Computer wäre damit, das passende Stichwort parat zu halten und Entscheidungen freizugeben.

Das Interesse an dieser Kriegs-KI scheint groß zu sein, berichtet "Fortune". Eigenen Aussagen zufolge verzeichnet Palantir eine "beispiellose" Nachfrage, ausgewählte Kunden sollen noch in diesem Monat Zugriff auf eine erste Version der AIP erhalten. "Wenn Sie diese Technologien richtig und sicher einsetzen, haben Sie eine Waffe, mit der Sie gewinnen können und die Ihren Konkurrenten und Gegnern Angst macht", zitieren die Berichterstatter den Palantir-CEO Alex Karp zum Thema. In seinen 20 Jahren bei Palantir habe er noch nie eine so große Nachfrage gesehen, wie bei der AIP: "Wir reorganisieren unsere Bemühungen aggressiv, um daraus Kapital zu schlagen."

Gefahren generativer KI

Wie viel das KI-Tool kosten soll, ist derzeit noch unklar. Zu Palantirs Kunden zählen allerdings mitunter das US-amerikanische Militär, die Polizei und unterschiedliche US-Nachrichtendienste, die für neue Werkzeuge potenziell tief in die Tasche greifen. Offen ist derzeit außerdem, welche Firmen oder staatlichen Behörden Interesse an der neuen Technologie angemeldet haben.

Die Präsentation der AIP wird aber nicht nur von Jubel begleitet. Ruft man sich ins Gedächtnis, mit welchen Problemen generative Text-KIs zu kämpfen haben, stellen sich Fragen der Zuverlässigkeit. Die Beispiele Bard, ChatGPT und Bing zeigen sehr deutlich, dass die Technologien zum Halluzinieren neigen, also Sachverhalte erfinden und als Wahrheit präsentieren. Im Kontext eines Krieges ist kein Platz für solche Probleme, da im schlimmsten Fall Menschenleben von den Ergebnissen der KI abhängen. Es wird zwar weiterhin ein Mensch für die Entscheidungen verantwortlich sein, dieser Rückt aber immer weiter in den Hintergrund. (red, 15.5.2023)