Das Wappen soll das Ziel des Ministeriums, Amerikaner in der Luft, auf dem Wasser und auf dem Boden zu verteidigen, unterstreichen.
AP/Pablo Martinez Monsivais

Vergangenen Oktober veränderten sich die Regeln für künstliche Intelligenzen (KI) in Amerika. Der US-amerikanische Präsident Joe Biden hatte einen Präsidialerlass verlautbart, in dem er sich dem Kampf gegen Deepfakes verschrieb und KI-Unternehmen aufforderte, mögliche Risiken mit dem amerikanischen Staat zu kommunizieren. Dennoch scheinen die technischen Neuerungen von KI auch in der amerikanischen Regierung angekommen zu sein. Das Innenministerium (Department for Homeland Security, DHS) ist das erste Ministerium, das generative künstliche Intelligenz aktiv in seiner Arbeit benutzen will.

Untersuchungen hinsichtlich Kindesmissbrauchs, Menschen- und Drogenhandels sollen in Zukunft in einem Pilotprojekt mit KI-Modellen der Firmen OpenAI, Anthropic und Meta unterstützt werden, damit bleiben sie nicht die einzigen KI-Vorhaben der Aufsichtsbehörde. Die Mitarbeiter der eingegliederten Einwanderungsbehörde "US Citizenship and Immigration Services" werden ab sofort mithilfe eines Chatbots trainiert. Die USCIS ist zuständig für die Screening-Gespräche von Asylwerbern und ist eine der ersten Anlaufstellen für Flüchtlinge in Amerika. Das für diese Projekte nötige technische Know-how soll hierbei von einem eigens erstellten Team von KI-Experten bereitgestellt werden.

KI ist keine Neuheit für DHS

Das US-amerikanische Heimatschutzministerium wurde als Reaktion auf die Terrorattacke vom 11. September 2001 gegründet und zählt mit 250.000 Mitarbeitern zu den zahlenmäßig größten Ministerien der Vereinigten Staaten. Seit seiner Gründung betrifft der Aufgabenbereich des Ministeriums den Grenzschutz, Drogen- und Menschenhandel und die Verteidigung der kritischen Infrastruktur gegen Terrorismus. Um diese Bandbreite an Aufgaben zu bewältigen, hat sich das Ministerium schon öfter neuester Gadgets im Technikbereich bedient.

So funktioniert zum Beispiel auch der Schutz des mexikanischen Grenzübergangs nur unter der Verwendung künstlicher Intelligenz. Automatisierte Wachtürme der Firma Anduril filmen ihre Umgebung ohne Pause. Sehen sie Bewegung, wird das Bild von einem KI-gestützten Analysesystem durchleuchtet und auf sogenannte Objekte von Interesse geprüft. Gleichzeitig wird eine Benachrichtigung an die nächstgelegene Grenzpatrouille geschickt, um den Vorfall auch von einem Menschen prüfen zu lassen.

Neue Anwendungsbereiche

Auch die Ermittlungen über verschiedene illegale Tätigkeitsbereiche werden zukünftig in einem Pilotprojekt mit einem Large Language Model (LLM) in der Recherche unterstützt. Die KI soll die weitläufigen Datensätze und Fallakten der "Immigrations and Customs Enforcement"-Behörde durchsuchen und zusammenfassen. Laut DHS könnten Verdächtige in einem Suchtgift- oder Menschenhandelfall dann schneller und gründlicher ausgeforscht werden. Besonders auf die Aufdeckung von "Fentanyl-Netzwerken" und auf die "Identifikation von Tätern bei Kindesmissbrauch" soll das Hauptaugenmerk gerichtet werden, so das Ministerium in seiner Presseaussendung.

Abseits von den kriminalistischen Anwendungsbereichen sollen generative KIs auch in der Stadtplanung Anwendung finden. Die "Federal Emergency Management Agency", zu Deutsch die Bundesagentur für Katastrophenschutz, will in einem Pilotprojekt die Risikoanalyse vereinheitlichen. In Zukunft soll die Planung infrastruktureller Vorhaben mit einer generativen KI unterstützt werden, die sich den Bedürfnissen der jeweiligen Gemeinde anpasst.

Dass diese hochgesteckten Ziele nicht unbedingt einfach zu erreichen sind, wissen auch die Entscheidungsträger des DHS. Gerade deshalb suchen sie die Zusammenarbeit mit der Tech-Branche, um nicht von den veränderten Verhältnissen überrumpelt zu werden. "Die beispiellose Geschwindigkeit und das Potenzial der KI-Entwicklung und Einführung bieten sowohl enorme Möglichkeiten, unsere Mission voranzubringen, als auch Risiken, die wir eindämmen müssen", sagte Innenminister Alejandro Mayorkas. Wie das Ministerium die Fehleranfälligkeit der derzeitigen Generation künstlicher Intelligenzen eliminieren will, wurde noch nicht weiter erläutert. (gld, 19.3.2024)