"Zum Wohle der Menschheit" hätte OpenAIs Chatbot eigentlich eingesetzt werden sollen. Doch dabei sollte es nicht bleiben: Nachdem bereits Sicherheitsforscher vor einem Missbrauch von ChatGPT gewarnt haben, weist nun auch Europol auf die Gefahren hin.

Foto: EPA, Fotograf: WU HAO

In einem Bericht von letztem Montag warnt Europol, dass der Chatbot von OpenAI bereits für kriminelle Zwecke eingesetzt werde. KI-gestützte Sprachmodelle können demnach für Betrug, Cyberkriminalität und sogar Terrorismus genutzt werden. Bereits Ende Februar warnten Sicherheitsforscher vor potenziellem Missbrauch des Chatbots ChatGPT.

Sicherheitsvorkehrungen werden ausgetrickst

Kriminelle würden sich neue Technologien schnell zunutze machen: Bereits wenige Wochen nach der Veröffentlichung von ChatGPT habe es erste Vorfälle gegeben, heißt es in dem Bericht. Zwar wurden bei ChatGPT vorsorglich Sicherheitsvorkehrungen eingeführt, um eine missbräuchliche Verwendung zumindest zu erschweren – doch es dauerte nicht lange, bis Userinnen und User Wege fanden, um die Sperren und Filter zu umgehen. So konnten manche dem Chatbot beispielsweise Anleitungen entlocken, wie man Rohrbomben baut oder sich auch schrittweise Anweisungen für diverse Verbrechen schreiben lassen, berichtet die britische Nachrichtenwebsite "The Register".

ChatGPT: Mittel zum Zweck statt Mittäter

Dabei liegt die Schuld nicht zwingend bei ChatGPT. Die Informationen, die das Tool liefert, sind bereits öffentlich im Internet verfügbar. Das dahinterstehende Sprachmodell dient vielmehr als potentes Recherchetool – und hilft so Kriminellen, in Bereichen tätig zu werden, in denen sie noch keine Erfahrung haben. ChatGPT könne "den Rechercheprozess erheblich beschleunigen, indem es entscheidende Informationen bereitstellt", heißt es seitens Europol. Potenzielle Kriminelle können sich so über eine Vielzahl von Bereichen informieren, angefangen von Einbrüchen und Cybercrime, bis zu Terrorismus und sexualisierter Gewalt gegen Kinder. Europol betont vor allem die Relevanz von ChatGPT für Betrugskriminalität, Phishing-Angriffe aber auch Propaganda und Desinformation.

Cybercrime leicht gemacht

Da ChatGPT auf Anfrage auch – bösartige – Codes generieren kann, können nun auch Personen mit geringen technischen Fähigkeiten Schadsoftware erstellen und verbreiten. "Für einen potenziellen Kriminellen mit wenig technischem Wissen ist dies eine unschätzbare Ressource", heißt es in dem Bericht. Für Fortgeschrittene biete der Chatbot eine Möglichkeit, bewährte Vorgehensweisen zu verfeinern oder sogar zu automatisieren. Auf diese Gefahr hatte bereits einen Monat zuvor Sergey Shykevich, leitender ChatGPT-Forscher beim israelischen Sicherheitsunternehmen Check Point, gegenüber "Business Insider" hingewiesen.

Multimodale Modelle als potenzielle Gefahrenquelle

Mit der zunehmenden Zahl an KI-Modellen und Services würde sich laut Europol die Situation noch weiter verschärfen. Insbesondere multimodale KI-Modelle, bei denen Chatbots mit "synthetischen Medien" kombiniert werden, könnten langfristig zum Problem werden. Mit "synthetischen Medien" sind vor allem Deepfakes – sowohl Bild- aber auch Tonmaterial – gemeint, die missbräuchlich eingesetzt werden könnten. Außerdem könnten auch inoffizielle Versionen von Sprachmodellen – ohne Inhaltsfilter und mit schädlichen Daten – trainiert und im Darknet verbreitet werden.

Datenschutz und die Frage der Strafverfolgung

Abschließend weist Europol auf bestehende Unsicherheiten im Umgang mit Nutzerdaten hin. So ist nicht geklärt, ob Gespräche gespeichert und möglicherweise sensible Informationen an Unbefugte weitergegeben werden. Auch ob Fälle, in denen Nutzerinnen und Nutzer schädliche Inhalte erstellen, an Strafverfolgungsbehörden gemeldet werden sollen, ist derzeit noch nicht geklärt. Angesichts des potenziellen Schadens, der aus dem Missbrauch von LLMs resultieren kann, sei es jedenfalls "von größter Bedeutung, das Bewusstsein für diese Angelegenheit zu schärfen, um sicherzustellen, dass potenzielle Schlupflöcher so schnell wie möglich entdeckt und geschlossen werden", betont Europol in dem Report. (Lisa Haberkorn, 29.3.2023)