ChatGPT wird auch für bösartige Zwecke missbraucht.

Foto: Reuters / Dado Ruvic

Seit Monaten hat der Hype um ChatGPT die ganze Welt erfasst. Manche probieren den kostenlos nutzbaren Chatbot anhand von harmlosen Konversationen aus, andere lassen ihn Schul- oder Universitätsaufgaben lösen – was ganz neue Herausforderungen für den Bildungsbereich ans Tageslicht fördert. Microsoft hat den OpenAI-Dienst mittlerweile in seine Suchmaschine Bing integriert, was Google unter Zugzwang brachte. Der Internetriese zog mit dem Konkurrenten Bard nach, um nicht ins Hintertreffen zu geraten.

Das Interesse an ChatGPT ist aber nicht nur unter Lernenden und Hobbyisten groß. Auch Cyberkriminelle machen sich die Ressourcen des KI-Tools zunutze, erklärt Sergey Shykevich, leitender ChatGPT-Forscher beim israelischen Sicherheitsunternehmen Check Point, gegenüber "Business Insider". Laut ihm nutzen Cyberkriminelle den Chatbot dafür, Schadcode zu schreiben – der dann für Erpressungsangriffe genutzt werden kann.

Codeerstellung mittels Chatbots

Wie groß die Fähigkeiten des KI-Tools sind, hat das Unternehmen schon in einem Blogbeitrag Ende 2022 ausgeführt. Demnach kann der Chatbot einen "kompletten Infektionsablauf" durchführen, von der Erstellung überzeugender Phishing-Mails bis hin zum Schreiben von Codezeilen. Laut Check Point erhöht das das Risiko von Angriffen, da "die Hürde für die Codegenerierung gesenkt" und Cyberangriffe auch für weniger qualifizierte Akteure ermöglicht werden.

Diese Sorge scheint sich nun bewahrheitet zu haben. "Die von Check Point Research durchgeführte Analyse mehrerer großer Untergrund-Hacking-Communitys zeigt, dass es bereits erste Fälle gibt, in denen Cyberkriminelle OpenAI zur Entwicklung bösartiger Tools nutzen", heißt es in einem aktuellen Blogbeitrag. Viele dieser Akteure verfügten tatsächlich über keine Programmierkenntnisse.

Beispiel: Ransomware

Als Beispiel nennen die Sicherheitsforscher einen Beitrag in einem Hacking-Forum, in dem diskutiert wurde, welche Vorteile ChatGPT für Schadsoftware bringt. Der Autor versuchte eigenen Aussagen nach, Malware-Techniken nachzubilden, "die in Forschungsveröffentlichungen und Berichten über gängige Malware beschrieben wurden". Unter anderem habe er mit einem Stealer experimentiert, "der nach gängigen Dateitypen sucht" und sie auf einen Server hochlädt. Untersuchungen von Check Point ergaben, dass es sich dabei tatsächlich um entsprechenden Code handelte, der unter anderem nach Office-Dokumenten, PDFs und Bildern sucht.

Ein weiterer Beitragsersteller führt aus, wie er ein Verschlüsselungstool erstellt hat – und dass es sich dabei um das erste Script handelt, das er jemals erstellt hat. Bei der Fertigstellung habe ihm ChatGPT eine "nette [helfende] Hand" gereicht. Auch in diesem Fall konnte Check Point bestätigen, dass es sich um echten Code handelt.

Illegaler Handel dank KI

Die potenziellen Anwendungsbereiche gehen aber deutlich weiter. Die Forscher fanden einen Beitrag eines Nutzers, der einen Darknet-Marktplatz hat erstellen lassen. Dieser könne dafür genutzt werden, den Handel mit illegalen Gütern wie gestohlenen Accounts, Kreditkarten, Schadsoftware oder Drogen zu automatisieren. "Um zu veranschaulichen, wie ChatGPT für diese Zwecke genutzt werden kann, veröffentlichte der Cyberkriminelle einen Code, der die API eines Drittanbieters nutzt, um aktuelle Preise für Kryptowährungen als Teil des Zahlungssystems des Darkweb-Marktes zu erhalten", heißt es im Blogbeitrag von Check Point.

Wie stark die Nutzung des KI-Tools für schädliche Zwecke tatsächlich anwachsen wird, bleibt abzuwarten. Die Frage ist auch, ob OpenAI versuchen wird, etwaige Schutzmaßnahmen zu implementieren, damit der Chatbot Anfragen nach Schadsoftware nicht mehr beantwortet. Microsoft musste Bing bereits einen Maulkorb verpassen, weil der Chatbot häufig eingeschnappt reagierte, User beleidigte und auf falschen Auskünften beharrte. (mick, 27.2.2023)