Bild nicht mehr verfügbar.

Detect GPT soll künftig KI-Texte von Chat GPT und ähnlichen Tools leicht entlarven können.

Foto: Getty/Chino

Mit zunehmender Popularität von Chat GPT mehren sich die Probleme, die im Zusammenhang mit der automatischen Erstellung von Texten entstehen. Schüler lassen Hausaufgaben schreiben, Nachrichtenportale nutzen das KI-Tool unbemerkt, und sogar Gutachter können mit fingierten Abstracts wissenschaftlicher Arbeiten getäuscht werden.

Um die missbräuchliche Verwendung von Texten in diesem Zusammenhang eindämmen zu können, haben Forscher der Stanford University unter der Bezeichnung Detect GPT eine neue Methode vorgestellt, die KI-Texte von Large Language Models wie Chat GPT auf Anhieb entlarven soll.

Detect GPT wird für den Einsatz entwickelt, maschinell geschriebene Texte an Universitäten zu bekämpfen. Die Besonderheit der neuen Methode besteht darin, dass die Software für eine Analyse von Texten nicht trainiert werden muss oder große Datensätze zum Vergleichen benötigt. Sie soll KI-Texte aufgrund eines mathematischen Modells auf Anhieb erkennen können.

Mathematisch entlarvbar

Chat GPT wird durch die Eingaben seiner Nutzerinnen und Nutzer prinzipiell laufend trainiert. Das zugrundliegende Large Language Model funktioniert dabei so, dass das KI-Tool aufgrund vorhandener Datensätze die Wahrscheinlichkeiten für aufeinanderfolgende Wörter analysiert und diese bei einer neuen Anfrage dann aufgrund ihrer Häufigkeit zu wahrscheinlichen Inhalten aneinanderreiht.

Die Forscher aus Stanford gehen nun davon aus, dass hinter dieser Funktionsweise ein Modell steht, das sich vom menschlichen Verfassen von Texten mathematisch klar unterscheiden lässt. Konkret soll Detect GPT zwischen einer negativen und einer positiven Krümmung der logarithmischen Wahrscheinlichkeitsfunktion unterscheiden können. In ersterem Fall handelt es sich laut Wissenschaftern typischerweise um einen maschinell erstellten Text, in letzterem um einen von Menschen erstellten.

Noch ist der Einsatz von Detect GPT nicht offiziell demonstriert worden, das Tool soll bisher aber schon mit einer Reihe von Fake News erfolgreich getestet worden sein. Ein Mitglied des Teams hat auf seiner Website allerdings angekündigt, dass eine Demo sowie Daten zum Projekt in Kürze veröffentlicht werden sollen. (bbr, 31.1.2023)