Eine Person sieht sich zwei Texte an, in jeder Hand hält sie ein Blatt Papier mit Text. 
Ist der Text selbstgeschrieben, oder doch aus der Feder der KI? Schwierig für Menschen zu erkennen, beinahe unmöglich für die KI selbst. Im Bild: Jenes Ochoa Rojas liest ChatGPT-Texte für ein Theaterstück.
AP/Timothy D. Easley

Noch vor wenigen Jahren machte sich wohl kaum jemand darüber Gedanken, doch mittlerweile ist es vielleicht der heimliche Traum vieler Lehrpersonen und Eltern: mit Sicherheit herauszufinden, ob die Hausaufgabe selbst geschrieben oder doch das KI-Programm ChatGPT bemüht wurde. Die Ernüchterung kommt nun offiziell. In einem Blogpost, speziell angelegt für Bildungspersonal, gibt OpenAI zu: KI-Textdetektoren funktionieren nicht, auch wenn sie mittlerweile häufig eingesetzt werden, um Schülerinnen und Schüler ihrer Schummelmethoden zu überführen.

Expertinnen und Experten waren schon länger der Ansicht, dass die meisten Tools, die angaben, KI-generierte Texte zu erkennen, Humbug seien. Auch OpenAI selbst hatte bereits solch ein Tool angeboten, ließ es aber mit Juli 2023 auslaufen. Man hatte wohl selbst erkannt, dass es mit einigen wenigen Änderungen in der Formulierung jederzeit überlistet werden kann.

ChatGPT kennt eigene Texte nicht

Auf einer Frage-Antwort-Seite zum Thema wird auch klargestellt: "ChatGPT weiß nicht, welche Inhalte KI-generiert sein könnten oder was es generiert hat." Das KI-Unternehmen gibt dabei auch zu: Es erfindet manchmal Antworten auf Fragen zum Ursprung von Texten wie "Hast du diesen Text geschrieben?" oder "Könnte dies von einer KI geschrieben worden sein?". Darauffolgende Antworten seien willkürlich und würden auf keiner konkreten Grundlage basieren.

Auch wenn ChatGPT Informationen sehr überzeugend darstellen kann – es kommt immer wieder zu falschen oder irreführenden Informationen. Diese Äußerungen nennt man "Halluzinationen". Da das Programm letztlich Berechnungen anstellt, mit welcher Wahrscheinlichkeit ein Wort oder ein Halbsatz auf den nächsten folgt, kann es dabei sogar Zitate oder Quellen erfinden. Es wird schnell klar: Als Recherchequelle sind ChatGPT und ähnliche Tools weiterhin ungeeignet.

Automatisierte Tools, die angeblich KI-Texte erkennen können, sind nicht verlässlich. Viele Texte werden als KI-generiert "erkannt", selbst wenn sie von Menschen geschrieben wurden. Tatsächlich ist es für Eltern, aber auch Lehrerinnen und Lehrer zielführender, den Ursprung des Texts selbst kritisch zu betrachten und sich zu fragen: Könnte dieser Text von einem Kind geschrieben worden sein? Hat sich der Schreibstil der Schülerin plötzlich verändert? Mit dieser Methode ist man jedenfalls besser als die KI. (Sebastian Lang, 12.9.2023)