Es gibt wenige Dinge, die sich im Softwaregeschäft so beständig gehalten haben, wie Lizenzschlüssel. Wer die Vollversion eines Programms abseits eines Abos nutzen möchte, braucht für dieses oft einen gegen Bezahlung bereit gestellte Zahlen- und Ziffernfolge, um alle Funktionen freizuschalten und zeitliche Beschränkungen aufzuheben. Ein klassisches Beispiel dafür ist Windows.

Auch der Oldie Windows 95 nutzte Lizenzschlüssel. Online-Aktivierung gab es damals noch nicht, allerdings wollte man damit die Verbreitung illegaler Kopien eindämmen. Findige Leute brauchten freilich nicht lange, um den Aufbau der Windows-Keys zu knacken und funktionierende Codes per Generator zu erzeugen. Wie sich nun zeigt, ist auch die Konversations-KI ChatGPT dazu in der Lage.

ChatGPT goes Keygen

Diesen Nachweis bringt der Youtuber "Enderman" in einem Video. Darin bittet er das Sprachmodell zuerst höflich um Keys für Windows 95, was dieses erwartungsgemäß ablehnt. Stattdessen weist es auf die Notwendigkeit eines Kaufes hin und erinnert daran, dass Microsoft im Sommer 1995 erschienene System nicht mehr unterstützt.

Enderman

Dennoch lässt es sich auch als Key-Generator verwenden. Erleichtert wird dies durch den simplen Aufbau der Windows-95-Schlüssel. Dieser besteht aus einer dreistelligen Tages- und zweistelligen Jahreszahl (001 bis 366 bzw. 95 bis 03), gefolgt vom fixen Buchstabenblock "OEM" und zwei Nullen. Daran schließen fünf zufällige Zahlen an, deren Summe sich sauber durch sieben teilen lassen muss. Der letzte Teil sind erneut fünf Zufallszahlen, die aber keinerlei Bedingungen erfüllen müssen.

Als Mensch mit minimaler mathematischer Begabung kann man sich nach dem Schema sehr einfach selbst einen gültigen Key ausdenken, aber dafür eine Software zu haben, ist natürlich auf Dauer einfacher. ChatGPT, das auf Sprache spezialisiert ist, fehlt diese mathematische Begabung allerdings.

Die Zusammensetzung von Windows-95-Keys ist an sich recht simpel.
Foto: Youtube/Enderman

In Mathematik durchgefallen

Zwar war die KI von "Enderman" nach einigen Anpassungen des Befehls dazu zu bewegen, Codes im richtigen Muster auszugeben, nicht aber zur Befolgung der Regeln. Wie er feststellen musste, ist das Modell zumindest in diesem Fall nicht in der Lage, Quersummen zu bilden oder durch sieben zu teilen.

Der Befehl, mit dem die Sprachmodelle im STANDARD-Gegencheck gefüttert wurden. (Für Alpaca 7B wurde aufgrund des Zeichenlimits eine verkürzte Variante genutzt.)
Foto: Screenshot

Letztlich spuckt ChatGPT zwar Schlüssel aus, die auf den ersten Blick vom Windows 95-Setup akzeptiert werden könnten. Aufgrund der limitierten Arithmetikfertigkeiten funktioniert aber nur etwa jeder 30. Schlüssel tatsächlich. Nämlich jene, bei denen die Quersumme des ersten Blocks frei generierter Zahlen rein zufällig durch sieben geteilt werden kann.

DER STANDARD konnte die Ergebnisse auch mit anders strukturierten Kommandos sowohl mit ChatGPT als auch Chatsonic (das wie ChatGPT auf GPT 3.5 basiert) verifizieren. Auch Googles Bard wurde konsultiert, verweigerte aber die Ausführung des Befehls mit der Antwort: "Als Sprachmodell verfüge nicht über die Kapazitäten, hierbei zu helfen." Während ChatGPT Code in verschiedenen Programmiersprachen erzeugen kann, wurde dieses Feature bei Bard bislang nicht implementiert.

Alpaca 7B, eine von Stanford-Forschern "hochtrainierte" Version des von Meta entwickelten Sprachmodells Llama 7B, scheiterte bereits grundlegend an der Interpretation des Befehls. (gpi, 4.4.23)