OpenAI, das Unternehmen hinter dem Sprachmodell ChatGPT, sieht sich seiner wohl ersten Verleumdungsklage ausgesetzt. Kläger ist Mark Walters, ein Radiomoderator aus dem US-Bundesstaat Georgia. Er fordert Schadenersatz in bislang noch nicht definierter Höhe, schreibt The Verge.

Vorausgegangen war dem die Recherche des Journalisten Fred Riehl. Dieser hatte laut den Unterlagen ChatGPT angewiesen, einen Gerichtsprozess zusammenzufassen, und dabei zu einer PDF-Datei verlinkt. Das Sprachmodell lieferte daraufhin eine glaubwürdig wirkende Übersicht, die an einigen Stellen korrekte Informationen enthielt, aber auch einige Falschangaben.

Falsche Behauptungen

Unter anderem stand darin, dass Walters als Finanzchef Geld der Waffenrechts-NGO "Second Amendment Foundation" in Höhe von über fünf Millionen Dollar veruntreut habe. Eine solche Anschuldigung gab es gegen ihn aber nie, er war auch nie im Vorstand der Organisation und ist auch nicht in den Prozess involviert. Riehl veröffentlichte diese Angabe nicht, sondern kontaktierte eine "dritte Partei", um sie zu überprüfen. Es bleibt unklar, wie Walters überhaupt von der ChatGPT-Falschangabe erfahren hat.

Ein Roboter-Anwalt hält sein Plädoyer. Dieses Symbolbild wurde mit der Bilder-KI Midjourney generiert.
DER STANDARD/Pichler/Midjourney

Rechtlich ist die Frage spannend, weil sie die umstrittene Section 230 berühren könnte, die Plattformanbieter von der Verantwortung für die Inhalte ihrer User entbindet. Ob dies auch gilt, wenn ein Inhalt von der eigenen KI im Auftrag eines Nutzers generiert wird, wäre auszujudizieren.

Experte sieht wenig Aussicht auf Erfolg

Der Rechtsprofessor Eugene Volokh, der sich schon länger mit KI-Themen auseinandersetzt, sieht allerdings nur geringe Chancen, dass Walters Klage erfolgreich sein wird. Als Gründe nennt er in einem Blogeintrag, dass die von ChatGPT erzeugte Falschinformation nicht öffentlich verbreitet wurde und Walters außerdem nicht versucht hat, OpenAI zu kontaktieren, um der Firma die Gelegenheit zu geben, den Fehler zu bereinigen.

Hinzu kommt, dass die Entwickler von Sprachmodellen deutlich darauf hinweisen, dass ihre Systeme mitunter faktisch falsche Angaben machen können. Die Erzeugung von inkorrekten bzw. frei erfundenen Angaben nennt man in dem Kontext auch "Halluzinieren".

Zudem ist die ChatGPT-Implementation auf der OpenAI-Seite nicht in der Lage, externe PDF-Dateien auszuwerten. Riehl dürfte ein Plug-in genutzt haben, das den Zugriff auf die Datei ermöglicht hat. Denn der Gerichtsakt datiert aus dem vergangenen Mai, während der Bestand der ChatGPT-Lerndaten größtenteils nur bis Ende 2021 reicht. (gpi, 13.6.2023)