Recht ChatGPT
Der Richter hat für Anfang Juni eine Anhörung angeordnet.
Reuters / Andrew Kelly

Large Language Models (LLMs) wie ChatGPT sind keine Suchmaschinen, sondern Textbots. Und das bedeutet, dass sie manchmal Antworten geben, die zwar überzeugend formuliert, aber inhaltlich falsch sind. Dieser Fehler wird gemeinhin als "Halluzinieren" bezeichnet. Und was schon so manchem Schüler eine schlechtere Bewertung auf die eigenen Hausübungen einbrachte, das fiel nun auch einem Anwalt auf den Kopf, der im Auftrag seines Mandanten eine Airline verklagte, wie unter anderem die New York Times berichtet.

Überzeugende Falschinformationen

Der Anwalt Steven A. Schwartz von der Kanzlei Levidow, Levidow & Oberman hatte ChatGPT gebeten, entsprechende Präzedenzfälle zu finden und bekam rasch eine entsprechende Auflistung, die überzeugend klang. Inhaltlich überprüft hatte der Jurist die Angaben des Bots nicht, ihn aber laut Eigenangabe sehr wohl gefragt, ob die Antwort wirklich korrekt sei – eine Frage, die von ChatGPT bejaht wurde. Überzeugend wirkten die Fälle auch, weil ChatGPT auch Details wie Namen von Gerichten und den an den Klagen beteiligten Parteien sowie diverse Paragraphen nannte.

In der Natur der Sache liegt es, dass die Gegenseite solche Angaben prüft. Und diese stellte fest, dass die Fälle auf den ersten Blick zwar wirklich plausibel wirkten, jedoch nicht existierten. Die Anwälte wurden somit skeptisch und konfrontierten Schwartz damit, woraufhin dieser eingestand, er habe sich von ChatGPT "unterstützen lassen". 

Der Richter versteht in dieser Hinsicht Spaß, bezeichnete das Vorgehen als "beispiellosen Umstand" und hat für den 8. Juni eine Anhörung angekündigt. (red, 29.5.2023)