Sam Altman, der CEO von OpenAI, hält einen Vortrag vor Publikum.
OpenAI und ein CEO Sam Altman haben der Entwicklung Künstlicher Intelligenz einen enormen Schub verpasst. Das ruft auch Datenschützer auf den Plan.
GETTY IMAGES NORTH AMERICA/JUSTI

Im Gastbeitrag erklärt Rechtsanwalt Gernot Fritz, worum es im Verfahren gegen OpenAI, das Unternehmen hinter ChatGPT, geht.

Die Künstliche Intelligenz ChatGPT beantwortet scheinbar jede Frage. Wer sich genauer mit dem Tool beschäftigt, dem wird eines aber relativ schnell klar: Die Antworten stimmen oft, aber nicht immer. Und manchmal sind sie auch völlig falsch. Der bekannte Datenschützer Max Schrems sieht darin ein datenschutzrechtliches Problem. Schrems versuchte wohl, Informationen über sein Geburtsdatum in ChatGPT zu generieren, doch das Programm präsentierte ihm mehrfach falsche Informationen. Schrems beschwert sich nun bei der Datenschutzbehörde über OpenAI, das Unternehmen hinter der Künstlichen Intelligenz.

Er macht dabei im Kern zwei Verletzungen gegen die Datenschutzgrundverordnung (DSGVO) geltend. Zum einen habe er ein Recht darauf, dass die falschen Informationen berichtigt werden. Zum anderen habe OpenAI gegen das Recht auf Auskunft verstoßen. Die Argumente des Beschwerdeführers sind kreativ, bergen jedoch auf den ersten Blick einige Schwierigkeiten.

Richtiges Datum, alles gut?

Schrems wünscht, dass keine falschen Geburtsdaten mehr für seine Person generiert werden. Aber selbst wenn er als Nutzer sein richtiges Geburtsdatum angeben würde, könnte das Large Language Model (LLM) dieses nicht einfach für alle künftigen Antworten berücksichtigen. So funktioniert die Technologie nicht. LLMs basieren auf Mustern, die aus vielen Daten gelernt wurden, und nicht auf einzelnen Informationen über bestimmte Personen.

Bei LLMs kann dieselbe Eingabe zudem unterschiedliche Resultate hervorbringen. Deshalb weisen LLMs wie ChatGPT darauf hin, dass der Inhalt möglicherweise fehlerhaft ist und verifiziert werden muss. Dies entspräche einem Menschen, der sagt: "Ich vermute, dass P am Tag X geboren ist." Solche Meinungen und Vermutungen unterliegen jedoch keinem Berichtigungsanspruch nach DGSVO. Die Antworten, die ein LLM produziert, haben also eher den Charakter einer Meinungsäußerung oder einer Vermutung als einer reinen Faktenmitteilung. Ein rechtlicher Anspruch auf die Korrektur des Outputs eines LLM lässt sich nach DSGVO deshalb gar nicht so simpel begründen.

Chancen hätte ein Berichtigungsbegehren möglicherweise dann, wenn das LLM-Modell auf ein falsches Geburtsdatum in seiner Datenbank zugreifen würde, um die Antwort zu generieren. Das scheint aber hier nicht der Fall zu sein – sonst würden nicht unterschiedliche Geburtsdaten erzeugt werden.

Was speichert die KI?

OpenAI soll laut Schrems außerdem das Auskunftsrecht missachtet haben. Es habe nur die Daten zum Nutzerkonto mitgeteilt, nicht aber die Daten, die ChatGPT bei der Nutzung des Systems verarbeitet. Das muss allerdings nicht zwingend ein DSGVO-Verstoß sein.

LLMs erzeugen Antworten, indem sie sich an Mustern orientieren, die sie beim Training gelernt haben. Damit berechnen sie, wie wahrscheinlich ein bestimmtes Wort in der Antwort auf ein anderes Wort folgt. Da LLMs das sehr gut können, scheint es für uns Menschen so, als wäre das System intelligent und würde alle Informationen logisch aus einer Wissensbasis ableiten. Dem ist aber nicht so.

Wenn ein LLM auf eine Anfrage hin dynamisch Daten (also eine Antwort) erzeugt, die unmittelbar nach Beendigung des Chats wieder gelöscht werden, sind im Zeitpunkt der Auskunftsanfrage keine Daten mehr da, die beauskunftet werden könnten.

Die Beschwerde wird jedenfalls juristisches Neuland betreten. Von einem LLM generierte Antworten sind, zumal angesichts der entsprechenden Warnhinweise, nicht mit journalistischen Beiträgen eines Medienunternehmens oder den Treffern einer Suchmaschine zu vergleichen. Es wird spannend, zu sehen, wie OpenAI auf die Argumente von Schrems reagiert und wie die Datenschutzbehörde und die Gerichte das Vorbringen beurteilen werden. Am Ende wird wohl der EuGH gefragt sein, hier für Klarheit zu sorgen – insbesondere ob ein Berichtigungsanspruch auf "dynamisch erzeugte Daten" überhaupt möglich ist. (Gernot Fritz, 25.5.2024)