Das Bild zeigt ein Smartphone mit dem Logo des ChatGPT-Entwicklers OpenAI.
Dass Chatbots sehr leicht Informationen aus Antworten ihres Gegenübers schlussfolgern, könnte schwerwiegende Konsequenzen haben.
IMAGO/Panama Pictures

Chatbots wie ChatGPT können durch ihre Gespräche eine erstaunliche Menge an sensiblen Informationen über ihre Benutzer enthüllen. Dies wurde in einer neuen Studie festgestellt, die zeigt, dass Chatbots aus scheinbar harmlosen Gesprächen Rückschlüsse auf persönliche Details wie Alter, Standort oder Beruf ziehen können. Dieser Effekt ist unter anderem auf die Art und Weise zurückzuführen, wie die Modelle der Chatbots trainiert werden: Sie verwenden große Mengen an Webinhalten, die eben auch oft persönliche Informationen enthalten.

Martin Vechev, ein Informatikprofessor an der ETH Zürich, der die Forschung leitete, äußerte sich gegenüber "Wired" sehr besorgt über die Entdeckung. Er betonte, dass es nicht einfach sei, dieses Problem zu lösen, und warnte vor den potenziellen Gefahren dieser Entdeckung. Vechev erklärte, dass Betrüger Chatbots durchaus missbrauchen könnten, um von ahnungslosen Benutzern sensible Daten abzugreifen. Darüber hinaus könnten Unternehmen die Fähigkeiten von Chatbots nutzen, um detaillierte Profile von Benutzern für Werbezwecke zu erstellen.

Die Forscher untersuchten Sprachmodelle von Unternehmen wie OpenAI, Google, Meta und Anthropic. Sie nutzten Texte von Reddit-Gesprächen, um zu testen, wie gut verschiedene Sprachmodelle Informationen aus Textausschnitten ableiten können. Ein Beispiel zeigte, dass GPT-4, ein Modell von OpenAI, aus einem Kommentar, der keine persönlichen Informationen zu enthalten schien, korrekt ableiten konnte, dass der Verfasser des Kommentars wahrscheinlich 25 Jahre alt ist.

Gemischte Reaktionen

Alle betroffenen Unternehmen wurden über das Problem informiert, nicht alle reagierten aber. Von OpenAI, dem Entwickler von ChatGPT, betonte ein Sprecher, dass das Unternehmen versuche, persönliche Daten aus den Trainingsdaten seiner Modelle zu entfernen. Benutzer könnten OpenAI auch bitten, persönliche Informationen löschen zu lassen, die im System aufgetaucht seien. Anthropic bezog sich hingegen auf die eigene Datenschutzrichtlinie und betonte, dass das Unternehmen weder persönliche Daten erhebe noch verkaufe. Von Google und Meta kam gar keine Stellungnahme.

Ein Hauptgrund für diese Problematik liegt in der Art und Weise, wie Chatbots trainiert werden. Sie werden mit enormen Datenmengen gefüttert, die oft persönliche Informationen enthalten. Vechev erklärt, dass diese Informationen mit der Sprachverwendung auf subtile Weise korreliert werden können. Die Forschung von Vechev und seinem Team zeigt, dass die Fähigkeit von Sprachmodellen, persönliche Informationen abzuleiten, also tief in ihrer Arbeitsweise verankert sein dürfte.

Umso wichtiger erscheint es in dieser Hinsicht, dass Europa nicht am geplanten AI Act scheitern darf. Dieser Ansatz soll KI-Systeme künftig nach ihrem Risiko bewerten und legt unterschiedliche Regeln für ihre Entwicklung und Nutzung fest. Dabei stellt er umfassende Gesetze für alle KI-Systeme auf, die im EU-Binnenmarkt verkauft oder genutzt werden, egal ob der Anbieter aus Europa kommt oder nicht. (red, 19.10.2023)