Samsungs Firmengeheimnisse sollten eigentlich bei Samsung bleiben. Tun sie aber offenbar nicht, weil ChatGPT für manche Mitarbeiter zu verlockend ist.

Foto: Kim Hong-Ji / REUTERS

Es ist eine Eigenheit, die vielen Nutzern von ChatGPT offenbar nicht vollständig bewusst ist: Wer den KI-Textbot nutzt, hilft damit auch dessen Hersteller OpenAI beim Trainieren der Software. Anders gesagt: Sämtliche Eingaben können von Mitarbeitern des Unternehmens eingesehen und zur weiteren Verbesserung des Angebots genutzt werden.

Ärger bei Samsung

Besonders problematisch ist das, wenn es um Firmengeheimnisse geht, wie jetzt auch Samsung zur Kenntnis nehmen muss. Wie die südkoreanische Nachrichtenseite "Economist" berichtet, hat Samsung bereits mehrere Fälle identifiziert, in denen die eigenen Mitarbeiter zum Teil streng geheime Daten mit ChatGPT bearbeitet und somit an OpenAI weitergegeben haben.

In einem Fall ging es dabei um den Code für ein proprietäres Programm, den ein Entwickler offenbar mithilfe von ChatGPT verbessern wollte. In einem zweiten Fall wurde die Audioaufzeichnung eines internen Meetings ausgewertet und in eine Präsentation verwandelt. Am unerfreulichsten ist aber wohl der dritte Vorfall, wurden dabei doch streng geheime Informationen aus der Chipentwicklung weitergegeben – in dem Fall ging es um die Identifizierung defekter Chips und deren weitere Optimierung.

Reaktion

All das wäre laut der Firmenpolicy alleine schon durch die Speicherung auf den Servern einer anderen Firma verboten, das Problem, dass die Software auch noch daraus lernt, spitzt die Thematik insofern nur weiter zu. Bei Samsung will man nun einen ChatGPT-ähnlichen KI-Dienst für die interne Nutzung entwickeln, um den Rückgriff auf die OpenAI-Software zu verhindern. Sollte man damit das Problem nicht in den Griff bekommen, könnte es aber auch zu einer kompletten Sperre kommen.

Mit einer ähnlichen Maßnahme hatte schon vor einigen Wochen Amazon auf die unbedachte Nutzung von ChatGPT durch die eigenen Mitarbeiter reagiert. All das spielt sich vor dem Hintergrund wachsender Privacy-Bedenken hinsichtlich solcher Text-KIs ab.

Bedenken

So hat etwa Italien unlängst den Zugang zu ChatGPT gänzlich blockiert, da man darin einen klaren Verstoß gegen die Datenschutzgrundverordnung sieht. Die Software informiere demnach die Nutzer nicht ausreichend, welche Daten über sie gespeichert würden, generell sehe man die rechtliche Grundlage für die umfassende Sammlung und Speicherung der Daten nicht gegeben.

Eine Kritik, die mittlerweile auch in anderen Ländern angekommen ist. So hieß es am Mittwoch, dass sich die Datenschützer der deutschen Bundesländer ebenfalls ChatGPT genauer vornehmen wollen. Dabei betont man allerdings gleich, dass die Risiken durch solche Technologien größer seien als nur das Thema Datenschutz, hier sei generell die Politik gefordert. (apo, 5.4.2023)