Die rasante Verbreitung von KI-Tools ist wohl für niemanden mehr ein Novum. Ob Chatbots oder Übersetzungsprogramme – der Einsatz von künstlicher Intelligenz hat ein nie dagewesenes Ausmaß erreicht. Gerade auch bei sogenannter generativer (also auf die Erzeugung von Inhalten ausgerichteter) KI lauern jedoch rechtliche Risiken an allen Ecken und Enden. Auch der für Unternehmen oft lebenswichtige Bereich des Geschäftsgeheimnisschutzes bildet hier keine Ausnahme und kann davon betroffen sein.

Tastatur von Laptop, darüber eine Animation mit Schlössern
Mit dem steigenden Einsatz von KI kommt es auch zu immer mehr Rechtsfragen, etwa im Kontext von Geschäftsgeheimnissen.
Getty Images/iStockphoto

In Zeiten weitverbreiteter Wirtschaftsspionage und zunehmender (nicht nur) wirtschaftlicher Polarisierung sind Unternehmen mehr denn je gefordert, für einen umfassenden Schutz ihres geistigen Eigentums zu sorgen. Dabei ist das Instrument des Geschäftsgeheimnisses ein regelrechter Joker unter den Immaterialgüterrechten: Es besteht potenziell zeitlich unbegrenzt und umfasst Bereiche, die dem Patentschutz nicht zugänglich sind. Aber auch für Daten, die nicht der Datenschutzgrundverordnung unterliegen, bietet sich über den Geschäftsgeheimnisschutz ein ergänzender Schutzmechanismus für Unternehmen. Dies setzt freilich voraus, dass sie die notwendigen Vorkehrungen treffen, um diesen Geheimnisschutz auch aufrecht zu erhalten.

Wenn Geschäftsgeheimnisse auf einmal nicht mehr so geheim sind

Dass mühselig entwickeltes Know-how plötzlich in Rauch aufgehen kann, wenn beim KI-Einsatz nicht mit der gebotenen Sorgfalt vorgegangen wird, zeigt ein rezentes Beispiel eines bekannten koreanischen Technologiekonzerns: Im April hat sich im Rahmen einer internen Untersuchung herausgestellt, dass Mitarbeiter dieses Unternehmens einen vertraulichen Quellcode in ChatGPT eingegeben haben, mit der Absicht den Code vom KI-Modell überprüfen zu lassen. Doch eine solche – noch so wohlgemeinte – Handlung kann leicht dazu führen, dass der Code plötzlich nicht mehr dem Geheimnisschutz unterliegt.

ChatGPT und ähnliche KI-Chatbots verwenden die von Nutzern eingegebenen Daten zur Weiterentwicklung des Chatbots. Die Informationen, die man in einen solchen Chatbot eingibt, können unter Umständen nicht mehr als "geheim" betrachtet werden. Nach dem Bundesgesetz gegen den unlauteren Wettbewerb setzt der Geheimnisschutz nämlich voraus, dass diese Informationen "weder in ihrer Gesamtheit noch in der genauen Anordnung und Zusammensetzung ihrer Bestandteile den Personen in den Kreisen, die üblicherweise mit dieser Art von Informationen zu tun haben, allgemein bekannt noch ohne weiteres zugänglich" sind.

In dieser doch langen Definition ist zunächst die Wortfolge "weder in ihrer Gesamtheit noch in der genauen Anordnung und Zusammensetzung ihrer Bestandteile" interessant. Gibt beispielsweise ein Mitarbeiter eines Unternehmens eine Kundenliste mit Kontaktpersonen und Adressen mit der Aufforderung ein, dass der Chatbot anhand dieser bestehenden Liste weitere potenziellen Kunden empfehlen soll, wird zwar ein Geschäftsgeheimnis im Training-Pool des KI-Modells landen. Eine allgemeine Bekanntheit oder ohne weiteres gegebene Zugänglichkeit, die zum Verlust des Geschäftsgeheimnisschutzes führt, würde aber wohl erst dann eintreten, wenn diese Kundenliste von einem weiteren Nutzer des Chatbots durch Eingabe eines Prompts (Eingabeaufforderung) zumindest in einem Umfang abrufbar wäre, der einen wirtschaftlich wertvollen Informationsgewinn bringt.

In diesem Zusammenhang stellt sich auch die Frage, wie schwierig es für andere Nutzer sein muss, das richtige Prompt einzugeben, damit das Geschäftsgeheimnis offenbart wird. Wird etwa die Rezeptur eines Softgetränks in den Chatbot eingegeben und kann sie von einem anderen Nutzer durch bloße Eingabe des Namens des Getränks verbunden mit der Aufforderung, dessen Rezept zu verraten, in Erfahrung gebracht werden, ist das Rezept ohne weiteres zugänglich und der Geheimnisschutz geht verloren. Muss hingegen eine besondere Kreativität beim Verfassen des Prompts an den Tag gelegt werden, um das Modell zur Preisgabe der gewünschten Informationen zu bewegen, kann eine ohne weiteres gegebene Zugänglichkeit nicht mehr angenommen werden und der Geheimnisschutz bleibt gewahrt.

Geheimhaltungsmaßnahmen: Vorsicht ist besser als Nachsicht

Freilich ist es bei der Eingabe von Geschäftsgeheimnissen in den Chatbot kaum absehbar, wie schwierig es für andere Nutzer sein wird, diese später durch Eingabe des entsprechenden Prompts einzusehen. Hinzu kommt, dass Informationen auch angemessenen Geheimhaltungsmaßnahmen unterliegen müssen, damit sie als Geschäftsgeheimnisse geschützt werden. Unternehmen müssen etwa dafür Sorge tragen, dass Mitarbeitende in öffentlich verfügbare KI-Tools keine Geschäftsgeheimnisse eingeben, weil diese die ihnen anvertrauten Informationen zu ihrer Weiterentwicklung verwenden und daher das Risiko bergen, dass diese Informationen einem anderen Nutzer durch Eingabe eines entsprechenden Prompts zugänglich werden.

Einige Unternehmen fahren hier eine strikte Linie und entscheiden sich für eine vollständige Sperrung von Websites, auf denen solche Chatbots betrieben werden. Lässt das Unternehmen die Nutzung von generativen KI-Tools zu, ist dem Erfordernis der angemessenen Geheimhaltungsmaßnahmen genüge getan, wenn es Mitarbeitenden etwa durch entsprechende Klauseln im Arbeitsvertrag verboten wird, Geschäftsgeheimnisse in Chatbots einzugeben. Abgerundet werden kann diese Verpflichtung mit Schulungen und Verhaltenskodizes, um Mitarbeitende für einen sorgfältigen Umgang mit Geschäftsgeheimnissen zu sensibilisieren. Dazu gehört vor allem das Erkennen, ob überhaupt ein Geschäftsgeheimnis vorliegt.

Unternehmen, die dieses Risiko nicht eingehen wollen, sind jedoch gut beraten, die Nutzung solcher öffentlich verfügbaren Tools gänzlich zu untersagen. Um dennoch vom KI-Einsatz profitieren zu können, besteht die erste denkbare Alternative darin, sich von einem externen Unternehmen ein maßgeschneidertes KI-Tool entwickeln zu lassen und vertraglich sicherzustellen, dass die eingegebenen Informationen nur für die Zwecke des Auftraggebers und insbesondere nicht zum Training des Modells verwendet werden. Die sicherste Variante ist aber wohl eigene, firmeninterne KI-Tools zu entwickeln. Dass beide Alternativen kostenintensiv sind, liegt auf der Hand. Gerade für große Technologieunternehmen, die einen erheblichen Teil ihrer Assets in ihrem Know‑how haben und die vom Einsatz von KI verstärkt profitieren, könnten sich solche Investitionen aber durchaus lohnen.

Know-how-Entwicklung mit KI-Einsatz

Eng verbunden mit diesem Thema stellt sich die Frage, ob KI-generierte Informationen dem Geheimnisschutz unterliegen können. Entscheidend ist wiederum, ob die Informationen ohne weiteres zugänglich sind. Einfache Computercodes, die von einem gängigen KI-Chatbot mit einem kurzen Prompt generiert werden können, verlangen weder einen größeren Zeit- noch Kostenaufwand und sind daher ohne weiteres zugänglich. Der Schutz als Geschäftsgeheimnis bleibt ihnen daher verwehrt. Gleiches gilt etwa für einen Vertrag, der von der KI auf ein unkreatives Prompt hin generiert wird.

Muss hingegen ein erheblicher Zeitaufwand in die korrekte Formulierung des Prompts investiert werden, kann mitunter ein Geschäftsgeheimnis vorliegen. Dasselbe gilt, wenn für die Informationsbeschaffung durch die KI erhebliche Kosten anfallen. Das kann insbesondere dann der Fall sein, wenn das KI-Modell, das das Geschäftsgeheimnis generiert, erst kostspielig entwickelt werden muss oder nur gegen eine üppige Lizenzgebühr verfügbar ist. Vor dem Hintergrund der enormen Effizienzsteigerung, die der Einsatz von künstlicher Intelligenz verspricht, ist trotzdem davon auszugehen, dass in der Zukunft immer mehr Unternehmen diese Kosten in Kauf nehmen werden. (Lukas Feiler, Martina Grama, Mark Nemeth, 7.12.2023 )