Microsoft CEO Satya Nadella legte zuletzt auf dem Devday-Event Anfang November großen Wert darauf, die Vorzüge von ChatGPT zu betonen.
GETTY IMAGES NORTH AMERICA/JUSTI

Mehrere Milliarden investierte der US-Konzern Microsoft über die letzten Jahre in die KI-Firma OpenAI. Das Unternehmen, das in diesem Jahr vor allem durch sein Produkt ChatGPT auch über die Branchengrenzen hinweg ein Begriff geworden ist, musste am Donnerstag jedoch mangelndes Vertrauen beim großen Partner feststellen. An diesem Tag sperrte Microsoft nämlich sämtlichen Mitarbeiterinnen und Mitarbeitern den ChatGPT-Zugang. Aus Sicherheitsgründen, wie es hieß.

Sicherheitsbedenken

"Aufgrund von Sicherheits- und Datenschutzbedenken stehen den Mitarbeitern eine Reihe von KI-Tools nicht mehr zur Nutzung zur Verfügung", schrieb Microsoft in einem internen Update, das CNBC zugespielt wurde. Laut der Nachrichtenplattform konnten sich Unternehmensgeräte vorübergehend nicht auf ChatGPT und andere KI-Dienste wie Midjourney und Replika zugreifen. Die Einschränkung vonseiten des US-Konzerns erfolgte am selben Tag, an dem OpenAI öffentlich einen DDoS-Angriff auf sein System zugab. Dieser führte die kommenden Tage zu zahlreichen Ausfällen.

Der Windows-Konzern erläuterte die Entscheidung intern und sprach bei den angeführten Tools von Third-Party-Software, die trotz eingebauter Sicherheitsmechanismen Risiken beinhalte. Kurz darauf sprach ein Konzernsprecher allerdings von einem Fehler, der aufgrund eines Tests der intern genutzten Large Language Models (LLMs) auftrat. Somit wurden die Services, allen voran ChatGPT, schnell wieder allen Mitarbeitenden zugänglich gemacht.

"Wie wir in der Vergangenheit bereits betont haben, ermutigen wir Mitarbeiter und Kunden Services wie Bing Chat Enterprise und ChatGPT Enterprise zu nutzen, da diese ein hohes Maß an Datenschutz und Sicherheit bieten", erklärte der Konzernsprecher dem Nachrichtenmagazin.

Kein Einzelfall

So unangenehm der Vorfall für den ChatGPT-Investor ist, andere US-Konzerne haben sich bereits in der Vergangenheit von dem KI-Tool distanziert. So ließ beispielsweise Apple im Mai dieses Jahres wissen, dass man Mitarbeiterinnen und Mitarbeitern die Nutzung von ChatGPT abriet, um nicht unabsichtlich interne Informationen an die Öffentlichkeit zu verursachen.

Auch Amazon riet den Angestellten, internen Programmiercode nicht mit ChatGPT zu teilen. Aus Sicherheitsbedenken, wie der Konzern wissen ließ. (red, 13.11.2023)