Künstliche Intelligenz

Halluzinierende KI wird bei Software-Entwicklung zum Sicherheitsrisiko

Generative KI wie ChatGPT oder Google Gemini erfindet im großen Stil Softwarepakete, die es nicht gibt. Auf diesem Weg könnte Schadcode in ungeprüfte Programme eingeschleust werden

DER STANDARD/Pichler/Midjourney

Ein böser Chatbot. Dieses Symbolbild wurde mit der Bilder-KI Midjourney generiert.

DER STANDARD/Pichler/Midjourney

Künstliche Intelligenz (KI) neigt gelegentlich dazu zu "halluzinieren" – also Informationen zu erfinden, die es nicht gibt, und diese trotzdem überzeugend auszugeben. So können KI-Tools wie ChatGPT oder Google Gemini zwar bei den Hausübungen helfen, indem sie zum Beispiel einen fertigen Aufsatz über ein historisches Ereignis abliefern, inhaltlich korrekt muss dieser aber nicht unbedingt sein.