Künstliche Intelligenz (KI) neigt gelegentlich dazu zu "halluzinieren" – also Informationen zu erfinden, die es nicht gibt, und diese trotzdem überzeugend auszugeben. So können KI-Tools wie ChatGPT oder Google Gemini zwar bei den Hausübungen helfen, indem sie zum Beispiel einen fertigen Aufsatz über ein historisches Ereignis abliefern, inhaltlich korrekt muss dieser aber nicht unbedingt sein.
Künstliche Intelligenz
Halluzinierende KI wird bei Software-Entwicklung zum Sicherheitsrisiko
Generative KI wie ChatGPT oder Google Gemini erfindet im großen Stil Softwarepakete, die es nicht gibt. Auf diesem Weg könnte Schadcode in ungeprüfte Programme eingeschleust werden