Obwohl sich die Entwicklung von KI-Tools erst in einem vergleichsweise frühen Stadium befindet, zeichnen sich jetzt schon klare Problemfelder ab.

Foto: Getty Images / Castilla

KI-Tools im Internet wie ChatGPT sorgen nach wie vor Begeisterung. Die Einsatzmöglichkeit der Software reicht aber auch so weit, dass sie beispielsweise für das Vortäuschen wissenschaftlicher Texte und das Erstellen von Schadcode missbraucht werden kann. Sam Altman, der CEO von OpenAI und Mitschöpfer des Chatbots, weist in der aktuellen KI-Entwicklung nun auf gefährliche Tools und damit einhergehende Herausforderungen hin.

In einem längeren Twitter-Thread führt der OpenAI-Boss erwartungsgemäß aus, dass KI-Tools grundsätzlich gekommen seien, um zu bleiben. Die Integration in den Alltag werde ziemlich schnell erfolgen, weil die Vorzüge und der Spaß, die mit der Verwendung verbunden seien, zu groß seien, um darauf verzichten zu können.

Interessanterweise betont er gleichzeitig, dass genügend Zeit für Institutionen notwendig sei, um solche Technologien entsprechend regulieren zu können. "Obwohl die KI-Tools der aktuellen Generation nicht sehr beängstigend sind, denke ich, dass wir nicht mehr weit von potenziell beängstigenden Tools entfernt sind", sagt Altman.

Zwar könnten solche Tools nach Ansicht von Altman dazu führen, "produktiver", "gesünder" und "besser unterhalten" zu werden, gleichzeitig betont er aber auch mehr Herausforderungen, denen man sich stellen müsse. Darunter versteht er etwa die mögliche politische Voreingenommenheit von Chatbots oder "Menschen, die verunsichert sind, wenn sie mit einem Chatbot sprechen, selbst wenn sie wissen, was wirklich los ist".

Neues Zeitalter für Fake News und Deepfakes

Eine der größten Gefahren im Hinblick auf KI-Tools ist nach wie vor das glaubwürdige Vermitteln falscher und/oder erfundener Fakten. Obwohl sich die Technologie noch in einem verhältnismäßig frühen Stadium befindet, haben Experten bei der Nutzung künstlicher Intelligenz schon mehrfach auf die enorme Gefahr der Desinformation hingewiesen. In diesem Zusammenhang könnte auch eine neue Ära von Deepfakes die Unterscheidung zwischen glaubwürdigen Informationen und Fake News erheblich erschweren.

Der aktuelle Vorstoß ist nicht der erste von Sam Altman, um den gegenwärtigen Hype um ChatGPT im Besonderen und KI-Tools im Allgemeinen zu relativieren. Erst im Jänner wies der OpenAI-Boss darauf hin, dass man völlig überzogene Erwartungen in die nächste Version seines Chatbots stecke. Die Leute würden "geradezu darum betteln, enttäuscht zu werden – und das wird auch passieren", sagte Altman. (bbr, 21.2.2023)