Die Informatikerin Johanna Pirker bringt in ihrem Gastkommentar die KI-Problematik auf den Punkt: Wir wissen derzeit nur, dass wir zu wenig wissen.

ChatGPT-Button am Bildschirm
Bots wie ChatGPT haben KI populär gemacht. Aber die Modelle sind intransparent, viele Fragen bleiben offen.
Foto: AP / Richard Drew

Künstliche Intelligenz (KI) wird unseren Alltag verändern und viele neue Chancen mit sich bringen, wie bedeutende Fortschritte in Medizin oder Bildung. Jedoch werden auch viele neue Herausforderungen auf uns zukommen: Cyberkriminalität, Fake News und eine Informationsflut.

Aber wie bei jeder transformativen Innovation in der Vergangenheit werden wir lernen, ihr Potenzial zu nutzen und auch mit den Herausforderungen und Risiken umzugehen. Dies war schon bei der oft zitierten industriellen Revolution und der Transformation der Arbeitswelt so oder bei der Einführung des Internets. Als mit dem Aufkommen von Autos neue Unfallarten einhergingen, einigten sich die Menschen auch auf neue Verkehrsregeln. Im Bereich KI stehen wir erst am Anfang und erkunden gerade alle gemeinsam Fähigkeiten, Herausforderungen und Anwendungsmöglichkeiten. Und es ist essenziell, dass wir alle teilhaben, um Potenziale und Risiken frühzeitig aus verschiedenen Perspektiven zu verstehen.

Signifikant verschlechtert

Erste Anwendungen, die auf Modellen wie GPT-4 basieren, haben uns bereits einen Vorgeschmack auf die Möglichkeiten gegeben. Der Chatbot ChatGPT ist dabei vermutlich eines der bekanntesten Beispiele. Interessanterweise gibt es seit Monaten Gerüchte in verschiedenen Internetforen, dass ChatGPT an Effizienz verliert oder "immer dümmer" wird. Eine kürzlich durchgeführte Studie von Forschern aus Stanford und Berkeley legt auch nahe, dass sich Ergebnisse des Chatbots in unterschiedlichen Bereichen innerhalb weniger Wochen signifikant verschlechtert haben. Dadurch wachsen Zweifel an der Zuverlässigkeit der Technologie. Und es wird vor allem vermehrt die Frage gestellt: Wie funktioniert KI überhaupt?

Es ist gut, dass diese Frage mehr und mehr in der Gesellschaft auftaucht und nach Erklärungen gesucht wird. Bei vielen neuen Technologien gibt es anfänglich sowohl übertriebene Begeisterung als auch Skepsis, bis hin zur Angst. Beide Extreme können schwierig sein. Um diese Systeme sinnvoll nutzen zu können und sowohl Ängste zu nehmen als auch aufzuzeigen, was KI kann oder nicht kann, ist mehr Aufklärung über die Funktionsweisen von KI und den ihr zugrunde liegenden Modellen notwendig.

"Ein Problem ist, dass die Tech-Konzerne zu wenige Einblick in Modelle wie GPT-4 geben."

Dieser aktuelle Fall zeigt auf, dass wir noch viel über die Modelle lernen müssen und noch viele Fragen offenbleiben müssen. Ein Problem dabei ist zum Beispiel, dass die Tech-Konzerne zu wenig Einblick in Modelle wie GPT-4 geben. So können selbst Expertinnen und Experten diese scheinbaren Verschlechterungen der Ergebnisse nicht aufklären. Deshalb werden gerade unterschiedliche Theorien diskutiert: Wurde das zugrunde liegende Modell von OpenAI adaptiert? Welchen Einfluss haben unterschiedliche Daten? Liegt es am Modell oder einfach nur an der Anwendung, die das Modell benutzt? Oder liegt es an unserer Wahrnehmung und wir bemerken mehr Fehler, da wir uns länger und intensiver mit der Technologie beschäftigen?

Die Antwort darauf ist simpel: Wir wissen es nicht genau. Wir wissen es nicht, da wir einerseits das Vorgehen der Modelle besser verstehen und erforschen müssen, aber uns andererseits auch sehr viele Details über das Modell von OpenAI fehlen: Auf welchen Datensätzen wurde trainiert? Was steht im Quellcode? Wie sieht eigentlich die Architektur aus? Es mangelt an Transparenz. Wir können nur raten, was im Hintergrund des Modells passiert, auf dem wir unsere Anwendungen, wie eben einen Chatbot wie ChatGPT, bauen. Wenn dann ein Finetuning des Models im Hintergrund vorgenommen wird, kann es auch sein, dass wir die Anwendung, die wir darauf gebaut haben, wieder anpassen müssen.

Worauf aufbauen?

Wir wissen also nicht, ob ChatGPT wirklich schlechter geworden ist oder ob es nur den Anschein macht, schlechter zu sein. Was wir dagegen wissen, ist, dass wir auf dem aktuellen Stand einfach zu wenig wissen und der Einblick in die gegebenen Modelle zu gering ist. Das Potenzial für spannende Anwendungen ist da, aber ohne diese Transparenz können kaum zuverlässige, sichere, faire und transparente Anwendungen auf Basis dieses Modells designt werden.

Deshalb ist jetzt nicht nur der Mut unserer Gesellschaft gefragt, sich mit der neuen Technologie auseinanderzusetzen, sondern auch der Mut zur Transparenz seitens der Konzerne. (Johanna Pirker, 19.8.2023)