illustration of a friendly looking robot, presenting newspapers, looking at the camera.
Dieses Bild wurde mit der KI Midjourney erstellt. Der Prompt lautete: "illustration of a friendly looking robot, presenting newspapers, looking at the camera. --ar 3:2".
Midjourney/Der Standard

Liebe Mitmenschen,

es ist schon ein wenig seltsam: Obwohl KI-Systeme eine rein menschliche Kreation sind, ist oft unklar, wie sie funktionieren und welche Ergebnisse sie liefern. Wir haben ja vor einigen Wochen berichtet, dass ChatGPT innerhalb von Wochen "dümmer" geworden ist – das haben Forschende der Universitäten Stanford und Berkeley herausgefunden, aber auch Heavy-User der Software wollen bemerkt haben, dass die Antworten schlechter geworden sind. Eine befriedigende Erklärung blieb bisher aus.

Die Informatiker-Professorin Johanna Pirker schreibt in ihrem Kommentar der anderen im STANDARD, dass es schwierig zu beweisen ist, dass ChatGPT wirklich an Intelligenz verloren hat. Denn vielleicht liegt es an unserer Wahrnehmung – je intensiver wir uns mit der Technologie beschäftigten, desto eher bemerkten wir die Fehler. Vielleicht wurde auch das zugrunde liegende Modell so verändert, dass wir unsere Prompts überdenken, also anders mit der Software kommunizieren müssen. Kurz gesagt: Wir wissen derzeit nur, dass wir zu wenig wissen. Denn es mangelt an allen Ecken und Enden an Transparenz, vor allem bei Anwendungen wie ChatGPT, deren Quellcode nicht öffentlich verfügbar ist.

Ganz objektiv können KI-Systeme zwar nie sein, aber ChatGPT bemüht sich durchaus um ausgeglichene Standpunkte. Forschende der University of East Anglia wollten der Software trotzdem deren politischen Präferenzen entlocken. Das Ergebnis: Der Chatbot würde wohl eher linke Parteien wählen. Dazu haben sich die Forschenden von ChatGPT unterschiedliche Personas erstellen lassen – also das Programm instruiert, sich wie eine sozialdemokratische oder eine republikanische Person zu verhalten. Die Antworten wurden anschließend mit jenen ohne zugewiesenes Persona verglichen und ausgewertet.

Auch die Nachrichtenagentur AP setzt auf die KI-Software aus dem Hause OpenAI. Es war das erste große Medienunternehmen, das im Juli eine Kooperation mit dem ChatGPT-Erfinder bekanntgab. Der Deal: OpenAI bekommt Zugriff auf Teile des Archives, AP dafür auf die Technologie der Softwarefirma. Nun hat die Nachrichtenagentur seine KI-Richtlinien überarbeitet – und klargestellt, dass KI Journalistinnen und Journalisten in "keiner Weise" ersetzen würde sowie keine KI-generierten Texte veröffentlicht werden sollen.

Das kann man von MSN nicht behaupten. Das zu Microsoft gehörende Webportal hat einen Artikel mit Reiseempfehlungen für Ottawa veröffentlicht, der offenbar KI-generiert war. Denn der Artikel empfahl Reisenden, sich in der kanadischen Hauptstadt nicht nur das National War Museum oder ein Hockeyspiel anzusehen, sondern auch die örtliche Ausspeisungsstelle für Bedürftige zu besuchen, am besten mit "leerem Magen". Microsoft entschuldigte sich und entfernte den Artikel – doch es bleibt ein fahler Nachgeschmack: Denn MSN veröffentliche den Artikel bloß mit "Microsoft Travel" als Autor, ein Hinweis auf den KI-Ursprung fehlte. Das widerspriche den eigenen KI-Prinzipien von Microsoft, merkte eine KI-Expertin an.

Auch Google forscht weiter an KI. Mit dem "Search Generative Experiment" testet man seit einigen Monaten, wie die Zukunft einer mithilfe von generativer KI unterstützten Suchmaschine aussehen könnte. So soll der Webbrowser Chrome nun die wichtigsten Punkte eines längeren Artikels in wenigen Punkten zusammenfassen können – und auf Wunsch weitere Fragen des Users beantworten können. Wer das Feature testen will, braucht allerdings eine US-amerikansche IP-Adresse. Ganz verlassen sollten Sie sich auf die maschinengenerierten Zusammenfassungen aber nicht. Zumindest sollten Sie vorsichtig sein, wenn Ihnen die KI zum Mittagessen ein Kochrezept mit Chlorgas vorschlägt.

In dem Sinne: Bleiben Sie menschlich, und bleiben Sie uns gewogen!

Herzlichst,

Philip Pramer / Ressortleiter Edition Zukunft