Vor einigen Wochen gab ich bei ChatGPT die Frage ein: "Wer ist Veit Dengler?" Die Antwort: "Veit Dengler war der ehemalige Chief Operating Officer der Neuen Zürcher Zeitung. Er hatte diese Position von 2017 bis 2019 inne. Dengler hatte zuvor Führungspositionen bei der Austrian Airlines Group, bei Bertelsmann und bei der Swisscom inne." Alles daran ist falsch. Zwei Wochen später wiederholte ich die Übung: Dieses Mal war ich CEO von Naspers Europe, der Boston Consulting Group in Deutschland und Österreich und in der Geschäftsführung des Energieversorgers Verbund. Wiederum alles falsch.

Warum liefert künstliche Intelligenz (KI) leicht nachprüfbare Fakten nicht? Diese "Intelligenz" googelt nicht, sondern ist mit unzähligen Texten trainiert, sogenannten Large Language Models (LLMs), und berechnet das jeweils wahrscheinlichste nächste Wort. Die Maschine weiß nicht, was wahr und unwahr ist. Sie liefert nicht Informationen, sondern Erzählungen aus möglichen Welten.

Künstliche Intelligenz wie ChatGPT googelt nicht, sondern ist mit unzähligen Texten trainiert und berechnet das jeweils wahrscheinlichste nächste Wort.
Foto: Getty Images/iStockphoto

Experten sagen, dass das Kinderkrankheiten sind und dass KI bald so gut sein wird, dass solche Fehler nicht passieren. Diesen Optimismus halte ich im engen Sinn für plausibel, aber insgesamt für wenig angebracht.

Blackbox

Grundsätzlich ist KI eine Blackbox, in der Menschen nicht mehr nachvollziehen können, wie ein Output zustande kommt. Empirie und Evidenz wird ersetzt durch etwas, was wir Menschen zunehmend nicht verstehen.

KI prüft, im Gegensatz zum Beispiel zu Wikipedia, keine Quellen, sondern berechnet Wahrscheinlichkeiten. Dem Missbrauch ist Tür und Tor geöffnet. Mit der Perfektion von Stimm- und Bildersynthese wird das gesellschaftliche Vertrauen auf eine noch nie da gewesene Probe gestellt: Perfekte Fälschungen werden die letzten zehn Jahre der Fake News wie einen Kindergarten wirken lassen.

Ergebnisse der KI sind zunehmend weniger falsifizierbar. Bei meiner Biografie wissen ich und andere, was ich gemacht habe. Im Arbeitsrecht oder für die Justiz wissen wir, dass die Daten, die von der KI zum Trainieren eingelesen werden, Vorurteile enthalten, und können versuchen, korrigierend einzugreifen. Bei einer Diagnose gibt es menschliche Experten, die prüfen können, was der Algorithmus ausspuckt.

Was aber, wenn das Internet geflutet wird und die Anzahl der super-realistischen Fakes die Anzahl der echten Quellen um ein Vielfaches übersteigt? Was, wenn autonome, nicht zuordenbare Killer-Drohnen auftauchen, die Terroristen, Soldaten, Journalisten oder Kinder töten statt nur eine kleine Show über dem Kreml abzuziehen?

Ethische Fragen

Es gibt auch nicht annähernd einen globalen Konsens darüber, auf welcher Basis und in welcher Form Ethik und Moral in die Entwicklung von KI einfließen sollen. Ein von Tech-Größen wie Max Tegmark, Steve Wozniak und Elon Musk initiierter offener Brief fordert ein Moratorium für die Entwicklung der KI, währenddessen wir prüfen, ob die Folgen der KI positiv und die Risiken beherrschbar sind. Derweil geht die Entwicklung dezentral in unglaublichem Tempo weiter.

In Österreich findet diese Diskussion kaum statt, wie auch beim Thema Sicherheit, bei dem der Kanzler ganz am Anfang schon ein Ende der Diskussion verlangte. Unsere gute alte Insel der Unseligen. (Veit Dengler, 8.5.2023)