Im Gastblog stellt Sarah Spiekermann die Frage, wie effizient künstliche Intelligenz wirklich ist. Dieser Beitrag ist der zweite Teil einer Reihe zum Thema "Generative AIs". Eine Einleitung in das Thema ist hier zu finden, der erste Teil hier.

Ich führe diese Mini-Serie zu den GenAIs (zum Beispiel ChatGPT) fort mit der Darstellung gesellschaftlicher Herausforderungen, die man nicht als Kleinigkeit betrachten darf, da sie fundamentale europäische Werte betreffen und sich lange nicht so einfach lösen lassen, wie man gerne denken würde.

Wer trägt Verantwortung?

Was mich wundert ist, dass ich in Gesprächen mit Wirtschaftsunternehmen oder Nutzern und Nutzerinnen, bei denen ich anspreche, dass die GenAIs so viele technisch fast unlösbare Probleme haben, immer nur gleichgültiges Nicken ernte und dann wird gesagt, dass Menschen ja auch Fehler machen, dass Menschen ihr Handeln auch oft nicht erklären können und dass Menschen diejenigen sind, die Maschinen missbrauchen.

Mensch Maschine
Welche Menschen tragen Verantwortung, wenn GenAIs Fehler machen?
Foto: Getty Images/iStockphoto

Wenige sehen, dass menschliche Entscheidungen gegenüber einem anderen Menschen fast immer einen sehr viel eingeschränkteren Radius haben als Maschinenentscheidungen, die in der Regel ganze Bevölkerungssegmente negativ betreffen und damit Kollateralschaden verursachen können. Führungskräfte und Personen aus der Politik müssen aufpassen, denn wenn Kollateralschaden entsteht, braucht es immer einen Sündenbock der dafür grade stehen muss.

Außerdem mag erwähnt werden, dass seit der Aufklärung ein sehr wichtiger ethischer Zug in unserer moralischen Beurteilung von Handlungen ist, welchen Willen oder welche Absicht jemand bei seinem Handeln verfolgt hat. Es ist etwas völlig anderes, ob ein Mensch unwillentlich irrt, zum Beispiel weil er sich verrechnet hat (wie bei der letzten SPÖ-Parteivorsitzabstimmung) und sich gegebenenfalls schämt und bessert. Oder ob eine Maschine irrt, weil sie bekannte technische Einschränkungen hat. Wird sie dennoch auf den Markt gebracht – frei nach dem Motto "move fast and break things", schämt sich niemand. Der Computer war schuld. Für Irrtümer wird nicht mehr persönlich gerade gestanden. Verantwortung ist damit gesellschaftlich gesehen immer weniger persönlich. Sie diffundiert stattdessen obskur und supranational; ein Diffundieren von Verantwortung aber untergräbt nationale Rechtsstaaten und die Effektivität ihrer Gesetze.

Die ungenaue KI

Neben der Verantwortung für Maschinen sei gesagt: Das wofür man Maschinen besonders schätzt, ist ihre Genauigkeit, Verlässlichkeit, Reproduzierbarkeit und Nachvollziehbarkeit. Dies sind alles Wertqualitäten der Wahrheit. Die Wahrheit, wie wir sie in unserem verschriftlichten wissenschaftlichen Zeitalter lieben gelernt haben, ist faktisch genau und verlässlich. Aber genau das sind GenAIs nicht. Und das wird bedeuten, dass wir auf den Maschinenoutput nicht mehr wirklich werden vertrauen können. Wir werden lernen zu misstrauen. Wir werden wahrscheinlich unsere Erwartungen an Wahrheit zurückschrauben, nur damit unsere selbst geschaffenen Maschinengötter nicht das Gesicht verlieren.

Wahrscheinlichkeiten statt Wahrheit

Am Arbeitsmarkt wird das Folgen haben. Es sind nicht nur die 300 bis 600 Millionen Entlassungen (weltweit) ein Problem für nationale Regierungen, weil die GenAIs viele Vorleistungen erbringen können, für die wir bisher Call-Center-Mitarbeiter, Journalisten, Übersetzer, Designer, Software-Entwickler, Jung-Anwälte, etc. bezahlt haben. Es wird auch der Ersatz von Wahrheit durch Wahrscheinlichkeit ein Problem für die Wirtschaft werden. Denn wenn eine Toleranz gegenüber Halbwahrheiten und Falschheiten gelernt wird, bricht das zusammen, was für die Wirtschaft ganz zentral ist: Vertrauen.

Wenn ein Unternehmen in seinem Call-Center oder auf seiner Website einen KI-Bot einsetzt und der etwas Falsches erzählt, was Kunden und Kundinnen dann ausbaden müssen, kommt es zu Wut an der Kundenschnittstelle. Wenn Behörden KI-Bots einsetzen, um Behördengänge zu vereinfachen, die nicht 100 Prozent sachlich gehandhabt werden, kommt es zu einem Zusammenbruch des Staatsvertrauens. Und das alles nur, weil man kurzfristig Kosten einsparen und Effizienz steigern wollte? Oder wegen des innovativen Coolnessfaktors, den KI ausstrahlt?

 Langfristiger Kompetenzverlust

Damit komme ich abschließend zu einer besonderen Krux der GenAIs: Sie steigern nämlich Effizienz und Effektivität von Arbeit nur kurzfristig bei denjenigen Arbeitnehmerinnern und Arbeitnehmern, die eine Fähigkeit oder "Skill" bereits beherrschen. Wenn ein geübter Softwareprogrammierer sich auf Github seinen Softwarecode mit Copilot vorschlagen lässt und diesen dann verbessert, ist das absolut effizient, zeitsparend und befriedigend für eben diesen geübten Software Programmierer.

In 20 Jahren wird ein nicht geübter Softwareprogrammierer, der Dank Copilot nie von der Pike auf programmieren gelernt hat, jedoch vor dem KI-Vorschlag sitzen und gar nichts dazu sagen können, weil er "de-skillt" ist. Wenn die 80 Prozent harte Arbeit an einer Sache in Zukunft systematisch von KIs übernommen werden, werden Menschen diese Tätigkeiten kaum mehr selbst erlernen wollen. Warum auch? Außer deswegen natürlich, weil in 20 Jahren der Anteil derjenigen, die KI-Output noch werden beurteilen können, sehr viel geringer sein wird als heute. Und spätestens dann ist es mit der Effizienz und Effektivität der KI vorbei. (Sarah Spiekermann, 7.7.2023)