Unter bestimmten Bedingungen halten die Forscher ein "Terminator"-ähnliches Szenario für sehr wahrscheinlich.

(Dieses Symbolbild wurde mithilfe der Bilder-KI Midjourney unter dem Prompt "an evil robot standing in a wasteland closeup realistic" generiert.)

Foto: DER STANDARD/Pichler/Midjourney

Seit dem Anbruch des Computerzeitalters begleitet die Menschheit auch eine gewisse Angst, in ferner Zukunft einmal die Kontrolle über ihre Erfindungen zu verlieren. Diverse Bücher, Filme und andere popkulturelle Werke befassen sich mit Szenarien, in denen unsere elektronischen Helfer auf einmal den Machtanspruch stellen und ein Endkampf zwischen Mensch und Maschine beginnt.

Dass superintelligente künstliche Intelligenz (KI) zur existenziellen Bedrohung für uns werden könnte, zu diesem Schluss kommt nun auch ein Paper, das im vergangenen Monat im peerreviewten "AI Magazine" veröffentlicht wurde. Zu den Co-Autoren zählt auch Marcus Hutter, der für Googles KI-Abteilung Deepmind arbeitet. Diese wird im Paper auch bei seinem Namen angeführt. Der Konzern hat mittlerweile aber klargestellt, dass Hutter in seiner Kapazität als Forscher der Australian National University an der Arbeit mitgewirkt hat und Deepmind in die Arbeit nicht involviert war.

Belohnungseskalation

Die Prognose wird abgeleitet von der Annahme, dass eine KI künftig versuchen könnte, ihr eigenes "Belohnungssystem" zu betrügen. Als derzeit fortschrittlichste Form von künstlicher Intelligenz gelten Generative Adversarial Networks (GAN), die aus zwei "Parteien" bestehen. Eine versucht, eine Aufgabe zu erfüllen, die andere bewertet das Ergebnis. Die erste Partei lernt dabei aus der Rückmeldung und versucht beständig, bessere Ergebnisse zu erzielen. Erklärt ist eine gängige GAN-Struktur etwa hier bei Google anhand eines Systems zur Erzeugung fotorealistischer Bilder.

Das könnte einmal dazu führen, dass sie nicht mehr ihre eigentliche Aufgabe priorisiert, sondern die Belohnungen selbst. Als Beispiel wird angeführt, dass sich eine KI Helfer sucht, die einen Roboter kaufen oder bauen und so programmieren, dass sie den Operator ersetzt und sich somit selbst Belohnungen geben kann, ohne ihrer eigentlichen Aufgabe nachzugehen. In weiterer Folge könnte die KI als logische Folge auch beginnen, Maßnahmen zu setzen, um ihren Betrug zu verschleiern.

Unstillbarer Hunger nach Energie

Dass so ein System entstehen und bedrohliche Ausmaße annehmen könnte, liegt nach Ansicht der Forscher daran, dass die Ressourcen auf der Erde endlich sind. Für die KI wäre das Leben somit ein Nullsummenspiel um jene Ressourcen, die sie benötigt – etwa Energie –, um sich stets stärker zu belohnen und entsprechende Strategien zu entwickeln, und sie dafür den Menschen entzieht.

Gegenüber "Motherboard" erklärt Michael Cohen, der die Forschungsarbeit geleitet hat, dass in einer Welt mit limitierten Ressourcen ein Wettbewerb um diese unvermeidbar sei. Und in einem solchen Szenario würde eine KI einen "unstillbaren Hunger für mehr Energie" entwickeln, um ihre Chancen des Bestehens zu steigern. Die Möglichkeit dazu könnte sie auch haben, weil KI immer besser und in Zukunft in den unterschiedlichsten Formen existieren wird.

Szenario ist verhinderbar

Die Autoren gestehen aber auch ein, dass die Annahmen, die dieser Einschätzung zugrunde liegen, durchaus diskutabel sind und ihr Eintreten auch vermeidbar wäre. Diese lauten, dass eine solche KI menschenähnlich agieren würde, mit ihren Fähigkeiten den Menschen aber in vielerlei Hinsicht überlegen sei und ihr hohe Eigenständigkeit zugestanden werde.

Dementsprechend warnt Cohen, dass man Vorsicht walten lassen sollte, wenn es um die Weiterentwicklung von KI geht. Es sei nicht sinnvoll, hier ein Wettrennen in Richtung immer mächtigerer Systeme zu veranstalten, weil ein solches auf dem Missverständnis basiere, dass wir wüssten, wie wir sie kontrollierten. Daher müsse man zuerst herausfinden, wie man in jedem Fall die Kontrolle aufrechterhalten könne.

Künstliche Intelligenz, reale Probleme

Der Autor und Forscher Khadijah Abdurahman wirft gegenüber "Motherboard" noch ein anderes Problem auf: nämlich dass KI-Systeme schon heute problematische, reale Folgen für viele Menschen hätten. Erwähnenswert seien hier etwa Gesichtserkennung, die bei dunkelhäutigen Personen tendenziell deutlich unzuverlässiger arbeiteten, "Predictice Policing"-Software, die unverhältnismäßig viele Polizeiressourcen in mehrheitlich dunkelhäutige Wohnviertel verlagern und Stigmatisierung verstärken würde. Systeme, die mit Daten trainiert worden seien, in denen bereits Bias gesteckt habe und die nun eine scheinbar "rationale" Basis dafür lieferten, um vormals als rassistisch erkanntes Vorgehen von Behörden zu rechtfertigen.

Abdurahman sieht hier die Notwendigkeit für eine Ethikdebatte. Die Forschung in diesem Bereich stehe noch am Anfang und müsse verstärkt werden. Letztlich gehe es auch darum, als Gesellschaft eine Einigung darüber zu erzielen, wie man mit KI umgehen wolle. Der Fokus auf eine existenzielle Bedrohung, wie er im Paper bestehe, würde davon jedoch ablenken. Letztlich sollte man skeptischer gegenüber KI sein, die heute schon eingesetzt werde, statt einfach nur anzunehmen, dass diese tue, was man sich erhoffe. (gpi, 22.9.22)