Yoshua Bengio, ist der wissenschaftliche Leiter des Mila Quebec AI Institute.
AFP/ANDREJ IVANOV

Es könnte noch ein paar Jahre oder auch Jahrzehnte dauern, bis Künstliche Intelligenz (KI) quasi "übermenschlich" wird. Vorbereiten müsste man sich jedenfalls bereits jetzt darauf, zeigte sich der oft als "KI-Pate" titulierte Informatiker Yoshua Bengio überzeugt. Er plädiert für multilaterale, unabhängige KI-Labore, die sich auf das mögliche Auftauchen von "Schurken-KIs" vorbereiten und diese im Fall der Fälle bekämpfen.

Dass zukünftige Systeme eine existenzielle Bedrohung für die Menschheit darstellen würden, sei nicht zwangsläufig so, aber "beim derzeitigen Stand der Technik ist eine Gefährdung der Demokratie, der nationalen Sicherheit und der Verlust der Kontrolle an übermenschliche KI-Systeme sehr plausibel. Das ist keine Science-Fiction", so Bengio, Professor an der Universität Montréal (Kanada) und Vorreiter im Bereich Deep Learning, also dem Training mit großen Datenmengen zur Lösung komplexer Aufgaben, gegenüber der APA. Umso bedeutender sei es, sich auf die möglichen Risiken vorzubereiten.

KI wirkt überzeugend

Aktuell werde viel über Deepfakes, das sind realistisch wirkende Stimmen, Bilder oder Videos, die mittels KI erstellt oder bearbeitet werden, diskutiert - etwa im Hinblick auf die Manipulation von Wahlen. Größere Sorgen machen dem kanadischen Experten Dialogsysteme, die eingesetzt werden, Menschen zu überzeugen. "Es gibt bereits einige Studien, die darauf hindeuten, dass sie vergleichbare oder bessere Leistungen erbringen als Menschen, wenn es darum geht, jemanden dazu zu bringen, seine Meinung zu einem bestimmten Thema zu ändern", sagte Bengio. Die Interaktionen könnten dabei für jede Person individuell gestaltet werden.

Sicherheitsbehörden in aller Welt würde wiederum die leichte Verfügbarkeit von Wissen zu denken geben. "Die Systeme könnten missbraucht werden, alle Arten von Waffen zu entwerfen oder zu bauen", so Bengio, der 2018 zusammen mit Geoffrey Hinton und Yann LeCun mit dem Turing Award, einer der in der Informatik höchst angesehenen und prestigeträchtigsten Auszeichnungen, geehrt wurde. Die Palette reiche von Cyberangriffen bis hin zu biologischen und chemischen Waffen. Es herrsche Sorge darüber, dass KI-Unternehmen nicht über ausreichende Sicherheitsvorkehrungen verfügen.

Natürlich gebe es auch immense Vorteile und Chancen durch KI, das sei gar nicht das Thema. "Aber wenn es Terroristen dadurch leichter gemacht wird, wirklich schlimme Dinge zu tun, dann müssen wir Entscheidungen mit Bedacht treffen. Und es sollte nicht der CEO eines Unternehmens sein, der diese Entscheidungen trifft", sagte der Experte, der gestern, Dienstagabend, auch einen Vortrag im Rahmen der Feierlichkeiten zum 20-jährigen Jubiläum der Fakultät für Informatik und zum 50-jährigen Jubiläum der Informatik-Lehre an der Universität Wien gehalten hat.

Möglicher Kontrollverlust

Am beängstigenden sei aber der mögliche Kontrollverlust an übermenschliche KI-Systeme, die sich außerhalb des Computers, auf dem sie laufen, verbreiten, zudem lernen könnten, Menschen zu manipulieren, und letztendlich vielleicht sogar selbst Roboter oder andere industrielle Geräte steuern. Wenn es gelinge, KI-Systeme zu entwickeln, die smarter sind als die Menschen und ein "Selbsterhaltungsziel" verfolgen, "dann ist das so, als ob wir eine neue Spezies erschaffen - und das ist keine gute Idee. Zumindest bis wir die Folgen besser verstehen. Wie groß das Risiko ist, weiß niemand. Aber das ist ein Teil des Problems", erläuterte Bengio.

Wie schnell sich die Technologie in diese Richtung weiterentwickeln werde, sei umstritten. Schätzungen würden zwischen drei Jahren und mehreren Jahrzehnten schwanken. Die aktuell massiven Investitionen könnten den Prozess jedenfalls beschleunigen. Relevant sei letzten Endes nur, "die Risiken in den Griff zu bekommen und dabei zu berücksichtigen, dass, wenn es schnell gehen muss, es zu spät sein könnte, die richtigen Rechtsvorschriften und internationalen Verträge zu schaffen".

Defensive KI gegen Schurken

Einen Ansatz, dieser Bedrohung entgegenzuwirken, sieht Bengio darin, ein multilaterales Netzwerk von öffentlich finanzierten, gemeinnützigen KI-Laboren aufzubauen, die sich auf das mögliche Auftauchen von abtrünnigen KI-Systemen vorbereiten. Im Fall der Fälle könnte dann eine sichere und defensive KI dagegen eingesetzt werden. Eine kooperative Gruppe von Demokratien sollte gemeinsam an der Gestaltung mitwirken, weil sich die möglicherweise negativen Auswirkungen der KI nicht an Grenzen halten würden. Entsprechende Verteidigungsmethoden und viele Aspekte der Forschung daran müssten vertraulich behandelt werden, um es der "Schurken-KI" zu erschweren, die neuen Abwehrmaßnahmen zu umgehen, wie er auch in einem Artikel im "Journal of Democracy" empfiehlt.

Die größte Wirkung hätte eine KI-Regulierung, bei der die Entwickler nachweisen müssten, dass die KI-Systeme sicher sind und die Kontrolle nicht verloren gehen könne. "Im Moment weiß niemand, wie man das macht. Aber wenn man so etwas vorschreibt, würden die Unternehmen, die ja das Geld und das Talent haben, schon jetzt viel mehr Forschung betreiben, um sichere Systeme zu bauen, und ihre Energie in den Schutz der Öffentlichkeit stecken", so der Experte. Ein Unternehmen, das neue Medikamente herstelle, müsse schließlich auch wissenschaftlich nachweisen, dass die Anwendung sicher sei. Diese Anstrengungen gebe es in der KI-Industrie aber nicht, weil es im harten Wettbewerb keine Priorität habe.

Letztendlich gebe es noch zahlreiche Herausforderungen im Hinblick auf das wissenschaftliche Verständnis von KI-Sicherheit, aber auch die politische Verantwortung sicherzustellen, dass beim Bau einer sicheren KI, sobald das möglich ist, entsprechende Protokolle befolgt werden. Nur so sei zu erreichen, "dass keine einzelne Person, kein einzelnes Unternehmen und keine einzelne Regierung diese Art von Macht missbrauchen kann", so Bengio. (APA, 8.5.2024)