Cathy Li, Mitglied des Exekutivkomitees des Weltwirtschaftsforums, und Klaus Schwab, Gründer und geschäftsführender Vorsitzender des Forums, fordern in ihrem Gastkommentar, dass sich die verschiedenen Interessengruppen rasch darauf verständigen müssen, wie man die Entwicklung von KI am besten lenken kann.

In den letzten Monaten hat sich die Entwicklung künstlicher Intelligenz beträchtlich beschleunigt. Generative KI-Systeme wie ChatGPT und Midjourney sind in rasantem Tempo dabei, ein breites Spektrum beruflicher Tätigkeiten und kreativer Prozesse zu revolutionieren. Das Zeitfenster, um die Entwicklung dieser leistungsstarken Technologie in einer Weise zu lenken, die die Risiken minimiert und den Nutzen maximiert, schließt sich rasch.

Die rasch fortschreitende Technologie sorgt für Handlungsbedarf.
Foto: Getty Images

KI-gestützte Fähigkeiten bestehen entlang eines Kontinuums. Generative KI-Systeme wie GPT-4 – die aktuellste Version von ChatGPT – fallen dabei in die fortschrittlichste Kategorie. Da diese Systeme am vielversprechendsten sind und die gefährlichsten Fallgruben bergen können, bedürfen sie besonders genauer Prüfung durch die verschiedenen öffentlichen und privaten Interessengruppen.

Der technologische Fortschritt war für die Gesellschaft bisher praktisch immer sowohl mit positiven wie mit negativen Auswirkungen verbunden. Einerseits hat er die wirtschaftliche Produktivität und das Einkommenswachstum gesteigert, den Zugriff auf Informations- und Kommunikationstechnologien erweitert, die menschliche Lebensdauer verlängert und das Wohlbefinden im Allgemeinen verbessert. Andererseits hat er zur Vernichtung von Arbeitsplätzen, stagnierenden Löhnen, größerer Ungleichheit und einer zunehmenden Konzentration von Ressourcen zwischen Einzelnen und Unternehmen geführt.

"Eine Spitzenpriorität muss es sein, kontinuierlich darauf hinzuarbeiten, beim Training der KI systemische Voreingenommenheiten auszuräumen, damit Systeme wie ChatGPT diese nicht reproduzieren oder sogar verschärfen."

Bei der KI ist das nicht anders. Generative KI-Systeme eröffnen uns eine Vielzahl von Möglichkeiten in Bereichen wie dem Produktdesign, der Content-Erstellung, der Entdeckung von Medikamenten und der Krankenversorgung, der personalisierten Bildung und der Optimierung des Energieverbrauchs. Zugleich könnten sie unsere Volkswirtschaften und Gesellschaften stark destabilisieren und ihnen sogar schaden.

Die von einer hochentwickelnden KI schon jetzt ausgehenden beziehungsweise absehbaren Risiken sind beträchtlich. Über eine breite Neuausrichtung der Arbeitsmärkte hinaus können sogenannte Large-Language-Model- (LLM-) Systeme die Verbreitung von Falschinformationen steigern und schädliche Voreingenommenheiten verfestigen. Zudem droht die generative KI, die wirtschaftliche Ungleichheit zu verschärfen. Womöglich gehen von derartigen Systemen sogar existentielle Risiken für die Menschheit aus.

Auf der Bremse

Für manche ist das ein Grund, bei der KI-Forschung auf die Bremse zu treten. Im letzten Monat empfahlen mehr als 1000 KI-Technologen – von Elon Musk bis Steve Wozniak – in einem offenen Brief, dass KI-Labors das Training von Systemen, die leistungsstärker seien als GPT-4, für mindestens sechs Monate aussetzen sollten. Während dieses Zeitraums sollten eine Reihe gemeinsamer, "von unabhängigen außenstehenden Experten streng überprüfter und beaufsichtigter" Sicherheitsprotokolle konzipiert und umgesetzt werden.

Dieser offene Brief und die von ihm ausgelöste hitzige Debatte unterstreichen die dringende Notwendigkeit, dass sich die verschiedenen Interessengruppen im Rahmen eines umfassenden, auf Treu und Glauben ablaufenden Prozesses bemühen, robuste gemeinsame Richtlinien für die Entwicklung und Nutzung hochentwickelter KI zu vereinbaren. Diese Bemühungen müssen Themen wie die Automatisierung und die Vernichtung von Arbeitsplätzen, die digitale Kluft und die Konzentration der Kontrolle über technologische Anlagen und Ressourcen wie Daten und Rechenleistung berücksichtigen. Und eine Spitzenpriorität muss es sein, kontinuierlich darauf hinzuarbeiten, beim Training der KI systemische Voreingenommenheiten auszuräumen, damit Systeme wie ChatGPT diese nicht reproduzieren oder sogar verschärfen.

Vorschläge zur Regulierung

Es werden unter anderem in den USA und in der EU bereits Vorschläge zur Regulierung von KI und digitalen Diensten entwickelt. Organisationen wie das Weltwirtschaftsforum leisten ebenfalls Beiträge. 2021 hat das Forum die Globale Koalition für digitale Sicherheit gegründet, die darauf zielt, Interessengruppen bei der Bekämpfung schädlicher Inhalte online zu unterstützen und den Austausch bewährter Verfahren zur Regulierung der Onlinesicherheit zu fördern. Das Forum spricht sich nun für eine dringende öffentlich-private Zusammenarbeit aus, um den mit dem Aufkommen der generativen KI einhergehenden Herausforderungen zu begegnen und einen Konsens über die nächsten Schritte bei der Entwicklung und Nutzung der Technologie herbeizuführen.

Die generative KI wird die Welt verändern – ob es uns gefällt oder nicht. Ein kooperativer Ansatz ist an diesem entscheidenden Punkt der Entwicklung der Technologie unverzichtbar, damit wir alles in unserer Macht Stehende tun können, um den Prozess mit unseren gemeinsamen Interessen und Werten zur Deckung zu bringen. (Cathy Li, Klaus Schwab, Übersetzung: Jan Doolan, Copyright: Project Syndicate, 27. 4. 2023)