Brüssel möchte künstliche Intelligenz strenger regulieren.


(Dieses Bild wurde mit der Bilder-KI Midjourney generiert. Der Prompt lautete: Angry battle robot destroying the atomium in bruxelles, in the style of a modern graphic novel, 4k)

Foto: Midjourney/Stefan Mey

Die Entwicklung von künstlicher Intelligenz (KI) pausieren, bis ausreichend geklärt ist, inwiefern diese "tiefgreifende Veränderung in der Geschichte des Lebens auf der Erde" kontrolliert werden kann – das ist die zentrale Forderung eines offenen Briefs, der von über 1.000 prominenten Personen unterschrieben wurde, darunter auch Tech-Größen wie Twitter-CEO Elon Musk und Apple-Mitgründer Steve Wozniak.

"Dataismus" als neue Religion

Ebenso gehört der israelische Historiker Yuval Noah Harari zu den Unterzeichnern des Briefes. In seinem Bestseller "Homo Deus" skizzierte er bereits 2015, wie diese besagten "tiefgreifenden Veränderungen" aussehen könnten. Basierend auf historischen Entwicklungen prognostiziert Harari in dem Buch, dass Menschen durch technologische Entwicklungen im Lauf des 21. Jahrhunderts gottähnliche Zustände erreichen könnten.

Teil dieser Prognose ist das Aufkommen des "Dataismus" – einer neuen Art Religion, die Menschen als Datensätze wertet und die größtmögliche Verknüpfung dieser Daten als oberstes Ziel sieht. Hier kommt die KI ins Spiel, denn die Algorithmen sollen die wichtigsten Entscheidungen der Menschen treffen, von der Partner- bis zur Berufswahl.

Keine Science-Fiction

"Was wird mit unserer Gesellschaft, der Politik und unserem alltäglichen Leben geschehen, wenn hochintelligente Algorithmen ohne Bewusstsein uns besser kennen, als wir uns selbst kennen?", schließt Harari das Buch mit einer Frage an die Leserschaft. Später betonte er immer wieder, dass man Politikerinnen und Politiker vor einer Wahl fragen müsse, wie sie disruptive Technologien wie KI regulieren wollen.

Ein Algorithmus, der uns besser kennt, als wir uns selbst kennen? Das ist längst keine Science-Fiction mehr, wie unter anderem der Cambridge-Analytica-Skandal vor fünf Jahren zeigte. Hier wurden persönliche Daten aus dem Social Network Facebook genutzt, um Menschen gezielt zu manipulieren und die US-Wahlen ebenso wie das Brexit-Referendum zu beeinflussen.

An anderer Stelle unterschrieben mehrere Premierminister zuletzt einen offenen Brief, in dem sie Tech-Konzerne aufforderten, aggressiver gegen Falschinformationen auf ihren Plattformen vorzugehen. Auch Fake News sind ein gegenwärtiges Problem, das durch per KI generierte Bild-, Audio- und Videofälschungen neue Tragweite erlangt.

Regulierung ante portas

Politische Entscheidungsträger sind sich dieser Themen bewusst, weshalb auf EU-Ebene gleich an mehreren gesetzlichen Maßnahmen geschraubt wird, die sich auch auf den Einsatz von KI in Österreich auswirken werden. Kernstück des Gesetzespakets ist der AI Act – eine EU-Verordnung, die derzeit im Europäischen Parlament behandelt wird.

In Kraft treten wird der AI Act frühestens 2024. Danach wird es wohl noch eine zweijährige Anpassungsfrist für Unternehmen geben, erläutert Jeannette Gorzala, Chief Legal Officer der österreichischen KI-Interessenvertretung AI Austria. Mit dem AI Act wird das Ziel einer strikteren Regulierung von KI verfolgt, anhand von verschiedenen Risikogruppen soll festgelegt werden, was erlaubt ist und was nicht.

Eine Frage der Haftung

Ein anderer Aspekt ist die konkrete Haftung im Schadensfall – also wenn etwa ein Algorithmus entscheidet, dass eine Studentin kein Stipendium bekommt oder ein Bewerber bei der Jobsuche zu Unrecht diskriminiert wird. Hierzu ist die KI-Haftungsrichtlinie in Arbeit, die laut Gorzala wohl gemeinsam mit dem AI Act als Legislaturpaket präsentiert wird.

Denn momentan ist es für Geschädigte vor Gericht schwierig, Ansprüche geltend zu machen, da sie weder die Kausalität noch die Rechtswidrigkeit nachweisen können. Künftig sollen Geschädigte die Beweismittel einfordern können, damit die Zusammenhänge leichter feststellbar sind.

Ähnliches soll auf nationaler Ebene mit einer Novelle des Produkthaftungsgesetzes (PHG) erreicht werden. Denn das österreichische PHG stammt aus den 1980er-Jahren. Mit der neuen Version soll erreicht werden, dass Haftungsansprüche auch bei Software geltend gemacht werden können.

Was soll reguliert werden?

Dass KI reguliert werden muss, das befürwortet man auch in der Branche. So verweist Mira Murati, CTO des KI-Unternehmens Open AI, auf die Gefahren künstlicher Intelligenz und setzt sich für stärkere Regulierung ein. Viele Unterzeichner des eingangs erwähnten Briefs sind selbst im KI-Bereich tätig.

Clemens Wasner, Vorsitzender von AI Austria und CEO des KI-Unternehmens Enlite AI, sieht vor allem Handlungsbedarf im Bereich der Transparenz: Kunden sollten wissen, ob sie mit einem Bot oder mit einem Menschen reden. Die Grundlagen für durch Algorithmen getroffene Entscheidungen sollten einsehbar sein. Und im Kampf gegen Desinformation braucht es eine Kennzeichnungspflicht für manipulierte Bilder.

Viel Kritik

"Wir lehnen Regulierung nicht ab, doch sie muss an den richtigen Stellschrauben geschehen", sagt Wasner. Außerdem müsse ein Bewusstsein für den Zweck und die Limitationen der Tools geschaffen werden. ChatGPT etwa ist ein Sprachmodell, kein Recherchetool. In den vergangenen Wochen hat es oft genug gezeigt, dass es auch Falschinformationen ausspuckt.

An Kritik gegenüber dem AI Act hapert es aber ohnehin nicht. So sieht die Verordnung zwar vor, dass Social-Scoring-Modelle wie in China hierzulande verboten werden – Schlupflöcher für Massenüberwachung via KI gibt es aber mehr als genug, wie Datenschützer kritisieren. So sieht der Vorschlag des EU-Rats vor, dass KI-gestützte Systeme zur Identifizierung von Menschen im öffentlichen Raum durchaus genutzt werden können, um gezielt nach Opfern von Straftaten oder nach vermissten Kindern zu suchen.

Bedenken gibt es aber auch aus der Wirtschaft. So kritisiert Daniel Abbou, Geschäftsführer des KI-Bundesverbands Deutschland, dass bei der Einteilung der Risikogruppen nicht ausreichend zwischen Konzernen und Start-ups differenziert werde, was das Aufstreben innovativer neuer Unternehmen verhindern könnte. Und Wasner sieht eine gewisse Asymmetrie, dass in Europa zwar viel reguliert, aber zu wenig gefördert werde.

"Europa hat hier das strategische Denken verloren", sagt Wasner: In Europa ging eine starke Autoindustrie mit einer strikten Regulierung von Abgaswerten einher – bei KI hingegen setze man ausschließlich auf Regulierung. (Stefan Mey, 30.3.2023)