KI wird immer wichtiger im Alltag und in der Industrie.

Foto: Getty Images / Yuichiro Chino

Es ist eine Technologie, die fast jeden Lebensbereich durchdrungen hat – und dennoch kaum reguliert wird. Die bestimmt, welche Inhalte wir im Internet zu sehen bekommen, unsere Sprachassistenten antreibt und uns auf schnellstem Wege von A nach B navigiert. Die Rede ist von künstlicher Intelligenz (KI), die im Laufe der letzten Jahre beeindruckende Entwicklungssprünge zurückgelegt hat. Große Wellen schlugen in den letzten Monaten vor allem die Kunst-KIs Midjurney, Dall-E und Stable Diffusion. Im Laufe des ersten Dezember-Wochenendes eroberte dann die auf Text fokussierte KI "Chat GPT" soziale Medien.

Bei all diesen Beispielen handelt es sich um Features, die für Konsumentinnen und Konsumenten angenehme Vorteile bergen. Die Technologie an sich birgt jedoch Risiken; etwa durch Diskriminierung wegen des Geschlechts oder der Herkunft, aber auch durch einen Eingriff in die Grundrechte mit Gesichtserkennungssystemen und Überwachungsmaßnahmen. Ein Problem, dem sich die EU mit dem AI Act annehmen will. Ein Gesetz also zur umfassenden Regulierung künstlicher Intelligenz. Am Dienstag verkünden die Mitgliedsstaaten in Form des EU-Rats ihre gemeinsame Position. Sobald das Europäische Parlament seinem Beispiel folgt, gehen die Verhandlungen in die nächste Runde.

Innovation und Sicherheit

Grundsätzlich ziele man darauf ab, "die EU zu einem erstklassigen Zentrum für KI zu machen und sicherzustellen, dass die KI auf den Menschen ausgerichtet und vertrauenswürdig ist", kann man auf der Webseite der EU-Kommission lesen. Es soll also einerseits die Entwicklung neuer Systeme vorangetrieben und die Innovation gestärkt werden, damit die Union eine strategische Führungsrolle einnehmen kann. Andererseits soll ein einheitlicher Rechtsrahmen geschaffen werden, um die Risiken für die Grundrechte von Menschen zu minimieren.

Foto: APA/AFP/STEFANI REYNOLDS

Um eine konsequente Umsetzung der Regeln zu garantieren, sollen vier verschiedene Risikolevels festgelegt werden: minimales Risiko, begrenztes Risiko, hohes Risiko und unannehmbares Risiko. Die Einteilung geschieht anhand der Anwendungszwecke. Laut EU-Kommission gelten zum Beispiel die kritische Infrastruktur, das Bildungssystem, der Arbeitsmarkt und die Strafverfolgung als Lebensbereiche, in denen künstliche Intelligenz ein hohes Risikopotenzial birgt.

Risikobewertung

Dort angewandte KI-Systeme sollen strikten Regeln unterworfen werden, um die algorithmische Blackbox aufzubrechen. So sollen sie zum Beispiel einer Risikobewertung unterzogen werden. Außerdem müsse sichergestellt werden, dass die Datensätze, mit denen das System gespeist wird, von hoher Qualität sind. Die Ergebnisse sollen nachverfolgbar sein und die Anwendung dokumentiert werden. Außerdem sollen Userinnen und User ausreichend informiert werden. Um trotz schneller technologischer Entwicklungen Zukunftssicherheit zu garantieren, sollen die Regeln zudem eine gewisse Flexibilität haben.

Die Betroffenenrechte will die EU mit der Richtlinie zu KI-Haftung stärken. Das Gesetz ist zusätzlich zum AI Act in Arbeit und soll sicherstellen, "dass Opfer von durch KI-Technologie verursachten Schäden in gleicher Weise entschädigt werden, als wenn dies unter anderen Umständen geschehen wäre", schreibt die EU-Kommission. Die Richtlinie soll die Beweislast der Betroffenen erleichtern. Außerdem soll ihnen "Zugang zu einschlägigen Beweismitteln" verschafft werden, wenn Schäden verursacht wurden. "Die Opfer können bei Gericht beantragen, die Offenlegung von Informationen über Hochrisiko-KI-Systeme anzuordnen", heißt es hierzu.

Zeitplan

Bis der AI Act anzuwenden ist, wird es noch eine ganze Weile dauern. Nachdem der EU-Rat am Dienstag seine gemeinsame Position bekanntgibt, ist das EU-Parlament am Zug. Eine Einigung wird wegen einer Verzögerung im ersten Quartal 2023 erwartet. Erst dann können die Trilogverhandlungen aller drei EU-Institutionen beginnen. Voraussichtlich 2025 muss die Verordnung dann umgesetzt werden. (mick, 6.12.2022)