Eine Frau und ein Mann stehen vor einem großen Bildschirm
Künstliche Intelligenz ist derzeit in aller Munde.
Getty Images

EU-Mühlen mahlen meistens langsam, bei der Regulierung von künstlicher Intelligenz haben sie zumindest früh damit angefangen. Bereits 2021 hatte die EU-Kommission ihren Vorschlag für den weltweit ersten Rechtsrahmen von KI vorgelegt. Nachdem sich im Juni dieses Jahres das Parlament auf eine Position geeinigt hat, gehen nun die Verhandlungen mit den EU-Mitgliedsstaaten über den endgültigen Wortlaut des Gesetzes in die finale Runde. Es bestehe eine reale Chance, dass die Verhandlungen über den AI-Act am 6. Dezember abgeschlossen werden, sagte der Chefverhandler des Europaparlaments, der Rumäne Dragos Tudorache, dem STANDARD am Mittwoch.

Scheitern könnte eine Einigung noch am Widerstand von Deutschland, Italien oder Frankreich. Deutschland wolle vor allem die Anwendungen zu KI und die Forschung nicht behindert wissen, sagte der rumänische Abgeordnete. Frankreich bringt Bedenken der Wirtschaft ein. Diskussionsbedarf gebe es auch noch, was die Abwägung zwischen Interessen der öffentlichen Sicherheit und Interessen des Datenschutzes betrifft. Massenüberwachung und automatische Gesichtserkennung sollen laut dem Text weitgehend verboten werden.

Risikoanalyse als Basis

In Geltung tritt die KI-Verordnung, auch wenn sie tatsächlich im Dezember finalisiert wird, nicht vor 2025, denn das Gesetz sieht Übergangsfristen von bis zu 18 Monaten vor. So lange haben die Unternehmen Zeit, sich an die neuen Regeln anzupassen. In dieser Zeit entwickelt sich künstliche Intelligenz natürlich weiter. Um die Lücke zu überbrücken, will die EU für große Technologiekonzerne Anreize zur Selbstkontrolle setzen. Für die Konzerne stehe viel auf dem Spiel, sagte der Berichterstatter. Diese hätten Milliarden bereits in das Training von AI-Modellen investiert.

Die Verordnung selbst basiert auf einem System der Risikoanalyse und könnte damit auch auf zukünftige Entwicklungen angewendet werden. Der Ansatz könnte damit auch zum globalen Vorbild für KI-Regulierungen taugen, so Tudorache.

Hochrisikoanwendungen

Im Act sollen bestimmte Modelle und Anwendungen vollständig verboten werden, andere würden nach hohem, mittlerem und null Risiko unterschieden. So werden beispielsweise KI-Systeme, welche die Gesundheit, die Sicherheit und die Grundrechte von Menschen oder Umwelt erheblich gefährden, als Hochrisikoanwendungen gelten. Ein Risiko sieht Tudorache auch in den vielseitigen potenziell illegalen Anwendungen. So könne man etwa via ChatGPT Anleitungen zur Herstellung von biologischen Kampfstoffen erstellen lassen. Auch KI-Systeme, die zur Wahlbeeinflussung oder zur strategischen Desinformation eingesetzt werden, sollen als hochriskant gelten.

Relevant ist das Thema auch geopolitisch. Die mächtigsten KI-Systeme werden in den USA und China entwickelt. Gerade deshalb müsse man alles daransetzen, die KI nach europäischen Werten zu regulieren, hieß es in Brüssel. (mhe, 29.11.2023)