In dieser Abbildung liegen die Buchstaben A und I (das steht für Artificial Intelligence) auf dem Motherboard eines Computers
Eigentlich sollte der AI Act der EU eine Vorreiterrolle einnehmen, wenn es um die Regulierung von KI-Modellen geht. Eine verspätete Verabschiedung des Gesetzes könnte einen erheblichen Rückschlag bedeuten.
REUTERS/DADO RUVIC

Die laufenden Beratungen zum AI Act der Europäischen Union scheinen an einem kritischen Punkt angelangt zu sein. Die europäischen Gesetzgeber sind in kontroverse Debatten über die angemessene Regulierung und Risikoeinschätzung von KI-Modellen verstrickt – die Verabschiedung des Gesetzes bis Ende 2023 steht damit auf der Kippe.

Die Uneinigkeit scheint besonders ausgeprägt, seit Spanien, das noch bis Dezember die EU-Ratspräsidentschaft innehat, Vorschläge für häufigere und gründlichere Überprüfungsverfahren vorgelegt hat. Diese sollen potenzielle Schwachstellen aufdecken und einen differenzierten und abgestuften Regulierungsrahmen einführen, der unter anderem die Anzahl der Nutzer eines Modells berücksichtigt.

Die KI-Gesetzgebung in der EU war bisher Gegenstand intensiver Diskussionen in einer Reihe von Trilogen. Trotz dieser intensiven Diskussionen droht eine Verzögerung, da für Dezember ein weiteres Treffen als Notfallplan geplant ist, falls die Parteien in den nächsten Tagen keine gemeinsame Basis finden. Sollte sich der Entscheidungsprozess bis ins nächste Jahr hinziehen, wäre dies ein erheblicher Rückschlag für den europäischen Gesetzgeber: Schließlich hatte man sich zum Ziel gesetzt, in diesem Bereich eine Vorreiterrolle einzunehmen und daher den AI Act noch in diesem Jahr zu verabschieden.

Die Vorreiterrolle wackelt

Aktuell ist für die KI-Gesetzgebung vorgesehen, dass Entwickler von entsprechenden Systemen ausführliche Vorgaben erfüllen müssen. Sie sollen sicherstellen, dass mögliche Risiken sorgfältig geprüft, die Modelle intensiv getestet (sowohl während ihrer Entwicklung als auch vor der Markteinführung), Verzerrungen in den Trainingsdaten überprüft, die Datenvalidierung gewährleistet und technische Unterlagen vor der Markteinführung veröffentlicht werden. Damit will man ein hohes Maß an Sicherheit und Transparenz in der KI-Entwicklung gewährleisten.

In diesem Zusammenhang haben sich auch mehrere Open-Source-Unternehmen sich zu Wort gemeldet und die EU aufgefordert, die besonderen Herausforderungen zu berücksichtigen, mit denen kleinere Unternehmen in diesem Sektor konfrontiert sind. Sie argumentieren, dass die regulatorische Belastung für einige Entwickler erdrückend sein könnte, und betonen die Notwendigkeit einer klaren Abgrenzung zwischen gewinnorientierten KI-Modellen und der Arbeit von Hobbyisten und Forschern.

Der AI Act der EU dient vielen Regierungsvertretern weltweit als Vorbild für eigene Regulierungsbemühungen im Bereich der künstlichen Intelligenz. Das vergleichsweise geringe Tempo, das die EU mittlerweile an den Tag legt, ist jedoch nicht unbemerkt geblieben – insbesondere im Vergleich zu anderen internationalen Akteuren wie China. Dieses hat bereits im August eigene Regelungen in Kraft gesetzt. (bbr, 24.10.2023)