Buchstaben A und I
a
Die Verabschiedung des Gesetzes könnte sich ohne eine baldige Einigung bis nach den Europawahlen verzögern.
REUTERS/DADO RUVIC

Brüssel – Es ist ein Nervenkrimi, der sich in Brüssel gerade abspielt: Donnerstagfrüh hieß es noch, das Europaparlament, die EU-Kommission und die EU-Staaten hätten sich Insidern zufolge grundsätzlich auf den AI Act verständigt. Nach zehnstündigen Gesprächen habe man sich im sogenannten Trilog auf Gesetze zur Regulierung von künstlicher Intelligenz (KI) wie ChatGPT geeinigt, sagte eine mit der Angelegenheit vertraute Person der Nachrichtenagentur Reuters. Die Gespräche, die am Mittwoch um 16 Uhr mitteleuropäischer Zeit begonnen hatten, wurden in der Nacht fortgesetzt. Doch ganz so einig ist man sich anscheinend nicht.

Eigentlich hätten die Ergebnisse der Verhandlungen am Donnerstag um 10 Uhr vor Journalistinnen und Journalisten präsentiert werden sollen – aber die Verhandlungen dauerten trotz der zuvor verkündeten Einigung noch an. Kurz vor Donnerstagmittag kam die Information, dass es mit der Präsentation der Verhandlungsergebnisse wohl nichts mehr wird. Später kam die Meldung: Der Beschluss wurde vertagt, es wird am Freitag weiterverhandelt. Die Gespräche scheinen einmal mehr festzustecken.

Biometrische Kontrollen

Im Mittelpunkt stünden nun Details zum Einsatz biometrischer Kontrollen. Der Entwurf des Europaparlaments verbietet etwa die automatische Gesichtserkennung durch KI. Die EU-Staaten beharren dagegen auf Ausnahmen zum Schutz der nationalen Sicherheit, zur Verteidigung und für andere militärische Zwecke. Das Europaparlament sei in diesem Punkt Kompromisse eingegangen, um die Zustimmung aller 27 EU-Länder zu dem umstrittenen Thema zu erhalten, sagte ein Insider der Nachrichtenagentur Reuters. Damit dürften auch zahlreiche EU-Länder nachgegeben haben, die vereinzelt die Möglichkeiten von KI-gestützter Gesichtserkennung im öffentlichen Raum zur Strafverfolgung nutzen wollten.

Dieser Wunsch stand der Haltung des EU-Parlaments diametral entgegen. "Gesichtserkennung zur Massenüberwachung kennen wir aus China, diese Technologie hat in einer freiheitlichen Demokratie nichts zu suchen", sagte etwa Svenja Hahn, Abgeordnete von Renew Europe (FDP), im Gespräch mit dem STANDARD in Brüssel im Oktober. Vor allem zur Migrationskontrolle an den Grenzen wurde Gesichtserkennung immer wieder ins Spiel gebracht.

Auch in Österreich will man Zugriff auf die Technologie: Die Strafverfolgungsbehörden sollen zur Verfolgung schwerer Straftaten und nach richterlicher Genehmigung biometrische Überwachung einsetzen dürfen.

Streit über die Basismodelle

Auch über den Umgang mit sogenannten Foundation-Models wurde lebhaft gestritten. Diese Basismodelle sind die Grundlage für KI-Anwendungen. Diese Grundmodelle werden durch Machine-Learning mit einer großen Menge an Daten trainiert und können dann je nach Bedarf angepasst werden. So ist GPT-4 das Grundmodell von ChatGPT und Bing Chat. Der populäre Chatbot ist somit nur eine Anwendung, die auf GPT-4 basiert. Das am Mittwoch von Google präsentierte Gemini ist ein ebensolches Foundation-Model, auf das viele andere Anwendungen (wie Bard) aufgesetzt werden können.

Die Frage war, ob derartige Basismodelle schon reguliert werden sollen oder doch vom AI Act ausgenommen werden. Schließlich kommt es auf die Anwendung an, ob man einen unbedenklichen Chatbot erstellt, der bei den Hausaufgaben hilft, oder eine Anwendung erschafft, die Bewerber nach Religionszugehörigkeit, Ethnie oder Weltanschauung sortiert.

Die Regierungen der drei größten EU-Staaten Deutschland, Frankreich, Italien plädierten dafür, dass Basismodelle nur einer verbindlichen Selbstverpflichtung unterliegen sollen. "Zunächst sollen keine Sanktionen verhängt werden", heißt es in dem Papier. Würden aber nach gewisser Zeit Verstöße gegen den Verhaltenskodex festgestellt, könne ein Sanktionssystem eingerichtet werden. Eine europäische Behörde solle die Einhaltung der Standards kontrollieren.

Inakzeptable Risiken

Die Union verfolgt bei der Regulierung einen gefahrenbasierten Ansatz. Es kann schon jetzt mit Sicherheit gesagt werden, dass KI-Anwendungen in die Kategorien unbedenklich, KIs mit Transparenzverpflichtung, hohes Risiko oder inakzeptables Risiko eingestuft werden. Als inakzeptabel gelten etwa Social Scorings, also die Bewertung des Verhaltens von Bürgern, wie sie in China bereits eingesetzt werden. Im Reich der Mitte kann es etwa Probleme bei der Eröffnung eines Kontos geben, wenn man zu viele Strafzettel gesammelt hat. KIs mit hohem Risiko sind zwar erlaubt, müssen aber Risikoanalysen vorlegen und vor ihrem Einsatz überprüft werden. Dabei handelt es sich etwa um Anwendungen im medizinischen Bereich oder bei Bewerbungsprozessen. Chatbots wie ChatGPT oder Bard gelten gemeinhin als unbedenklich.

Dass nun offenbar eine Einigung bevorsteht, kommt überraschend. Noch im Herbst herrschte in Brüssel große Skepsis, ob der AI Act überhaupt noch vor den Europawahlen im kommenden Jahr fertig werden kann, zu weit lagen die Positionen zwischen EU-Parlament, Kommission und den Mitgliedsstaaten auseinander. Dabei stand für die EU viel auf dem Spiel, schließlich sollte der AI Act das erste detaillierte Regelwerk zur KI-Kontrolle werden. Deshalb hoffte man in Europa, dass die Regelungen weltweite Vorbildfunktion entwickeln und andere Länder den EU-Vorschlag übernehmen würden. Zwar sind die USA und China mit eigenen Vorschlägen vorgeprescht, aber das europäische Regelwerk wäre das weitreichendste und detaillierteste. (APA, pez, 7.12.2023)