ChatGPT Logo
Foundation Models bieten die Grundlage für Anwendungen wie ChatGPT
IMAGO/Panama Pictures

Beim europäischen "AI Act" zur Regulierung Künstlicher Intelligenz (KI) scheint eine Zustimmung Deutschlands alles andere als sicher. Ein Streitpunkt seien die Auflagen für Anbieter sogenannter Basismodelle, die aus Sicht des FDP-geführten Digitalministeriums zu streng seien, sagte Tobias Bacherle (Bündnis 90/Die Grünen), Bundestagsabgeordneter und Obmann im Digitalausschuss. Eine Sprecherin des Digitalministeriums betonte, dass die Abstimmung noch laufe: "Wir wägen hier sehr sorgfältig ab." Bis zum Freitag will sich die Regierung auf eine Position einigen. An diesem Tag sei das Gesetz Thema im Ausschuss der Ständigen Vertreter der Europäischen Union (EU), der die Tagungen des Rates vorbereitet.

Weiter verfeinern oder loslegen? 

Bei "Basismodellen" oder "Foundation Models" handelt es sich um die Grund-Technologie von ChatGPT & Co. Deutschland hatte im vergangenen Herbst gemeinsam mit Frankreich und Italien eine moderatere Regulierung vorgeschlagen, sich damit aber nicht durchsetzen können. Im Dezember hatten sich Europaparlament, EU-Kommission und EU-Staaten in mehreren Marathon-Sitzungen auf strengere Auflagen geeinigt und damit ein mehr als zweijähriges Tauziehen um das Gesetzesvorhaben vorläufig beendet.

"Die endlose Diskussion um KI-Risiken hat genug Zeit in Anspruch genommen – jetzt ist es an der Zeit zu handeln", forderte Nicole Büttner, stellvertretende Vorsitzende des Startup-Verbands. Deutschland solle dem "AI Act" zustimmen, um Verzögerungen oder ein Scheitern des Vorhabens zu verhindern, das zu einem "regulatorischen Flickenteppich" führen würde: "Startups wollen loslegen und Lösungen entwickeln."

Aus Sicht von Philipp Hacker, Professor für Recht und Ethik der digitalen Gesellschaft an der Europa-Universität Viadrina Frankfurt/Oder, sei der "AI Act" zwar nicht perfekt. "Er ist aber insgesamt besser als gar keine Regelung." Die Auflagen für die Unternehmen halte er für verhältnismäßig. Eine Ablehnung oder auch nur eine Enthaltung Deutschlands wäre ein fatales Signal, das viel politisches Kapital verbrennen würde.

Unpräzise Formulierungen?

Der deutsche Elektrotechnik-Verband ZVEI plädierte dagegen für ein Nein des Bundes. Viele Formulierungen im Gesetz seien unpräzise, wodurch auch grundsätzlich harmlose Anwendungen zu Hochrisiko-KI deklariert würden: "Deswegen unser Vorschlag: Diese Diskussion fortführen und einen Schnellschuss vermeiden."

Im "AI Act" werden KI-Anwendungen unterschiedlichen Risiko-Kategorien von "Minimal" über "Hoch" bis "Inakzeptabel" zugeordnet. Je nach Einstufung müssen die Anbieter bestimmte Sicherheits- und Transparenz-Anforderungen erfüllen. Einige Anwendungsbereiche wie die biometrische Echtzeit-Massenüberwachung werden komplett verboten. (Reuters, 29.1.2024)