Bei den rechtlichen Rahmenbedingungen für künstliche Intelligenz muss auch eine Reihe an ethischen Fragen berücksichtigt werden.
Illustration: Getty / iStock / Maksim Tkachenko

"Guten Tag, Sie sprechen mit einer künstlichen Intelligenz" – so vertraut die Cookie-Banner beim Surfen inzwischen sind, so alltäglich könnten auch Hinweise zu künstlichen Intelligenzen werden. Ende April veröffentlichte die EU-Kommission den Vorschlag zu einer Verordnung, die regeln soll, wie diese Technologien in Europa eingesetzt werden dürfen – und was verboten ist. Die Richtlinie sieht unter anderem vor, dass sich künstliche Intelligenzen im Umgang mit Menschen als solche zu erkennen geben müssen.

Zahlreiche Wissenschafter waren im Vorfeld in den Diskussionsprozess um die Spielregeln für künstliche Intelligenz eingebunden. Insbesondere die High-Level Expert Group on Artificial Intelligence der Europäischen Kommission hatte eine wichtige Beratungsfunktion. Eines ihrer Mitglieder war Mark Coeckelbergh, Professor für Technikphilosophie an der Universität Wien. Den nun veröffentlichten Richtlinien für den Umgang mit künstlicher Intelligenz begegnet er mit gemischten Gefühlen. In den veröffentlichten Vorschlag der EU-Kommission war er nicht eingebunden. "Es gab keinen transparenten Prozess, Feedback von Experten einzuholen – das hat mich schon recht enttäuscht", sagt Coeckelbergh.

Wo beginnt Manipulation?

"Generell finde ich es sehr gut, dass die EU-Kommission nun einen Vorschlag veröffentlicht und damit auch einige rote Linien vorgegeben hat", sagt der Technikphilosoph, der auf ethische Fragen zu künstlicher Intelligenz spezialisiert ist. Insbesondere begrüßt er die entschiedene Ablehnung von Manipulation oder Beeinflussung von vulnerablen Personen durch künstliche Intelligenz. Offen bleibt aber für ihn, wie diese vage Vorgabe in Gesetze gegossen werden kann.

Mark Coeckelbergh ist Professor für Technikphilosophie an der Universität Wien.
Foto: Universität Wien/Martin Jordan

"In der Praxis wird es schwierig werden zu definieren, wann Manipulation gegeben ist und wann nicht", sagt Coeckelbergh, der auch Mitglied des Österreichischen Rats für Robotik und Künstliche Intelligenz ist, eines Beratungsorgans des Klimaschutzministeriums. "Wenn ich etwa in sozialen Medien unterwegs bin, basiert mitunter die Art und Weise, wie diese Plattformen funktionieren, auf Manipulation: Firmen können Werbung maßgeschneidert personalisieren, basierend auf den Daten, die ihnen von Plattformen wie Facebook verkauft werden. Das könnte bereits als eine Form der Manipulation gesehen werden." Wo verläuft also die Grenze zwischen Manipulation und dem erlaubten Betätigungsfeld künstlicher Intelligenz? Für Coeckelbergh bleibt diese Frage durch die neue EU-Richtlinie offen. "Es werden sehr viele Anwälte sehr viel Geld damit verdienen, solche Fragen auszujudizieren", sagt der Technikphilosoph.

Bemerkenswert ist für Coeckelbergh, dass sich die EU-Kommission klar gegen Social Scoring durch künstliche Intelligenz ausspricht. Es geht dabei um ein Ratingsystem für erwünschtes Verhalten. Ein derartiges Sozialkreditsystem ist bereits großflächig in China ausgerollt. Dass sich ein Staat oder eine Staatengemeinschaft solche Anwendungen dezidiert untersagt, "haben wir so bisher noch nicht gesehen", sagt Coeckelbergh.

Ethischer als andere

Doch welche Folgen könnten sich für die Forschung zu künstlicher Intelligenz in Europa ergeben, wenn Anwendungen untersagt werden sollen, die etwa in China und den USA bereits alltäglich sind? Was die Forschung zu künstlicher Intelligenz etwa an Universitäten angeht, sieht Coeckelbergh keinerlei Einschränkungen durch die neuen Vorgaben. "Für Start-ups oder große Konzerne gibt es aber Änderungen." Doch das sei nicht unbedingt als Nachteil zu bewerten, meint Coeckelbergh: "Wir sollten in Europa nicht immer zu sehr darauf achten, was China oder die USA tun. Wenn Europa ethischer agieren will als die anderen, dann sollte es das einfach tun."

Aus ethischer Sicht sei entscheidend, dass "der globale Wettbewerb nicht als Argument dafür verwendet wird, die ethischen Standards zu untergraben", sagt Coeckelbergh. Für die Zukunft sei nun ausschlaggebend, wie die Richtlinien in Gesetze gegossen werden und wie all das überwacht wird. "Wenn es keine zentrale Aufsicht gibt, werden diese Vorgaben wenig Gewicht haben." (Tanja Traxler, 5.5.2021)