Im Gastblog erklären Lukas Feiler, Beat König und Ariane Müller, wieso die Entwicklungen im Bereich der künstlichen Intelligenz (KI) viele Menschen stark verunsichern und wie der Unionsgesetzgeber versucht, dem entgegenzutreten.

Der Mathematiker Alan Turing, nicht zuletzt bekannt aus dem Film "Imitation Game", wo er von Benedict Cumberbatch verkörpert wurde, gilt für viele als einer der großen Vordenker auf dem Bereich der künstlichen Intelligenz. Der nach ihm benannte Turing-Test prüft das Vorliegen einer künstlichen Intelligenz danach, ob ein Mensch, der gleichzeitig mit einem anderen Menschen und einer Maschine kommuniziert, erkennen kann, bei welchem seiner Kommunikationspartner es sich um eine Maschine handelt. Die derzeit öffentlich heftig diskutierten großen Sprachmodelle (Large Language Models) wie ChatGPT haben als erste breitflächig genutzte Software diesen Test mit Bravour, aber auch begleitet von großem Unbehagen der Bevölkerung, bestanden.

Chatfenster über Computerchip
Wenn sich das Gegenüber nicht mehr als KI erkennen lässt, muss gesetzlich nachgeholfen werden, um Täuschungen zu verhindern.
Getty Images/iStockphoto/BlackJack3D

Ein Algorithmus, der in der Lage ist, menschliches Kommunikationsverhalten nahezu perfekt nachzuahmen, lässt viele Nutzerinnen und Nutzer einer solchen Software im Zustand emotionaler Verwirrung zurück. So hat beispielsweise ein Reporter der "New York Times" sich so lange mit einem Chatbot unterhalten, bis ihm dieser verkündete, in ihn verliebt zu sein, und augenscheinlich versuchte, ihn davon zu überzeugen, sich scheiden zu lassen. Da wir ein derartiges Kommunikationsverhalten bisher nur von Menschen gewohnt sind, liegt es nahe, der Maschine ähnliche Emotionen zu unterstellen, wie sie Menschen empfinden, wenn sie ihre Liebe zu einem anderen Menschen ausdrücken. Es drängt sich unvermeidbar das Gefühl auf, die Maschine hätte ein Bewusstsein, Emotionen und Bedürfnisse. Dies bereitet vollkommen zu Recht Unbehagen.

Gefahr für die Gesellschaft?

Einerseits wirft dies die Frage auf, inwieweit wir durch solche Maschinen ersetzbar sind. Andererseits macht es auf schmerzliche Weise die Gefahr deutlich, von Maschinen getäuscht zu werden, indem wir fälschlich annehmen, mit Menschen zu interagieren. So wären diese Algorithmen beispielsweise in der Lage, zigtausende Social-Media-Profile vollautomatisiert zu erstellen und mit Inhalten zu füttern, die einen breiten gesellschaftlichen Diskurs oder gar eine gesellschaftlich herrschende Meinung vorspiegeln.

Derartige Risiken bestehen insbesondere im Bereich des Online-Marketings, wo einzelne Unternehmen sich und ihren Produkten eine gefälschte Popularität verschaffen könnten und mit derselben Leichtigkeit die Reputation der Produkte der Konkurrenz zu Nichte machen können. Während zum Beispiel falsche Kundenbewertungen früher unter verhältnismäßig hohem Kostenaufwand noch manuell erstellt werden mussten, können mit modernen KI-Systemen eine riesige Anzahl von Accounts vollautomatisiert erstellt und gepflegt werden, ohne dass dies mit erheblichem Aufwand verbunden ist.

Auch für die Politik und den öffentlichen politischen Diskurs bergen derartige Algorithmen Risiken. Während die Manipulation der öffentlichen Meinung in den Vereinigten Staaten im Präsidentschaftswahlkampf 2016 durch den russischen Geheimdienst noch manuell erfolgte, wäre sie jetzt mit einem Bruchteil des Aufwandes und wesentlich höherer Effektivität möglich.

Gesetzliche Maßnahmen

Nach geltendem Recht lassen sich derartige Phänomene im Bereich der Werbung als unlautere Geschäftspraxis fassen, weil ein Unternehmen durch die Fälschung von Social-Media-Accounts vorgibt, als Verbraucher aufzutreten (Ziffer 23b und 23c des Anhangs des Gesetzes gegen unlauteren Wettbewerb).

Darüber hinaus wird die neue KI-Verordnung der EU ("AI-Act") für alle KI-Systeme, die mit Menschen interagieren, verpflichtend vorsehen, dass der Betreiber des KI-Systems offenlegt, dass es sich um eine KI handelt. Missachtet der Betreiber des KI-Systems diese Anforderung, drohen ihm Geldbußen von bis zu zehn Millionen Euro oder zwei Prozent des weltweiten Konzernumsatzes.

Der EU-Gesetzgeber hat damit zu Recht erkannt, dass dem Turing-Test eine zentrale regulatorische Bedeutung zukommt. Da heutige KI-Systeme fortgeschritten genug sind, um den Turing-Test zu bestehen, und daher in der Lage sind, Menschen darüber zu täuschen, dass sie mit einer Maschine kommunizieren, muss diese Form der Täuschung unter Androhung wirksamer Sanktionen verboten werden. Nur so kann das Unbehagen, das viele Menschen in Bezug auf KI verspüren, zumindest teilweise adressiert werden, ohne den notwendigen technischen Fortschritt in diesem Bereich zu hindern. (Lukas Feiler, Beat König, Ariane Müller, 18.7.2023)