Ein humanoider Roboter hält Dokumente. Dieses Symbolbild wurde mit Midjourney generiert.
Durch diverse KI-Tools ist es nun einfacher als je zuvor, Falschinformationen zu verbreiten.
DER STANDARD/Pichler/Midjourney

Die rasanten Entwicklungen bei generativer Künstlicher Intelligenz (KI), auf der Programme wie ChatGPT basieren, könnten im Wahljahr 2024 zu massiven Manipulationen und Desinformationskampagnen führen. "Es war noch nie so einfach, schnell und billig, synthetische, also mit Hilfe von KI erstellte Inhalte zu produzieren", erklärte Merve Hickok, US-Expertin für KI-Ethik und -Politik sowie Präsidentin der Non-Profit-Organisation Center for AI & Digital Policy, im APA-Gespräch.

"Wir werden heuer eine Vielzahl an böswilligen Akteuren sehen, die sich durch Desinformation, Deepfakes und Co Vorteile verschaffen wollen. Die Hürden sind durch die Fortschritte bei KI so niedrig wie noch nie", sagte Hickok, die heute, Dienstagabend, anlässlich einer Veranstaltung von Außenministerium, TU Wien Informatik und US-Botschaft mit weiteren Expertinnen und Experten über die Auswirkungen von KI auf die Demokratie diskutieren wird. 2024 werde außerdem das Jahr mit den meisten Wahlen weltweit in der Geschichte sein.

Generative AI als Gefahr für Wahlen

Die größte Gefahr für Wahlen gehe von Generative AI aus, die sowohl bei nationalen Wahlen, als auch im lokalen Bereich eine zunehmende Rolle spielen werde. Dabei müsse es nicht unbedingt um die Beeinflussung der Wahlergebnisse selbst gehen, etwa indem die Menschen zu diesem oder jenem Kandidaten gedrängt würden. "Ein anderer Ansatzpunkt ist für das Erodieren des Vertrauens in das System, in Politiker oder in Wahlbehörden zu sorgen. Damit wird auch beeinflusst, ob die Gesellschaft die Resultate der Wahl akzeptiert oder nicht. Wir haben schon gesehen, was Misstrauen auslösen kann", so die Expertin.

Dieser Entwicklung müsse sowohl von technischer als auch gesellschaftlicher Seite entgegengewirkt werden. Bei ersterem gehe es um die Abwehr von Cyberangriffen und Schadsoftware sowie das Erkennen von synthetischen Inhalten wie Deepfakes, wobei hier massive Investitionen in die Forschung notwendig seien. Diskutiert werde derzeit außerdem über Wasserzeichen und andere Arten der Kennzeichnung von Content, der von bekannten Anbietern wie dem ChatGPT-Entwickler OpenAI kommt. "Es gibt aber auch Open-Access-KI-Modelle, die von böswilligen Akteuren benutzt werden können, um synthetische Medien zu produzieren, die nicht gekennzeichnet sind. Man kann also weiter unter dem Radar bleiben", erläuterte Hickok.

Zugang für die Forschung

Wichtig für die Forschung sei der Zugang zu Daten der Plattformen, um Manipulationen aufspüren zu können. Aktuell ist das laut der Expertin sehr schwierig und oft mit enormen Kosten verbunden, wodurch sich kaum herausfinden lasse, wie Informationen verbreitet, manipuliert und verstärkt werden. Auf gesellschaftlicher Seite brauche es mehr Wissen und Fähigkeiten im Umgang mit KI sowie groß angelegte öffentliche Kampagnen. "Wir müssen den Leuten zwar den potenziellen Einfluss und die Risiken dieser Technologien vermitteln. Die Menschen sollten sich wegen dieser Risiken aber nicht aus demokratischen Prozessen und Wahlen zurückziehen", so die Gründerin der Plattform AIethicist.org, die unter anderem die EU-Kommission berät.

Erst vor wenigen Tagen hat das Weltwirtschaftsforum (World Economic Forum) einen Bericht vorgestellt, in dem die Beeinflussung von Wahlen durch KI-gesteuerte Desinformation als eines der weltweit größten Risiken in den kommenden zwei Jahren genannt wird. "Auch langfristige Entwicklungen wie die Klimakrise und das Thema Migration werden davon beeinflusst. Denn mit Desinformation kann man die Menschen polarisieren und radikalisieren, egal, um welche politische Auseinandersetzung es geht. Technologie ist die Basis all dieser Konflikte", erklärte Hickok.

Sie schlägt eine gemeinsame, umfassende Plattform für Forschungsdaten und Faktenchecks zu wahlrelevanten Informationen vor, die das Bewusstsein der Öffentlichkeit schärfen soll. Hier sei ein gemeinsames Vorgehen notwendig, da ein entsprechendes Angebot nicht von einer Organisation oder einem Land aufgebaut werden kann. Die Nutzung von KI-Systemen zur Manipulation von Wahlen stelle inzwischen ohnehin ein globales Phänomen dar, wie beispielsweise Hinweise von Whistleblowern zum missbräuchlichen Einsatz von Facebook in Lateinamerika zeigen würden. Allerdings gebe es in vielen Regionen zu wenig Ressourcen und Daten, um die konkreten Auswirkungen festzumachen. Hier seien die Lücken noch viel größer als in Europa oder den USA.

AI Act

Über den vom EU-Parlament kürzlich beschlossenen Rahmen zur geplanten Regulierung von Künstlicher Intelligenz, den AI Act, zeigte sich die Expertin erfreut. "Wir sind glücklich, dass es eine politische Übereinkunft und eine starke Absicherung der Grundrechte gibt. Das ist ein großartiger Startpunkt", sagte Hickok. Noch müssten aber die Details zur Umsetzung abgewartet werden. Außerdem gebe es eine Vielzahl an Ausnahmen, etwa im Bereich Strafverfolgung und nationale Sicherheit. Dass die Anbieter von Hochrisiko-Technologie selbst einschätzen dürfen, ob ihr Produkt den Regeln und Standards entspricht, kritisierte sie ebenso: "Darüber sind wir sehr besorgt."

Dieser "große Erfolg für Europa" sei jedenfalls kein Hemmschuh für Innovationen. "Wir sehen Regulierung nicht als limitierenden Faktor. Die KI-Entwickler, darunter viele kleine Unternehmen, haben nun Klarheit darüber, was sie am europäischen Markt machen können und was nicht und welchen Anforderungen sie unterliegen", so Hickok. Regulierung sorge nicht nur für rechtliche Klarheit, sondern auch für eine höhere Produktsicherheit. Das werde weit über Europa hinaus Wirkung zeigen. (APA, 16.1.2024)