Die Abbildung zeigt ein KI-generiertes Bild einer fiktiven Verhaftung von Donald Trump
Fake-Bilder, Fake-Videos und Fake-Anrufe: Der "Munich Accord" will verhindern, dass KI-manipulierte Inhalte - wie hier etwa die fiktive Verhaftung eines Politikers - politische Wahlen beeinträchtigen.
STANDARD/Pichler/Midjourney

In einer Zeit, in der künstliche Intelligenz (KI) zunehmend unseren Alltag tangiert, sind Deepfakes – mittel KI-Tools erzeugte manipulative Inhalte – zu einer ernsthaften Herausforderung für die Integrität demokratischer Prozesse geworden. Das gilt insbesondere in einem Superwahljahr wie heuer, in dem rund vier Milliarden Menschen in 40 Ländern zur Wahl gehen. Um dieser Herausforderung zu begegnen, haben sich führende Technologieunternehmen nun im Rahmen der 60. Münchner Sicherheitskonferenz zu einer Initiative unter der Bezeichnung "Munich Accord" zusammengeschlossen.

Diese Vereinbarung umfasst 20 der weltweit größten IT-Konzerne, darunter Plattformbetreiber und Anbieter von Large Language Models wie Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok und X. Gemeinsam zielen sie darauf ab, den Missbrauch von KI-Technologien zur Beeinflussung politischer Wahlen zu bekämpfen.

Neue Standards und mehr Kontrolle

Ein konkretes Beispiel für die potenzielle Bedrohung durch Deepfakes wurde erst vor kurzem in den USA beobachtet, wo ein KI-generierter Telefonanruf, der vorgab, von Präsident Joe Biden zu stammen, die Angerufenen aufforderte, nicht wählen zu gehen. Solche Vorfälle verdeutlichen die Fähigkeit von Deepfakes, die öffentliche Meinung auf täuschende Weise zu beeinflussen.

Der "Munich Accord" beinhaltet das Engagement der beteiligten Unternehmen, ihre Technologien und KI-Modelle kritisch zu überprüfen, um die mit Wahlmanipulationen verbundenen Risiken zu identifizieren und abzumildern. Ein wichtiger Aspekt der Initiative ist die Schaffung von Transparenz in Bezug auf die Herkunft KI-generierter Inhalte. Durch den Einsatz von Wasserzeichen und anderen Techniken soll es möglich werden, die Echtheit von Wahlwerbung und anderen relevanten Informationen zu überprüfen und somit die Verbreitung von Falschinformationen einzudämmen.

Zu den konkreten Maßnahmen gehört die Entwicklung und Nutzung spezieller Werkzeuge, um Betrug durch KI-gestützte Methoden zu bekämpfen. Technologien wie der C2PA-Standard der Content Authenticity Initiative und Googles SynthID sollen dabei helfen, die Echtheit von KI-erzeugten Bildern zu überprüfen. Der C2PA-Standard fungiert wie ein digitales Echtheitszertifikat für alle Arten von Medien, das wichtige Details über deren Ursprung bereithält, während Googles ID-Verfahren speziell entwickelt wurde, um eine Art digitalen "Fingerabdruck" für KI-generierte Inhalte erstellen zu können.

Amazon hat zum Beispiel angekündigt, dass seine KI-Modelle Wasserzeichen bereitstellen können, um die Herkunft der Inhalte nachvollziehbar zu machen. Darüber hinaus wird die Risikobewertung von KI-Modellen, wie OpenAIs neuem Videogenerator "Sora", in Bezug auf die Erstellung von Wahl-Deepfakes hervorgehoben, um potenzielle Gefahren frühzeitig erkennen und minimieren zu können.

Technische Maßnahmen nicht ausreichend

Diese Bemühungen wurden von Christoph Heusgen, dem Leiter der Münchner Sicherheitskonferenz, als wichtiger Schritt zur Wahrung der Integrität von Wahlen hervorgehoben. Jedoch wurde auch betont, dass technische Maßnahmen allein nicht ausreichen, um die Herausforderungen, die Deepfakes darstellen, vollständig zu bewältigen.

US-Senator Mark Warner wies darauf hin, dass neben technologischen Lösungen auch rechtliche Rahmenbedingungen geschaffen werden müssten, um den Missbrauch von KI wirksam zu verhindern. Er verwies dabei auf Europa, wo mit dem AI Act bereits Anstrengungen unternommen werden, gesetzliche Grenzen für den Einsatz von KI festzulegen.

Im Rahmen des Digital Services Act (DSA) hat die EU-Kommission die Befugnis erhalten, Leitlinien zu erarbeiten, die dazu beitragen sollen, bestimmte Risiken, die mit der Nutzung großer Online-Plattformen einhergehen, zu minimieren. Wie Golem.de berichtet, betonte Renate Nikolay, stellvertretende Generaldirektorin der Generaldirektion Connect, die Bedeutung der Wahlintegrität als ein Kernthema dieser Bemühungen.

Sie erklärte, dass die endgültigen Richtlinien bis Ende März fertiggestellt sein sollen. Nikolay ließ aber auch eine gewisse Skepsis gegenüber freiwilligen Selbstverpflichtungen der IT-Industrie durchscheinen, indem sie darauf hinwies, dass die bevorstehenden EU-Richtlinien bereits umfassende Maßnahmen vorsehen, die über solche individuellen Zusagen hinausgehen: "Wir brauchen keine Pledges mehr", so Nikolay.

Die Bemühungen, Deepfakes im Kontext von Wahlen zu bekämpfen, spiegeln die Notwendigkeit wider, die Möglichkeiten der KI verantwortungsvoll zu nutzen - und gleichzeitig einen kritischen Umgang mit daraus generierten Inhalten zu gewährleisten. Die Kooperation zwischen Technologieanbietern und politischen Akteuren ist zweifelsohne ein entscheidender Faktor, um die Demokratie vor den Risiken der digitalen Manipulation zu schützen. Eine Garantie gegen Deepfakes ist aber auch sie nicht. (bbr, 18.02.2024)