Es ist ein Markenzeichen Österreichs, die wichtigsten weltweiten Debatten wenig zu rezipieren, weil die österreichische Politik zu beschäftigt ist, den eigenen Bauchnabel zu inspizieren.

Derweil gibt es eine intensive Debatte über die Gefahren der künstlichen Intelligenz (KI), geführt von den besten Köpfen auf diesem Gebiet, u. a. von Geoffrey Hinton, ehemals KI-Forscher bei Google, Yann LeCun, dem Chief AI Scientist bei Meta, und dem kanadischen Professor Yoshua Bengio; alle drei sind Turing-Preisträger, des "Nobelpreises für IT". Deren Debatte dreht sich darum, ob KI den Menschen intellektuell überflügeln, ein Bewusstsein entwickeln und in der Folge die Menschheit kontrollieren oder gar auslöschen wird.

Heute schon können Large Language Models (LLMs) wie ChatGPT in kürzester Zeit große Mengen überzeugender Desinformation generieren.
AP/Michael Dwyer

Ob Maschinen Menschen manipulieren werden, ist interessant, aber eine Ablenkung. Die große unmittelbare Gefahr sind Menschen, die andere Menschen mittels KI manipulieren werden.

Gefälschte Berichte

Heute schon können Large Language Models (LLMs) wie ChatGPT in kürzester Zeit große Mengen überzeugender Desinformation generieren. Das Journal of the American Medical Association, die weltweit auflagenstärkste medizinische Fachzeitschrift, veröffentlichte kürzlich einen Beitrag dazu, wie leicht es ist, das Internet mit medizinischer Falschinformation zu fluten. Eine Gruppe von Gesundheitsexperten, die keine besondere Erfahrung mit LLMs hatten, erstellte zu den Themen Impfstoffe und E-Zigaretten innert einer Stunde 102 Blog-Artikel mit mehr als 17.000 Wörtern, inklusive gefälschter Patienten- und Arztberichte. Zusätzlich erstellte sie mit KI-Tools in weniger als zwei Minuten 20 realistische Illustrationen. Die Absicht war, junge Eltern, Schwangere und chronisch Kranke zu verunsichern.

Alle gängigen LLMs beteuern, dass sie Schranken eingebaut haben, die sicherstellen sollen, dass man sie nicht missbrauchen kann. Es ist zum Beispiel recht schwierig geworden, sich von LLMs Anleitungen für den Bau einer Bombe zu besorgen. Die Forscher im Experiment hatten keine Erfahrung darin, diese Sicherheitsschranken zu umgehen – trotzdem konnten sie in kurzer Zeit massenweise sehr professionell anmutende Falschinformation produzieren.

Vordringliches Anliegen

Man muss sich vor Augen halten, was das bedeutet. Der Rasputin von Donald Trump, Steve Bannon, sagte 2018 in seinem berühmtgewordenen Zitat: "flood the zone with shit". Nach dieser Strategie ist die Methode, politische Gegner zu besiegen, täglich Lügen zu spinnen, die die Aufmerksamkeit der Medien und in sozialen Medien auf sich ziehen. Es ist dann egal, wie oft die Lügen dokumentiert und widerlegt werden: Je mehr man sie in den sozialen Medien wiederholt, je öfter sie geteilt werden, desto mehr Leute werden zumindest verwirrt sein oder die Lügen glauben.

KI wird der Bannon’schen Strategie Flügel verleihen. Das Risiko angesichts der vielen überzeugenden Fälschungen ist die Desorientierung und die Versuchung, dem zu glauben, der die einfachsten Lösungen am lautesten schreit. Informationssicherheit muss daher für das Superwahljahr 2024 ein vordringliches Anliegen für Behörden und Parteien sein. (Veit Dengler, 3.12.2023)