Vor kurzem sah sich ein renommiertes Sportmagazin mit dem Vorwurf konfrontiert, zahlreiche von KI verfasste Artikel veröffentlicht zu haben, ohne aber die Leser darüber aufzuklären. In Zeiten, in denen KI in allen erdenklichen Lebensbereichen zum Einsatz kommt, mag eine solche Nachricht keine große Sensation mehr sein. Gerade im Journalismus ist die Heranziehung von Künstlicher Intelligenz oft naheliegend: Man denke nur an die Aufbereitung von Berichten öffentlicher Institutionen, die mitunter hunderte Seiten umfassen können. Insbesondere kleinere Medien sind bei solchen Prozessen mangels entsprechender personeller Ressourcen auf maschinelle Unterstützung angewiesen.

Gleichwohl wirft die Zunahme von maschinengenerierten Inhalten eine Frage auf, die bei näherer Betrachtung weitreichende gesellschaftspolitische Implikationen hat: Sollen Medien verpflichtet werden, durch KI generierte oder manipulierte Inhalte als solche zu kennzeichnen?

Betrachtet man das Thema durch die juristische Brille, so stellt sich zunächst nicht die Frage, ob eine solche Kennzeichnungspflicht eingeführt werden soll, sondern vielmehr, ob sie vielleicht bereits nach geltendem Recht besteht. Derzeit kennt das österreichische Recht keine allgemeine Verpflichtung, den Einsatz von KI beim Verfassen von redaktionellen Inhalten offenzulegen. Jedoch lässt sich eine solche Offenlegungspflicht in bestimmten Fällen bereits aus dem Bundesgesetz gegen den unlauteren Wettbewerb (UWG) ableiten.

Unterlassene Kennzeichnung als irreführende Geschäftspraktik

Die fehlende Kennzeichnung von KI-Einsatz bei redaktionellen Inhalten kann in bestimmten Fällen eine irreführende Geschäftspraktik nach dem UWG darstellen. Dies setzt zunächst voraus, dass überhaupt von einer Geschäftspraktik gesprochen werden kann, was bei journalistischen Inhalten nicht immer so eindeutig ist. Eine Geschäftspraktik muss in Zusammenhang mit der Absatzförderung, dem Verkauf oder der Lieferung eines Produkts stehen. Dies ist sehr weit zu verstehen. Bei kostenpflichtigen Medien ist ein Zusammenhang mit dem Verkauf eines Produkts ohne weiteres erkennbar. Aber auch etwa bei kostenlosen Websites kommt die Absatzförderung ins Spiel, wenn die Website über Werbeeinnahmen finanziert wird, was bei den allermeisten Nachrichtenportalen der Fall ist. Daher ist etwa die Bereitstellung eines Artikels in den meisten Fällen als Geschäftspraktik anzusehen.

Eine irreführende Geschäftspraktik kann zunächst in einer aktiven Handlung bestehen. So führt zum Beispiel das Anbringen eines Copyright-Vermerks auf einem KI-generierten Artikel den Leser in die Irre, da der Eindruck erweckt wird, dass der Artikel die geistige Schöpfung eines Menschen sei. Eine Irreführung kann aber nicht nur in einer aktiven Handlung, sondern auch in einer Unterlassung bestehen – eben auch im unterlassenen Hinweis auf den Einsatz von KI. Eine Unterlassung ist dann unlauter, wenn sie dem Leser wesentliche Informationen vorenthält, die er benötigt, um eine informierte geschäftliche Entscheidung zu treffen. Ob Inhalte KI-unterstützt erzeugt wurden, ist für den Durchschnittsleser durchaus wesentlich: Viele Leser sind weniger bereit, auf maschinengenerierte Artikel zu klicken und noch weniger bereit, Geld für eine Tageszeitung auszugeben, hinter der keine oder nur sehr geringe menschliche Arbeit steht.

Der AI Act sieht eine Offenlegungspflicht für den Einsatz von KI beim Verfassen von Texten vor, sofern diese dazu dienen, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren.
APA/dpa/Sebastian Gollnow

Die unterlassene Kennzeichnung der KI-Nutzung stellt daher bei vielen journalistischen Produkten eine irreführende Geschäftspraktik dar. Hiervon ausgenommen sind Inhalte, die in keiner Weise mit der Absatzförderung zusammenhängen. Dies ist beispielsweise der Fall bei maschinengenerierten Beiträgen auf einem Privatblog, auf dem keine Werbung geschaltet wird und der auch sonst keine Einnahmen generiert.

Wettbewerber, Verbraucher und gesetzliche Interessenvertretungen können gegen Unternehmen, die sich irreführender Geschäftspraktiken bedienen, mit Unterlassungs- und Schadenersatzklagen vorgehen. Insbesondere der Verein für Konsumenteninformation leitet regelmäßig Verfahren gegen Unternehmen wegen irreführenden Geschäftspraktiken ein. Medienunternehmen müssen daher neben potenziellen Reputationsschäden auch mit rechtlichen Risiken rechnen.

AI Act bringt weitere Transparenzpflichten

Diese rechtlichen Risiken werden in absehbarer Zeit noch weiter zunehmen: Das Europäische Parlament hat kürzlich den AI Act beschlossen, ein umfassendes Regelwerk zur Regulierung von Künstlicher Intelligenz. Der AI Act sieht eine Offenlegungspflicht für den Einsatz von KI beim Verfassen von Texten vor, soweit diese dazu dienen, die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren. Es ist davon auszugehen, dass Behörden und Gerichte den Begriff "Angelegenheiten von öffentlichem Interesse" sehr weit auslegen werden. Somit werden die meisten Artikel von Nachrichtenportalen und Tageszeitungen wohl unter diese Offenlegungspflicht fallen, sofern sie durch KI generiert oder manipuliert werden.

Eine Ausnahme sieht der AI Act aber für Inhalte vor, die einem Verfahren der menschlichen Überprüfung oder redaktionellen Kontrolle unterzogen wurden und für deren Veröffentlichung eine natürliche oder juristische Person die redaktionelle Verantwortung trägt. Wie gründlich die menschliche Überprüfung beziehungsweise die redaktionelle Kontrolle sein muss, lässt das Gesetz jedoch offen. Dies führt zu einer erheblichen Rechtsunsicherheit, die insbesondere für kleinere Medien ein beträchtliches Risiko mit sich bringt.

Diese Bestimmungen des AI Act treten in ca. 25 Monate in Geltung. Medienhäuser haben daher noch etwas Zeit, sich auf die neue Rechtslage einzustellen. Bei Verstößen drohen empfindliche Strafen: Es können Geldbußen von bis zu 15.000.000 Euro oder von bis zu drei Prozent des gesamten weltweiten Jahresumsatzes verhängt werden, je nachdem, welcher Betrag höher ist.

Eindämmung von Fake News und bessere KI-Modelle

Eine solche Kennzeichnungspflicht hat weitreichende Implikationen. Zunächst ist die Eindämmung der Verbreitung von Fehlinformationen zu erwähnen. Natürlich ist es nicht zu erwarten, dass Fake-News durch eine Kennzeichnungspflicht aus der Welt geschafft werden. Eine maschinenunterstützte, massenweise Erzeugung von Fake-News wird aber deutlich erschwert, wodurch auch die Integrität und Glaubwürdigkeit der Medienlandschaft gestärkt wird.

Die erhöhte Transparenz könnte aber auch einen wichtigen Beitrag zur Sicherung der Qualität von LLMs (Large Language Models) leisten. LLMs werden regelmäßig durch öffentlich verfügbare Texte, darunter etwa diverse Medieninhalte, trainiert. Mangels entsprechender Offenlegung sind LLMs nicht immer in der Lage zu erkennen, dass das Trainingsmaterial selbst maschinengeneriert ist. Gelangen solche Texte in den Trainingsdatensatz, wird der eigentliche Zweck des Trainings vereitelt. Eine Offenlegungspflicht trägt somit dazu bei, dass LLMs nur durch menschlich erzeugte Texte trainiert werden. Dies ermöglicht wiederum eine höhere Qualität von maschinengenerierten Texten.

Fazit

Der AI Act wird neue Transparenzanforderungen hinsichtlich KI-generierter journalistischer Inhalte bringen. Dies ist nicht nur aus Sicht der Leser zu begrüßen, sondern beugt auch der KI-gestützten Erstellung von Fake-News vor. Schließlich wird durch die Kennzeichnung KI-generierter Texte verhindert, dass KI-Systeme versehentlich mit KI‑generierten Texten trainiert werden. (Lukas Feiler, Beat König, Mark Nemeth, 4.6.2024)