Dieses Bild wurde von der Bilder-KI Midjourney erstellt. Der Prompt wurde mithilfe von ChatGPT auf Basis des Artikeltextes geschrieben und lautete: "Capture an image that symbolizes the challenge of ensuring transparency and accountability in reporting amidst the prevalence of fake photos and AI-generated images. Consider the ethical and legal implications of these images in the age of digital media. Show how media outlets can navigate these challenges and the role journalists and researchers play in verifying the authenticity of photos and images. Your image should convey a sense of urgency and importance, while also highlighting the need for careful consideration of the impact of these images on the public trust in journalism. Style: Documentary/Reportage Camera settings: ISO 400, shutter speed 1/200, aperture f/5.6 Lighting: Natural/ambient light --ar 3:2 --q 2 --v 5."

Foto: Midjourney

Putin kniet vor dem chinesischen Präsidenten Xi Jinping, Donald Trump wird verhaftet, und ein halbes Dutzend durch die Software Midjourney erstellte Inderinnen starren auf Bildschirme, die es real nie gegeben hat. Fake-Fotos und KI-generierte Bilder stellen auch den Journalismus zunehmend vor Herausforderungen. Eine Kennzeichnung von irreführenden Illustrationen scheint unumgänglich.

Kennzeichnung unumgänglich

Die Verwendung und damit Verbreitung von Fake-Fotos und KI-generierten Bildern ist tatsächlich zu einem Politikum in vielen Redaktionen geworden. Dabei gilt es die zwei Formen klar voneinander zu trennen, handelt es sich doch um unterschiedliche Diskussionen. Michael Litschka von der FH St. Pölten stellt klar, dass Fake-Fotos nicht unbedingt KI-generiert und KI-generierte Fotos nicht unbedingt "fake" im medienethischen Sinne sein müssen. "Sie werden zu Fake (News), wenn ein bestimmtes Desinformationsinteresse und eine Manipulationsabsicht dahinterstehen", stellt er im Gespräch mit dem STANDARD klar.

Fake-Fotos habe es in der Mediengeschichte viele gegeben, sagt der Experte, der Unterschied seien aber aktuell die Verbreitungsgeschwindigkeit und die erhöhte Reichweite durch soziale Plattformen. Eine Kennzeichnungspflicht hält Litschka für sinnvoll. "Ich denke, die Kennzeichnung ist zumindest in Qualitätsmedien vorhanden, aber wie gesagt: Nur wegen einer Kennzeichnung ist die Absicht dahinter noch nicht unbedingt transparent."

Beim STANDARD und vielen anderen heimischen Medien werden unechte Fotos abgebildet und im Bildtext darauf hingewiesen, dass es sich um eine Montage handelt. Das Foto kann natürlich trotzdem kopiert und an anderer Stelle als real dargestellt werden. Wenige internationale Medien helfen sich hier mittlerweile mit Wasserzeichen, die über die Fake-Fotos gelegt werden.

Was KI-generierte Bilder betrifft, sieht der Experte Medien in der Pflicht, medienrechtliche Verfehlungen, etwa Recht auf das eigene Bild oder Datenschutz, zu vermeiden. Man könne bei solchen Bildern nur schwer prüfen, ob die KI das Foto unter diesen Aspekten generiert hat. Deshalb müssen dringend Regularien her, sagt Litschka. Die Aufgaben von Journalistinnen und Forschern seien künftig "neu gelagert", nämlich weniger in der Erstellung von Inhalten, sondern vielmehr in der Einordnung und sorgfältigen Überprüfung derselben.

Ethische Fragen

Auch die Chefredakteurin der APA, Katharina Schell, hat im Gespräch mit dem STANDARD eine ähnliche Meinung zu der Thematik. Es seien "publizistische, ethische und strategische Fragen, denen sich die Redaktionen dringend stellen müssen", sagt sie. Von der Austria Presse Agentur werden aktuell keine KI-generierten Bilder verbreitet, stellt Schell fest. "Unsere Qualitätskriterien verbieten jegliche Bildmanipulation." Man sei den Medien, die Agenturfotos nutzen, verpflichtet, die Rechtslage müsse für jedes von der APA verbreitetes Bild einwandfrei geklärt sein. Was den Einsatz von KI zur Bildschaffung betrifft, verlangt Schell Transparenz. "Wenn die User:innen mit ‚täuschend echten‘ Bildern konfrontiert werden, ohne zu wissen, wie diese entstanden sind, ist es ja über kurz oder lang kein Wunder, wenn sie sich getäuscht fühlen."

Ein Hinweis, wie das Bild erstellt wurde, soll so ausführlich wie möglich geschehen, etwa durch die Offenlegung des Prompts, das heißt jenes Textes, den die Bild-KI für die Erstellung des Fotos benötigt hat. Genau so geht beispielsweise der STANDARD in solchen Fällen vor, viele andere heimische Medien erwähnen zumindest das zur Erstellung verwendete Programm – etwa Midjourney oder Stable Diffusion – als Quelle. Um für die Leserinnen die Herkunft deutlicher zu machen, sei laut Schell künftig ein Hinweis à la "von einer KI generiert" angebracht.

Luzia Strohmayer-Nacif, Leiterin der Bildagentur Picturedesk, ergänzt: "Große, internationale Bildagenturen beantworten die Frage zur Vermarktung KI-generierter Bilder unterschiedlich." Manche schließen laut Strohmayer-Nacif solche Bilder generell aus, andere vermarkten sie einfach als eine weitere Form der Illustration – vergleichbar mit Stockfotos. Knackpunkt für viele Bildagenturen sei nach wie vor der rechtliche Aspekt: "Wer ist Urheber:in eines solchen Bildes?" Das Ausgangsmaterial sei nie klar zuordenbar, und es fehle weiterhin ein Copyright für "machine images".

Fazit

Solange es keine rechtlichen Vorgaben gibt, liegt es weiterhin an den Medien oder Agenturen selbst zu entscheiden, wie transparent sie mit "unechten Bildern" verfahren. Beim STANDARD werden KI-Bilder aufgrund dieser unklaren Situation ausschließlich bei Texten verwendet, die von künstlicher Intelligenz handeln. Bilder von Skifahrern, die die Streif hinunterjagen, werden weiterhin ausschließlich mit echten Fotos aus dem Bildarchiv befüllt. (aam, 1.4.2023)