KI kann zu vielen guten Zwecken genutzt werden, bietet aber auch großes Missbrauchspotenzial. Vielerorts fehlt es noch an Regeln, wie mit der Technologie und ihren vielfältigen Möglichkeiten umgegangen werden soll.

(Dieses Symbolbild wurde mithilfe der Bilder-KI Stable Diffusion und dem Prompt "one friendly robot and one evil robot, human-like face" generiert.)

Foto: DER STANDARD/Pichler/Stable Diffusion

Es sind spannende Zeiten in der Welt der Computertechnologien. Binnen weniger Jahre wurden künstliche Intelligenzen von einfachen Ergänzungen für Tools wie Übersetzungssoftware zu wichtigen Helfern in der Wissenschaft und Medizin und zu einer Entwicklungssäule für selbstfahrende Autos. Darüber hinaus sollen sie in der smarten Stadt der Zukunft Verkehrsflüsse optimieren und heute noch aufwendig gemanagte Prozesse automatisieren.

Bilder-KIs wie Stable Diffusion und Midjourney können heute aus Textbeschreibungen und mit wenigen Einstellungen erstaunliche Werke erstellen. ChatGPT beweist gerade, dass KIs mittlerweile auch komplexe, kohärente und glaubwürdige Texte erstellen können. Die Gesetzgeber versuchen langsam, sich der Entwicklung zu stellen und Regeln dafür zu setzen, wann, wo und wie KI genutzt werden darf, sodass dabei einerseits Innovation ermöglicht wird und andererseits Grundrechte geschützt bleiben. Bis etwa in der EU der AI Act fertig erarbeitet, beschlossen und umgesetzt ist, werden allerdings noch ein paar Jahre ins Land ziehen.

Deviant Art implementiert eigenes KI-Tool

Bis dahin bleibt abseits nationaler Regelungen den Plattformen und Unternehmen wenig anderes übrig, als für sich selbst über den Umgang mit KI-Systemen zu entscheiden. Und der Zugang dabei fällt teils sehr unterschiedlich aus. Manche Online-Kunstportale, etwa Art Station und Fur Affinity, wie auch die Fotoagentur Getty haben KI-Werke grundsätzlich aus ihrem Angebot verbannt. Getty begründet dies mit rechtlichen Bedenken, arbeitet aber gleichzeitig auch an KI-gestützten Bildbearbeitungswerkzeugen.

Deviant Art geht einen anderen Weg. Dort hat man das Werkzeug "DreamUp" entwickelt, das auf der quelloffenen Bilder-KI Stable Diffusion basiert. Nutzer können hier fünf Bilder gratis generieren und anschließend abhängig davon, welches Bezahlabo sie für die Plattform abschließen, zwischen 50 und 300 weitere pro Monat.

Eigene Trainingsdaten wurden für DreamUp nicht genutzt. Die Software nutzt Stable Diffusion in dem Zustand, in dem die Entwickler von Stability AI es bereitstellen. Ein wesentlicher Unterschied ist allerdings, dass Künstler die Möglichkeit haben, sich per Formular gegen die Imitation ihres Zeichenstils durch das Tool auszusprechen. Die Anträge werden manuell geprüft, und nach Annahme werden Bildbeschreibungen, die ihren Namen oder die Namen ihrer Werke enthalten, nicht mehr verarbeitet. Gleichzeitig können Nutzer auf der Plattform ihre Werke mit einer "No AI"-Markierung versehen, mit der sie zu verstehen geben, dass sie nicht wollen, dass diese für KI-Training genutzt werden.

"An KI kommt man nicht vorbei. Die Technologie wird von Tag zu Tag immer bedeutender werden", erklärt dazu Deviant-Art-CMO Liat Karpel Gurwicz gegenüber The Verge. Man wolle allen Formen der Kreativität einen Platz einräumen.

Adobe verkauft generierte Werke

Auch der Konzern Adobe hat sich gegen eine Verbannung von KI-Bildern entschieden. Wie Axios berichtet, öffnet man den eigenen, kommerziellen Bildkatalog auch für die Vermarktung von generierten Werken unter den gleichen Bedingungen wie andere Aufnahmen. Allerdings müssen die mithilfe solcher KIs erstellten Bilder markiert werden.

Die Entscheidung kommt nicht ganz überraschend. Auf der hauseigenen Entwicklerkonferenz im Oktober erklärte man bereits, dass man für die Technologie in Zukunft eine breitangelegte Rolle bei der Content-Erstellung sieht. Sie sei eine Ergänzung zu menschengemachter Kunst. Mit dem Hochladen solcher Werke erklären Nutzer allerdings auch, alle Rechte an diesen zu besitzen. Sollte ihre Verwendung für Käufer zu rechtlichen Problemen finden, will man diese entschädigen.

Stack Overflow kämpft gegen KI-Antwort-Flut

Keinen Raum für Kreativität sieht man hingegen bei Stack Overflow. Dabei handelt es sich um eine Plattform, die sich auf den Wissensaustausch zwischen Entwicklern spezialisiert. Besonders beliebt ist der "Stack Exchange", wo Nutzer sich mit Fragen, in der Regel Softwareentwicklung betreffend, an die Community wenden und auf kompetente Auskunft hoffen können.

Das Moderationsteam sieht sich dort nun allerdings gezwungen, die Verwendung der Text-KI ChatGPT zumindest temporär zu verbieten. Die Regel gilt für alle Inhalte auf der Plattform, mit Ausnahme von Texten, die Teil des eigenen Nutzerprofils sind.

Als Auslöser nennt man einen massiven Anstieg an Antworten, die Nutzer mit ChatGPT generiert haben. Während die KI durchaus in der Lage ist, zumindest einfachere Fragestellungen korrekt zu beauskunften, ist sie mit dem Fachwissen, das auf Stack Overflow häufig vorausgesetzt wird, überfordert.

"Weil die Durchschnittsquote an korrekten Antworten von ChatGPT zu niedrig ist, sind diese Postings substanziell schädigend für die Seite und die Nutzer, die hier nach richtigen Antworten suchen", schreibt man in einer Ankündigung. "Das grundlegende Problem ist, dass die von ChatGPT produzierten Antworten häufig falsch sind, aber typischerweise so wirken, als könnten sie richtig sein, und es zudem sehr einfach ist, diese Antworten zu generieren."

Viele Nutzer würden dies auch vielfach tun, seien aber nicht bereit oder in der Lage, die KI-generierten Repliken vor der Veröffentlichung auf ihre Richtigkeit zu überprüfen. Das sorge für Überforderung bei der Qualitätskontrolle, die großteils durch Freiwillige erledigt wird. Daher müsse man das Aufkommen solcher Antworten schnellstmöglich reduzieren und verbietet daher den Einsatz von ChatGPT.

Deepfakes: Youtube und Co müssen aufrüsten

Noch gar nicht tangiert ist hier das künftige Potenzial für Deepfakes. Die Technologie, mit der die Erzeugung von glaubwürdigen Videos mit unterschiedlichen Personen ohne deren Mitwirkung ermöglicht wird, bietet einerseits ein riesiges kreatives Potenzial, aber andererseits die Möglichkeit für Missbrauch zu Desinformationszwecken.

Hierzu sprach DER STANDARD mit Sven Bliedung von der Heide, CEO des deutschen VFX-Spezialisten Volucap, der unter anderem professionelle Deepfakes für "Matrix Ressurections" beisteuerte. Seiner Ansicht nach müssen Menschen künftig lernen, skeptischer mit Bildern umzugehen. Gute Fälschungen benötigen heute noch großen technischen Aufwand, doch das unweigerliche Voranschreiten der Technologie werde diese Hürden stetig verringern. Darum bleibe auch zu hoffen, dass große Plattformen wie Youtube oder Facebook Tools implementieren, die Deepfakes automatisch erkennen und kennzeichnen. (gpi, 8.12.22)