Künstliche Intelligenz kann bereits heute Texte erstellen, sogar durchaus lesbare. Vorausgesetzt, man füttert die Maschine vorher mit dem richtigen Material.

Foto: Getty Images/iStockphoto

Alle Texte, auch die kürzeste Meldung, die Sie heute auf der STANDARD-Website gelesen haben, wurden von Menschen verfasst. Ehrenwort. Bald wird das aber keine Selbstverständlichkeit mehr sein. Einer BBC-Studie zufolge werden im Jahr 2026 schon 90 Prozent aller Nachrichtentexte von Computern verfasst. Bereits heute erstellen Maschinen Börsen- und Sportberichte, meist befüllen sie Tabellen. Man nennt das etwas irreführend Roboterjournalismus. Andere Textformen wie Essays, Reportagen und Kommentare verlangen mehr Sprachgespür und nicht bloß ein System, das Textbausteine aneinanderreiht. Ist künstliche Intelligenz dazu in der Lage? Ein Faktencheck.

Wie sieht es mit kreativem Schreiben aus?

Anfang des Jahres machte die amerikanische Open-AI-Stiftung, die sich mit Potenzialen und Gefahren künstlicher Intelligenz befasst, Schlagzeilen: Die Forscher entwickelten eine Sprach-KI namens GPT-2, die selbstständig journalistische und und literarische Texte verfassen kann. Obwohl Open AI die eigenen Entwicklungen stets als Open Source freigibt, blieb GPT-2 unter Verschluss, lediglich eine stark reduzierte Version wurde bislang veröffentlicht. Die Macher bezeichnen die KI als "Deep Fake für Texte", als in der Lage, Artikel zu erstellen, die nicht mehr zweifelsfrei von den von Menschen geschriebenen zu unterscheiden sind. So könne die KI etwa zum Thema Brexit schreiben – erfundene Zitate inklusive. Oder journalistische Kommentare mit plausiblen Argumentationsketten liefern.

Wird die nächste Edelfeder ein Algorithmus sein?

Nein, sagt der Sprachwissenschafter und KI-Forscher Aljoscha Burchardt vom Deutschen Forschungszentrum für künstliche Intelligenz. Es handelt sich bei den derzeitigen KI-Anwendungen um simple "Sprachmodelle", die in der Lage sind, Sätze auf Basis von Erfahrungswerten weiterzuführen. Eine Anwendung ist zum Beispiel die Google-Suche, die dem Nutzer das nächste Wort vorschlägt. Burchardt: "Die Systeme sind statistisch-mathematisch und können aus vorhandenen Daten Modelle bauen; man kann sie verwenden, um Schach zu spielen oder mit Kamerabildern ein Auto zu steuern, oder eben auch, um einen Text zu generieren."

Wie funktionieren Sprach-KI-Anwendungen im Detail?

Wetterdaten oder Sportergebnisse brauchen nicht unbedingt eine blumige oder originelle Sprache, der Algorithmus ist dafür da, zuverlässig einen Text aus Daten und Ergebnissen zu generieren. Der Roboterjournalist braucht eine Datenbank mit Sportergebnissen und ein paar vorgegebene Textbausteine. Daraus entstehen dann gut verständliche Texte. Hier geht es nicht um wortgewaltige Formulierungen (wie sie GPT-2 offenbar beherrschen soll), sondern um Präzision.

Die sogenannten neuronalen Netze hingegen können aus dem vorhandenen Kontext einen Text weiterspinnen. Allerdings hat man keine Kontrolle über die Inhalte, sagt Burchardt. Das, was diese Systeme machen, ist eigentlich genau das Gegenteil dessen, was man unter klassischem Roboterjournalismus versteht: Sprachmodelle wie GPT-2 werden mit riesigen Textmengen gefüttert.

OpenAI GPT-2: An Almost Too Good Text Generator
Two Minute Papers

Open AI bediente sich dabei bei Reddit, einer Plattform, auf der Nachrichtentexte verlinkt werden. Was passiert aber, wenn man dieses Modell mit anderen Textformaten wie etwa Essays speist? Möglicherweise könnte es dann das Verfassen variantenreicherer Texte erlernen.

Kann die Maschine Texte für den "New Yorker" verfassen?

Was wäre etwa, würde Open AI das System GPT-2 mit dem kompletten Archiv des renommierten US-Magazins The New Yorker füttern? Hier findet die Maschine "Millionen von polierten und geprüften Wörtern, viele davon von Meistern der Literaturwissenschaft geschrieben", meint der New Yorker-Autor John Seabrook. Er stellte sich die Frage, ob GPT-2 jemals in der Lage sein könnte, einen Text für den New Yorker zu schreiben. Open AI ließ sich auf das Experiment ein: Alle nichtfiktionalen Texte, die seit den 1960ern in dem Magazin veröffentlicht wurden, las die Software in weniger als einer Stunde ein. Anschließend erhielt sie die Aufgabe, einen Absatz aus einem Ernest-Hemingway-Porträt sinnvoll und stilistisch herausragend fortzusetzen.

Das Ergebnis wirkt zunächst beeindruckend: Das System verfasste eine Textpassage im Stil der Porträtautorin, die sich zumindest oberflächlich durchaus wie ein Artikel des New Yorker liest. Erst bei genauerer Betrachtung erkennt man die Fehler. So ist von "winzigen Kühen" oder von "Lacken aus roter Bratensauce im Vorgarten" die Rede. Die künstliche Intelligenz begreift offensichtlich nicht vollständig, wie unsere Welt beschaffen ist. Noch.

Wissen die Maschinen also doch nicht alles?

Das Ergebnis des Experiments ist für Journalisten und Autoren zunächst beruhigend: Der Algorithmus sagt das nächste Wort oder den nächsten Absatz voraus, kann aber nach wie vor nicht kausal denken. Er kann schlicht nicht "wissen", dass es kaum "winzige Kühe" gibt und Lacken aus Bratensauce eher selten in den Vorgärten berühmter Schriftsteller auftauchen. "Man kann die Maschinen Bücher lesen lassen, aber sie haben nicht die kognitiven Fähigkeiten, diese Fakten weiterzuverarbeiten und das Wissen zu strukturieren", sagt Burchardt.

Wird es weiter menschlichen Journalismus geben?

Ein Sprachmodell, das kontrolliert journalistische Texte verfassen kann, wäre wohl irgendwo zwischen einer wortgewaltigen KI wie GPT-2 und dem vergleichsweise simplen Algorithmus, der Sportergebnisse zusammenstellt, gelagert. Doch davon sind wir noch weit entfernt.

Viel früher werden lernende Maschinen als Recherchehelfer für Journalisten zum Einsatz kommen. Aljoscha Burchardt sieht in den Text- und Datenmengen, die in den sozialen Medien entstehen, tatsächlich großes Potenzial: "Mit maschineller Hilfe könnte man zum Beispiel Argumentationslinien vorsortieren oder Meinungsführer zu gewissen Themen ausfindig machen." Die These von Mensch gegen Maschine findet der KI-Forscher "polarisierend". Die Frage, die man sich eher stellen müsse: Mithilfe welcher Maschinen wird der Journalist in Zukunft seinen Job machen – und wie wird sich seine Arbeit dadurch verändern? (Olivera Stajić, 24.10.2019)