Schon jetzt sind Programme in der Lage, sich wie Menschen mit uns zu unterhalten. Geht es nach einigen Entwicklern, könnten sie schon bald vermehrt Freunde oder sogar Beziehungspartner sein.

Foto: AFP/OLIVIER DOULIERY

Die Sprache macht uns Menschen einzigartig, heißt es. Zwar gibt es auch unter Tieren unterschiedlichste Formen der Kommunikation, diese reichen an die Komplexität der menschlichen Sprache laut vielen Wissenschaftern aber meist nicht heran.

Stattdessen könnte der Mensch künftig sprachliche Konkurrenz von Maschinen und Computern bekommen. Seit Jahren arbeiten Wissenschafterinnen und Wissenschafter daran, Programmen die Fähigkeit beizubringen, menschliche Sprache zu verstehen, zu interpretieren und selbstständig einzusetzen. Und schon jetzt sprechen sogenannte Chatbots wie Alexa, Siri oder Google Assistant mit uns und versuchen so auf unsere Wünsche und Fragen einzugehen.

In Zukunft werden Programme und Maschinen aber noch viel besser darin sein, die menschliche Sprache zu beherrschen, sagt Siegfried Handschuh, Datenexperte am Institut für Informatik der Universität Sankt Gallen in der Schweiz, im Interview mit dem STANDARD. Im Mittelpunkt der Diskussion steht eine künstliche Intelligenz (KI), die sich GPT-3 nennt und verspricht, Texte zu "verstehen" und selbst menschenähnliche Texte zu erstellen. Ist das der Beginn einer neuen Zeit der Kommunikation zwischen Mensch und Maschine? Und wenn ja, sollte uns das freuen oder beunruhigen?

STANDARD: Herr Handschuh, woher weiß ich, dass ich aktuell mit Ihnen und nicht mit einem Programm spreche?

Handschuh: Relativ große Sorgen brauchen Sie sich da nicht zu machen. Die meisten Programme sind noch nicht so weit, dass der Unterschied zwischen Mensch und Maschine im Gespräch verschwimmt. Allerdings gibt es durchaus Bereiche, in denen Maschinen Menschen täuschen können, etwa wenn das Gespräch thematisch sehr eingegrenzt ist. Sie können auch testen, ob Sie es mit einem Chatbot zu tun haben, indem Sie einfach anfangen, Unsinn zu reden. Wenn das Programm auf einem modernen Chatbot beruht, würde es versuchen, zwanghaft darauf zu antworten. Es würde nie zugeben, dass es die Antworten nicht kennt, und auf Unsinn ebenfalls mit Unsinn antworten.

STANDARD: Ist es nicht problematisch, wenn wir eines Tages nicht mehr wissen, ob wir es mit einem Menschen oder einem Programm zu tun haben?

Handschuh: Ja, vor allem dort, wo es um Präzision oder Haftungsfragen geht, wie im medizinischen oder juristischen Bereich. Was Programme da verursachen können, hat ein Experiment mit GPT-3 gezeigt. Darin gab ein Fake-Patient vor, selbstmordgefährdet zu sein, und schrieb dem Programm, er wisse nicht, was er tun soll, woraufhin das Programm antwortete, sich das Leben zu nehmen sei eine gute Idee. In solchen Bereichen wird es gefährlich. Juristisch gesehen muss ein Chatbot schon zu Beginn eines Gesprächs sagen, dass er künstlich ist.

STANDARD: Wie genau funktioniert die Technologie hinter diesen Systemen?

Handschuh: Programme wie GPT-3 werden darauf trainiert, dass sie Texte vorhersagen können. Man hat also einen Algorithmus, der aus riesigen Mengen Text die Wahrscheinlichkeit von unterschiedlichen Wörtern zueinander misst. Er lernt, in welchen Kontexten Wörter und Wortähnlichkeiten vorkommen können. Danach können die Programme Texte übersetzen oder eigene Texte produzieren. Man kann sich das wie ein riesiges Sammelalbum aus Millionen und Abermillionen von Textschnipseln vorstellen, die bei Bedarf auf wundersame Weise zusammengeklebt werden.

STANDARD: Und dafür wählen die Programme jene Wörter und Inhalte aus, die mit der häufigsten Wahrscheinlichkeit bereits in vergangenen Texten aufgetreten sind? Geben sie dann nicht immer nur Mehrheitsmeinungen wieder?

Handschuh: Jein. Wenn man einem Programm wie GPT-3 völlig freien Lauf lässt, wird es wahrscheinlich tatsächlich die Mehrheitsmeinung zu einem bestimmten Thema wiedergeben. Man kann dem Programm aber auch vorgeben, weniger häufige Wörter und Inhalte oder gar den Text mit der geringsten Wahrscheinlichkeit auszuwählen. Damit lassen sich durch die Programme auch Mindermeinungen vertreten.

STANDARD: Einige Texte, die GPT-3 bereits produziert hat, waren für Leser nur schwer von menschengeschriebenen Texten zu unterscheiden. Könnten die Programme Menschen bald in einigen Bereichen ablösen?

Handschuh: Die Texte, die das Programm produziert, sind tatsächlich beeindruckend. Wo das Programm Probleme hat, ist, den roten Faden zu halten. Romane wird es daher so bald keine schreiben. Es besitzt kein gutes Langzeitgedächtnis – auch nicht in Dialogen – und wird zum Teil sehr langsam in seinen Antworten. Man würde merken, dass das Gegenüber immer ein wenig stockt und nicht so schnell reagieren kann. Statt Menschen durch Programme zu ersetzen, brauchen wir in Zukunft eine Kombination von beiden.

STANDARD: Was meinen Sie damit?

Handschuh: Künstliche Intelligenz könnte uns Menschen bestimmte Vorschläge liefern und gemeinsam mit uns neue Ideen entwickeln. Das könnte vor allem in kreativen Berufen wie bei Designern, Architekten, Musikern, Schriftstellern und Drehbuchautoren eine große Rolle spielen.

STANDARD: Heißt dass, dass diese Programme selbst kreativ sind?

Handschuh: Kennen Sie DALL-E? Das ist ein Programm, das aus Textbeschreibungen Bilder erzeugt. Da gibt es das berühmte Beispiel des Avocado-Stuhls: Das Programm kannte zwar das Konzept von Stühlen und Avocados, erzeugte daraus aber ein völlig neues Bild eines Avocado-Stuhls, also einen Hybrid, den es vorher noch nicht gab. Ich halte das für kreativ.

STANDARD: Kreativität bedeutet in diesem Fall, verschiedene Daten in neuer Art und Weise miteinander zu kombinieren?

Handschuh: Daten werden kombiniert und interpoliert, das heißt, es werden Antworten erzeugt, die wir in den ursprünglichen Daten nicht finden. Auf diese Weise werden neue und originelle Kreationen geschaffen. Was die KI noch nicht beherrscht, ist die kritische Reflexion dieser Kreationen. Daher sehe ich derzeit die KI nur in der Lage, als Unterstützer des Menschen zu agieren.

STANDARD: Nicht wenige Menschen warnen aber auch davor, dass Programme wie GPT-3 künftig benutzt werden könnten, um Falschnachrichten massenhaft im Netz zu verbreiten. Ist die Sorge berechtigt?

Handschuh: Das Argument klingt ein bisschen so, als ob Menschen immer ehrlich wären. Wer schützt mich vor den Leuten, die mich auf sozialen Medien anlügen wollen? Dass Programme grundsätzlich lügen können, ist nicht die Gefahr. Das können Menschen auch.

STANDARD: Aber der Unterschied ist doch, dass eine künstliche Intelligenz Falschnachrichten wesentlich schneller und in größerem Umfang verbreiten könnte, oder nicht?

Handschuh: Ja, theoretisch schon. Aber wenn Sie anfangen würden, mit den Chatbots auf sozialen Medien zu diskutieren, dann würden diese gezielten Konversationen nicht standhalten. Die Antworten der Programme würden Ihnen wahrscheinlich schnell komisch vorkommen, weil der rote Faden fehlt. Viel von unserer Kommunikation hat mit Vertrauen und Reputation zu tun. Wenn überhaupt, könnten uns Texte von Maschinen künftig in unseren Ansichten bestärken, da wir ja bekanntlich eher Inhalten glauben, die die eigene Meinung bestätigen.

STANDARD: Bekannt ist auch, dass Algorithmen und Programme dazu tendieren, bestehende Vorurteile in der Gesellschaft zu übernehmen, und dadurch teilweise rassistisch oder diskriminierend agieren. Wie lässt sich das künftig verhindern?

Handschuh: Das Allerbeste wäre, wenn schon die Daten, die dem Programm zugrunde liegen, bereinigt sind. Zudem kann man solche Modelle mit Inhalten, die die gegenteilige Meinung sagen, nachtrainieren. Eine dritte Möglichkeit ist, wieder eine andere KI einzusetzen, die darauf trainiert worden ist, diese Vorurteile zu erkennen und dann gegebenenfalls zu streichen.

STANDARD: Wir sprechen immer wieder von künstlicher Intelligenz. Aber wie intelligent sind diese Systeme eigentlich?

Handschuh: Das hängt vom Intelligenzbegriff ab, der umstritten ist und sich auch verändert. Vor Jahren haben wir bei Schachcomputern von künstlicher Intelligenz gesprochen, dann hielten wir die Rechtschreibprüfung bei Word für künstliche Intelligenz. In dem Sinne, wie wir den Begriff beim Menschen verstehen, fehlt sicher noch viel. Denn wir haben als Menschen im Vergleich zu den Programmen ein Gewissen, eine Logikstruktur, Empathie und ein Bewusstsein. Auch bei der Speicherkapazität sind die Programme noch weit davon entfernt, dem menschlichen Gehirn wirklich nahezukommen. Trotzdem glaube ich, dass wir auf einem guten Weg sind, dort hinzukommen.

STANDARD: Werden Programme und Maschinen eines Tages also in der Lage sein, auch menschliche Fähigkeiten wie ein Bewusstsein und Empathie zu besitzen?

Handschuh: Wie unser Gehirn funktioniert, ist zwar kompliziert, aber keine Magie. Früher oder später müsste es Modelle geben, die in der Lage sind, genau das zu tun. Das ist ein wenig erschreckend, weil es die Einzigartigkeit des Menschen infrage stellt. Aber letzten Endes ist unser Gehirn in der Biologie nur ein Austausch von Signalen, der auch beschreibbar sein muss. (Jakob Pallinger, 22.8.2021)