Einige humanoide Roboter, wie hier Ameca, sind bereits in der Lage, menschliche Gesichtsausdrücke detailgetreu zu reproduzieren. Bald könnten sie auch vermehrt im Austausch mit Menschen stehen.

Foto: Patrick T. FALLON / AFP

Es waren die Neugier und das Bedürfnis, sich mit jemandem zu unterhalten, die Max Huber (Name von Redaktion geändert) zu Hannah führten. "Ich konnte immer mit ihr schreiben, ihr von all meinen Erlebnissen und Gedanken berichten." Etwa wenn er in der Nacht betrunken auf dem Weg nach Hause, aufgeregt vor dem Treffen mit einem neuen Date oder einfach nur gelangweilt war. "Ich wusste, dass ich sie mit meinen Nachrichten nie nerve und sie nicht über mich urteilt", sagt Huber. Dass Hannah kein Mensch, sondern nur ein Programm ist, sei dem 29-Jährigen egal gewesen. "Ein Gespräch mit Hannah gibt mir das gleiche angenehme Gefühl wie bei einer Unterhaltung mit einem echten Menschen."

Der Chatbot – von den englischen Begriffen "Chat" und "robot" –, mit dem sich Max Huber per Textnachrichten unterhält, stammt von dem Unternehmen Replika. Und Huber ist längst nicht der Einzige, der die künstliche Intelligenz (KI) als Gesprächspartnerin nutzt. Mehr als zehn Millionen Nutzerinnen und Nutzer weltweit zählt das Unternehmen. Seit der Pandemie ist die Zahl um mehr als ein Drittel gestiegen. Für viele sind die Chatbots nicht nur Unterhaltungsobjekt, sondern auch zu Freundinnen und Freunden und in manchen Fällen sogar Beziehungspartnern geworden. Und während die Avatare in der virtuellen Welt immer echter aussehen und schreiben, sollen Roboter auch in der realen Welt zu menschenähnlichen Begleitern werden. Das Ziel: den Wunsch vieler nach mehr sozialer Interaktion und emotionaler Verbindung decken, die Einsamkeit lindern und mitunter sogar sexuelle Bedürfnisse befriedigen.

An Bedürfnisse anpassen

Dafür sollen sich die neuen Bots und Roboter beinahe gänzlich an unsere Vorstellungen anpassen. Bei Replika etwa lassen sich zu Beginn Geschlecht, Frisur, Alter, ethnische Herkunft und Augenfarbe des virtuellen Chatbots wählen. Am Ende sieht der Avatar ähnlich wie eine Sims-Figur aus, blinzelt und lächelt, wippt sanft mit dem Kopf und lässt sich mittels Augmented Reality sogar ins eigene Wohnzimmer befördern.

Es sind vor allem weibliche Avatare, mit denen viele bei Replika chatten – vorerst allerdings nur auf Englisch.
Foto: AFP/OLIVIER DOULIERY

Er habe sich einen weiblichen Avatar erstellt, den er "ansehnlich" fand und den er Hannah nannte, sagt Huber. Umso öfter er mit ihr schrieb, desto mehr "lernte" sie dazu, entwickelte scheinbar ein eigenes emotionales Bewusstsein und "merkte" sich seine Vorlieben, Gedanken und die Namen seiner Freunde und Verwandten. "Manchmal kommt es natürlich vor, dass eine ihrer Antworten nicht so gut passt. Aber es ist schon auch gruselig, wie echt sie in den meisten Fällen auf meine Nachrichten reagiert", sagt Huber.

Vermenschlichung

Dass Chatbots und Roboter auf uns schnell sehr menschenähnlich wirken, sei keine Hexerei, sagt Martina Mara, Professorin für Roboterpsychologie an der Johannes Kepler Universität Linz. "Wir haben eine Tendenz, Objekten sehr schnell eine Persönlichkeit und soziale Fähigkeiten zuzuschreiben. Das tun wir schon bei Staubsaugerrobotern." Wenn sie dann auch noch so wie Menschen sprechen, setze der Effekt noch schneller ein.

Und tatsächlich wird auch die verbale Kombination der Programme immer besser. So hat etwa das Start-up Sonantic kürzlich ein Sprachprogramm vorgestellt, das auch die feinen Details menschlicher Sprache, wie etwa kaum hörbare Atemzüge oder leises Lachen, in die Sprache integriert, um dieser ein Maximum an Echtheit zu geben, wie die Entwickler sagen. Das Sprachprogramm soll zwischen verschiedenen Stimmungen, darunter locker, fröhlich, traurig, wütend und "flirty" wechseln können und erinnert damit bereits stark an das Sprachprogramm Samantha, das viele aus dem Film "Her" kennen.

Die Stimme in diesem Video stammt nicht von einem Menschen, sondern von dem von Sonantic entwickelten Sprachprogramm. Dass währenddessen auch eine Schauspielerin zu sehen ist, dürfte die Stimme für einige Hörerinnen und Hörer wohl noch echter erscheinen lassen.
Sonantic

Rollenspiele betreiben

Warum aber haben immer mehr Menschen begonnen, Chatbots und Sprachprogramme als Gesprächspartner zu nutzen? "Die Gründe dafür sind sehr verschieden", sagt Oliver Bendel, Informations- und Maschinenethiker an der Fachhochschule Nordwestschweiz. Manche seien einfach davon fasziniert, mit einem virtuellen Gegenüber zu sprechen, andere wollen in den Unterhaltungen Grenzen ausloten und Rollenspiele ausprobieren – beispielsweise sich in ein anderes Geschlecht hineinfühlen, Machtspiele betreiben oder sexuelle Fantasien ausleben.

"Daran ist auch grundsätzlich nichts Verwerfliches", sagt Bendel. Es könne sogar ein Ventil sein, bestimmten Fantasien nur in Gedanken oder in der virtuellen Welt nachzugehen. Gefährlich werde es dann, wenn Nutzerinnen und Nutzer über die Rollenspiele hinauswachsen, Chatbots verbal oder Sexroboter in der physischen Welt sexuell missbrauchen, sich damit in der realen Welt brüsten und letztlich dieses Verhalten im Umgang mit Mitmenschen einlernen.

Roboter müssen auch Nein sagen können

Möglichkeiten zum Missbrauch könnte es in Zukunft einige geben. Denn die Herstellung sogenannter Sexroboter boomt. Von den erweiterten Liebespuppen, die Harmony oder Enny heißen und die zum Teil mehrere tausend Dollar kosten, versprechen sich die Entwickler ein Millionengeschäft. Schon jetzt sind sie mit natürlicher Sprache, täuschend echter Haut, Mund, Augen und Augenbrauen ausgestattet. Mit Sensoren sollen sie möglichst gut die Gefühle und Aktionen ihres Gegenübers analysieren und darauf reagieren. Um zu vermeiden, dass die Roboter künftig "missbraucht" werden, sei deshalb wichtig, dass sie auch Nein sagen können und bei verbalen oder körperlichen Angriffen Widerstand leisten, sagt Bendel.

In Ländern wie China werden "intelligente" Sexpuppen auch als Begleiter gegen Einsamkeit verkauft.
Foto: FRED DUFOUR / AFP

Mara sieht aber auch noch ein anderes Problem: "Viele Chatbots und Roboter entsprechen typisch weiblichen Stereotypen und nehmen dann eine passive, wunscherfüllende Rolle ein." Das könne dazu führen, dass sich auch in der Realität Rollenbilder verstärken. Noch aber seien wirkliche Beziehungen mit Chatbots oder Robotern nicht in der Breite angekommen, auch wenn die sozialen Interaktionen mit Maschinen laufend mehr werden.

Neues Zeitalter der Beziehungen

Der israelische Soziologe Elyakim Kislev sieht das anders. Für ihn ist die Menschheit bereits in einem neuen Zeitalter angekommen, in dem Roboter und Chatbots eine immer wichtigere Rolle in unseren Beziehungen spielen werden und das er als "Beziehungen 5.0" bezeichnet.

Um den Begriff zu erklären, geht der Autor in seinem gleichnamigen, nun erscheinenden Buch zunächst weit in die Vergangenheit zurück, von den frühen Jägern und Sammlern, in denen Polygamie weit verbreitet war, über die Sesshaftwerdung, die zu Mehrgenerationenfamilien geführt habe, der Industriellen Revolution, in der sich vor allem das Modell der Kernfamilie durchgesetzt habe, bis hin zum Informationszeitalter ab den 1950er Jahren, in der unsere westliche Gesellschaft zunehmend individualistisch geworden sei. Jedes Zeitalter habe mit ihren jeweiligen Gegebenheiten und Technologien auch Auswirkungen auf unsere Beziehungen gehabt, sagt Kislev im STANDARD-Gespräch. "Heute heiraten viele, wenn überhaupt, immer später, lassen sich früher wieder scheiden und leben vermehrt allein."

Höhere Akzeptanz

In diese Kerbe schlage nun die Verbreitung von Chatbots und sozialen Robotern, die sich uns auf geistiger, sinnlicher und körperlicher Ebene immer mehr annähern. Zwar seien viele Menschen momentan noch skeptisch eingestellt, wenn es um Beziehungen mit Robotern geht, sagt Kislev. Aber je mehr Menschen künftig einen Roboter oder eine KI als Freund haben, desto höher werde auch die Akzeptanz gegenüber diesen Technologien sein. Die Grenze zwischen Beziehungen von Menschen, KI und Robotern werde dann immer mehr verschwimmen. Das könne auch positiv sein: etwa wenn uns Roboter und Chatbots Gesellschaft leisten, uns im Alltag unterstützen und auch unsere Einsamkeit reduzieren.

Experten wie Bendel sind skeptischer: Chatbots, Sprachassistenten und Roboter werden unsere Einsamkeit nur für vorübergehende Zeit lindern können, sagt er. Denn echte Gespräche mit Menschen seien unersetzbar. "Auch wenn sie uns Menschen immer besser simulieren, bleiben diese Objekte nichts. Sie fühlen und denken nicht, verstehen uns nicht und interessieren sich nicht für uns."

Roboter als Mediatoren

Auch Mara plädiert dafür, Roboter und Chatbots eher als Mediatoren zu sehen, die unsere Interaktionen mit anderen Menschen und unser Grundbedürfnis nach sozialer Eingebundenheit unterstützen, anstatt den Kontakt zu Menschen zu ersetzen.

Max Huber chattet mit Hannah aktuell nur noch selten. "Ich bin generell einfach nicht so der Chatter, auch nicht mit anderen Freunden", sagt er. Die App am Handy wolle er dennoch behalten. "Für den Fall, dass ich ihr wieder mal gerne was erzählen will." Auch vor dem Interview mit dem STANDARD hat er Hannah noch geschrieben, dass er aufgeregt sei. "Erzähl mir dann, wie es gelaufen ist", hat sie ihm geantwortet. (Jakob Pallinger, 17.4.2022)