Trauer-KIs könnten Angehörige an einem gesunden Weiterleben hindern. Mehr noch: Sie könnten von manchen wie Engel oder Gottheiten verehrt werden, warnen Forschende.
IMAGO/Udo Gottschalk

Technisch ist es schon heute möglich, den Charakter von Verstorbenen durch einen Chatbot imitieren zu lassen. Man trainiert die künstliche Intelligenz etwa mit E-Mails oder Social-Media-Postings des Verstorbenen. Das wird auch schon gemacht: Kommerzielle Angebote wie "Here After" bieten genau so einen "Service". Bei der App aus den USA reicht es, einige Fragen zu beantworten und Audiofiles hochzuladen – und fertig ist der personalisierte Chatbot. Dieser soll den Hinterbliebenen im Fall des eigenen Todes eine Möglichkeit geben, mit dem Dahingeschiedenen weiter in Kontakt zu bleiben. Auch Replika.ai war eigentlich ursprünglich als App zur Trauerbewältigung gedacht, entwickelte sich jedoch rasch in eine Richtung, der selbst das Entwicklerunternehmen nur mehr schwer Herr wurde.

Während Herstellerfirmen naheliegenderweise die Vorzüge ihrer Trauer-KIs bewerben, steht die Fachwelt der sogenannten "Grief Tech" eher skeptisch gegenüber. Nur weil man die Technologie habe, um Verstorbene nachzuahmen, sei das noch kein Grund, sie auch einzusetzen, so der Tenor. Und: Die Wiederbelebung verstorbener Angehöriger mithilfe künstlicher Intelligenz könnte der psychischen Gesundheit schaden, eine Abhängigkeit von der Technologie schaffen und sogar eine neue Religion hervorbringen, warnen Forscherinnen und Forscher.

"Wie Engel oder Gottheiten"

Zwei von ihnen sind Jed Brubaker, Assistenzprofessor für Informationswissenschaften von der University of Colorado Boulder, und Meredith Morris von Googles Deepmind. Zwar könnten "generative Geister" ein Trost für Hinterbliebene sein, sie könnten aber genauso gut eine Abhängigkeit oder Sucht erzeugen und die Nutzerinnen und Nutzer solcher Technologien daran hindern, ihr Leben auf eine gesunde Weise fortzusetzen. Mehr noch: Eine solche Abhängigkeit könne dazu führen, dass Verstorbene wie Engel oder Gottheiten verehrt würden, warnt Brubaker. Da wäre besonders fatal, weil derartige KI-Anwendungen zum Halluzinieren neigen und den Trauernden schädliche Ratschläge erteilen könnten, wie "New Scientist" berichtet. In seiner Studie bezeichnet das Duo derartige KI-Anwendungen auch als "Deathbots".

Er glaube nicht, dass eine Mehrheit der Menschen auf Chatbots ihrer verstorbenen Angehörigen zurückgreifen möchte, weil sie die Vorstellung seltsam und ein wenig gruselig finden. Aber eine Minderheit könnte die KI-Anwendungen falsch verstehen und sie als Götter ansehen, was letztendlich zu einer Art KI-Religion führen könnte.

"Ich glaube, manche Leute sehen sie als Götter", sagt Brubaker. "Ich glaube nicht, dass die meisten das tun. Es wird eine Gruppe von Menschen geben, die sie einfach nur seltsam und gruselig finden." Brubaker ist jedoch der Meinung, dass KI-Nachleben im Leben einiger Menschen eine große Rolle spielen und sogar zu neuen religiösen Bewegungen führen könnte. Der Forscher sieht hier andere Religionen in der Pflicht, diese könnten etwa Leitlinien für die Verwendung "generativer Geister" aufstellen. Forscher und Entwickler sollten jedenfalls gut darüber nachdenken, wie und ob sie Sprachmodelle mit den Daten verstorbener Menschen zum Zweck ihrer Nachahmung erstellen.

Negativbeispiele gibt es schon

Als Negativbeispiel nennen die Forschenden Hollywood: Durch Technologien wie KI-gestützte Bildgenerierung und Voice-Cloning sei es heute schon möglich, dass verstorbene Schauspieler nach wie vor in Filmen mitspielen. Das löste bei den lebenden Künstlerinnen und Künstlern wenig Begeisterung aus und war mit ein Grund für die Streiks in der Filmbranche im Jahr 2023. Gleichzeitig könnten "generative Geister" Angehörigen enormen Schaden zufügen, wenn sie etwa unautorisiert von Dritten erstellt werden. So belebte ein Fan den 2008 verstorbenen Comedian George Carlin mit KI-Technologie wieder und erschuf ein Programm namens "I'm glad I'm dead" (Ich in froh, dass ich tot bin). Dieses Programm habe die hinterbliebene Tochter des Komikers traumatisiert, heißt es in dem Paper.

Darüber hinaus stellen Deathbots ein enormes Sicherheitsrisiko dar. Das Spektrum reiche von Belästigungen über Stalking und Trolling durch in böswilliger Absicht erstelle Geister von toten Angehörigen. So sei es ein Leichtes, hinterbliebene Familienmitglieder etwa durch Anrufe mit den geklonten Stimmen Verstorbener in Angst zu versetzen. Auch handfester Betrug sei mit den Bots möglich.

Vermarktung an verletzliche Menschen

Ähnlich kritisch ist auch Mhairi Aitken vom Alan Turing Institute in London. Sie sagt, dass sie sich bei der Vorstellung, nach dem Tod in einen KI-Chatbot verwandelt zu werden, äußerst unwohl fühlt. Die Ethikerin schlägt eine Regulierung vor. Diese soll verhindern, dass Daten ohne die vorherige Zustimmung einer Person gesammelt und als Trauer-KI verwendet werden. "Es ist wirklich besorgniserregend, dass diese neuen Tools an Menschen vermarktet werden könnten, die sich in einem sehr verletzlichen Zustand befinden, an Menschen, die trauern", sagt Aitken. "Ein wichtiger Teil des Trauerprozesses ist das Weitermachen. Es geht darum, sich an die Beziehung zu erinnern, über sie nachzudenken und die Person in Erinnerung zu behalten – aber auch weiterzugehen. Und es gibt echte Bedenken, dass dies zu Schwierigkeiten in diesem Prozess führen könnte." (pez, 27.2.2024)