Geht es einem psychisch nicht gut, kann ein empathisches Gespräch helfen. KI kann dabei helfen, dass Nachrichten mehr Mitgefühl vermitteln.

Foto: imago images / Ikon Images

Mitgefühl ist eine der Schlüsselemotionen in der Kommunikation zwischen Menschen. Doch das fehlt oft, und das führt zu nicht wenigen Problemen. Denn nicht jeder und jede ist fähig zu Empathie oder nicht in genügendem Ausmaß. Hier soll künstliche Intelligenz (KI) Abhilfe schaffen. Die Idee dafür ist nicht neu. Bereits 1964 erfand der Computerwissenschafter Joseph Weizenbaum am Massachusetts Institute of Technology ein Programm namens Eliza, das Fragen generierte, die jenen eines Psychotherapeuten nachempfunden waren. Mittlerweile hat sich in diesem Bereich extrem viel getan. Ein US-Team von Forschenden hat nun eine Studie im Fachjournal "Nature Machine Intelligence" publiziert, die untersucht hat, wie ein KI-Programm Aussagen von Nutzerinnen und Nutzern in Chats empathischer macht.

Das Programm überprüft Formulierungen in Laien-Gesprächen zu psychischen Problemen und bietet den Chattenden empathischere Antwortmöglichkeiten an. Kann das funktionieren? Soeben erst wurde ja berichtet, dass Maschinen sexistisch sind und schlecht abstrahieren können. Doch das in der Studie untersuchte Programm scheint positive Resultate zu bringen.

Das "Hailey" genannte Modell wurde in der randomisierten Studie mit 300 Teilnehmenden auf einem App-Interface, das der Plattform Talk Life nachempfunden war, getestet. Auf Talk Life können User im nichtklinischen Kontext mit anderen Usern über ihre psychischen Probleme schreiben. Dabei sind die Rollen so festgelegt, dass eine Person über ihre Erfahrungen und mentalen Probleme schreibt und die andere darauf reagiert und Feedback oder Ratschläge gibt. Für die Studie schlug die KI bei Antworten der beratenden User Verbesserungs- und Ergänzungsvorschläge vor, mit dem Ziel, dass die Antworten empathischer wirken. Die User konnten sich entscheiden, die Vorschläge anzunehmen oder sie zu ignorieren.

KI-generierte Antworten deutlich empathischer beurteilt

Die Vorschläge der KI haben dazu geführt, dass die Nachrichten im Durchschnitt um 19,6 Prozent empathischer empfunden wurden als jene Nachrichten, die von den Probandinnen und Probanden allein verfassten wurden, berichten Autorinnen und Autoren der Studie. Bei Usern, die von Problemen berichteten, sich empathisch auszudrücken, wurden die durch die KI überprüften Antworten sogar um durchschnittlich 38,9 Prozent empathischer empfunden. Diese Verbesserungen in der Empathie der Nachrichten wurden von 50 Probandinnen und Probanden beurteilt, die ansonsten nicht an der Studie teilnahmen, sowie von einem weiteren KI-Modell. Da dieses aber auf dem gleichen Empathiemodell beruht wie Hailey, hat dieser Befund allein nur begrenzte Aussagekraft, betonen die Forschenden.

Bei der Frage nach der Authentizität der Antwort, also ob eine Antwort den Eindruck erweckt, dass sie von einem Menschen geschrieben wurde, schnitten die von Menschen allein verfassten Antworten am besten ab, knapp vor den von Menschen nach dem KI-Hinweis verfassten. Die nur von der KI verfassten Antworten lagen in der Bewertung der Authentizität ungefähr 30 Prozentpunkte dahinter. Daraus schließen die Forschenden, dass ein Human-in-the-Loop-Ansatz, bei dem Menschen von der KI unterstützt werden, der vielversprechendste ist, da dieser ein hohes Ausmaß an Empathie sowie Authentizität aufweist.

Was bedeuten diese Erkenntnisse? Und wie geht man mit KI bei psychologischen Behandlungen zukünftig um? Was können KI-Modelle wie Chat GPT leisten in einer Zeit, in der Therapieplätze oft schwer zu bekommen und mit langen Wartezeiten verbunden sind. Und wo sollte man solche Sprachgeneratoren besser nicht einsetzen? Immerhin können Fehler oder schlechte Beratung in diesem sensiblen Bereich schwerwiegende Auswirkungen haben.

Verbesserte Empathie-Werte nicht erstaunlich

Dass die Empathie-Werte durch die KI verbessert wurden, findet Sonja Utz von der Arbeitsgruppe Alltagsmedien in Tübingen nicht erstaunlich – immerhin beruht Machine-Learning auf Datenbasis von Menschen. "Vermutlich wäre ein ähnlicher Effekt aufgetreten, wenn andere Personen und vor allem erfahrene Therapeutinnen oder Therapeuten Verbesserungsvorschläge gemacht hätten." Prinzipiell befürwortet Utz soziale Unterstützung über Onlinemedien und Plattformen wie "Talk Life": "Es gibt seit Jahrzehnten Studien, die positive Auswirkungen zeigen, besonders für Personen, die Stigmatisierung befürchten oder wenige Personen mit dem gleichen Problem in ihrer Umgebung haben."

Da in solchen Onlineforen Diskussionen für alle sichtbar sind, kann auch leichter jemand eingreifen, wenn Falschinformationen verbreitet werden oder der Ton nicht angemessen ist. Diskutieren nur zwei Teilnehmende, etwa eine Person mit einem Therapie-Chatbot, hält Utz das für deutlich riskanter. "Vor allem bei ernsthaften psychologischen Störungen ist professionelle Hilfe nötig."

Sie hält die Ergebnisse aber über den Therapiekontext hinaus für sehr relevant. Sprachmodelle haben im vergangenen Jahr sehr große Fortschritte gemacht, immer mehr Menschen werden Tools wie Chat GPT zumindest für eine erste Version ihrer Texte nutzen. Utz betont, dass die verschiedenen Umgangsformen damit, ob alles blind übernommen oder überprüft und angepasst wird, zukünftig genau untersucht werden müssen, um die Auswirkungen zu erkennen.

KI als Trainingspartner für mehr Empathie

Sollte sich der Einsatz solcher KI breitflächig durchsetzen, sei es unbedingt wichtig, ethisch-normative und rechtliche Aspekte zu diskutieren, betont die Sozialpsychologin Nicole Krämer von der Uni Duisburg-Essen. "Personen sollten immer darüber informiert sein, woher die Aussagen kommen und dass möglicherweise die Person, mit der man spricht, nicht der alleinige Urheber der Nachricht ist."

Einen Durchbruch in der zukünftigen verbesserten Behandlung psychisch kranker Menschen sieht sie nicht. "Für so eine erfolgreiche Behandlung ist mehr erforderlich als eine Steigerung der Empathie durch Anpassung der Äußerungen." Der hier gewählte Ansatz könne aber womöglich geeignet sein, eine empathischere Sprache im Alltag zu nutzen.

Spannend an der Studie findet Tobias Rieger, Psychologe an der Technischen Universität Berlin, den Hinweis, dass für Menschen, die sich mit Empathie schwertun, die KI eine Art Trainingspartner sein kann – sollte sich herausstellen, dass sich die Empathie dadurch auch in Situationen verbessert, in denen keine KI bereitsteht. (kru, 26.1.2023)