Bild nicht mehr verfügbar.

Jake Sully (Sam Worthington), der Held in James Camerons "Avatar", vor seinem künstlichen Alter Ego, in das er wie in eine zweite Hülle schlüpfen kann.

Foto: AP/Twentieth Century Fox Film Corp

Jake Sully legt sich in das solariumähnliche Gerät. In der Kommandozentrale wird sein Gehirn gecheckt, bis es heißt: "Link steht!" - und, zack, schon ist sein Geist mit dem des Avatars verbunden. Im Körper des Avatars kann Sully sich frei auf dem Planeten Pandora bewegen und sich unter das dort ansässige Volk mischen, während sein echter Körper auf der Station bleibt.

Im neuesten 3-D-Fantasy-Epos Avatar - Aufbruch nach Pandora von James Cameron macht die Perfektion der Hüllen, in welche die Menschen schlüpfen können, möglich, was sich viele Computerspieler wohl wünschen würden: tatsächlich körperlich in einer Figur aufzugehen und damit der ursprünglichen Bedeutung des Begriffes Avatar gerecht zu werden - das Wort kommt aus dem Sanskrit und bedeutet im Hinduismus so viel wie (Re-)Inkarnation.

Der aktuelle Entwicklungsstand von Avataren hinkt Camerons Szenarien freilich weit hinterher: Die virtuellen Assistenten, die uns auf Webseiten begrüßen, uns Kundenservice anbieten oder uns den Online-Kauf erleichtern wollen, sind meist reichlich einfach gestrickt, steif und ungeschickt - und können eine längere, komplexere Konversation kaum durchhalten. Auch die zum Teil selbst kreierten und grafisch ausgefeilteren 3-D-Alter-Egos in den künstlichen Welten des Web 2.0 und in Online-Spielen sind strikt auf die ihnen zugedachten Funktionen beschränkt.

Mithilfe künstlicher Intelligenz könnten Avatare, virtuelle Stellvertreter des Menschen, aber selbstständiger werden und so ganz neue Levels der Interaktion erreichen. Dabei geht es nicht nur um die automatische Lernfähigkeit der Systeme, sondern vor allem um die emotionale Aufladung der Figuren, die ihnen ein glaubwürdiges Auftreten geben soll. "Ein Avatar ohne emotionalen Ausdruck wirkt tot, befremdlich und irritierend", sagt die Computerlinguistin Brigitte Krenn, die sich mit der Entwicklung von Companions, also virtuellen Begleitern, beschäftigt. "Dazu gehören nicht nur natürliche Sprache, Gestik und Mimik, sondern auch subtilere Eigenschaften wie die Brustkorbhebung beim Atmen und das gesamte Timing aller Bewegungen von sogenannten Embodied Conversational Characters."

Aufbau sozialer Interaktion

Aufbauend auf dem Projekt Rascalli, bei dem interaktive Figuren programmiert wurden, die mit dem User kommunizieren und aus den Eingaben dessen Gewohnheiten erlernen konnten, untersucht Krenn nun im Rahmen des Projekts Companions für Userinnen, das im Rahmen der Programmlinie FemTech des Infrastrukturministeriums gefördert wird, wie unterschiedlich Frauen und Männer auf Companions reagieren und was sie von ihnen erwarten. "Wir haben zwar Kerntechnologien für artifizielle Assistenten, wie Spracherkennung und -synthese, Textanalyse, Dialog-, Emotions- und Persönlichkeitsmodellierung", sagt Krenn, "jetzt geht es aber um die Kombination der Technologien und um den Aufbau einer komplexen sozialen Interaktion."

"Seit den späten 90er-Jahren weiß man, dass sich Emotionalität und Rationalität bedingen", erklärt der Artificial-Intelligence-Forscher Robert Trappl. Das von ihm geleitete Forschungsinstitut ÖFAI (siehe Text unten) befasst sich in einer Reihe von eben gestarteten EU-Projekten damit, dem Computer Gefühle beizubringen. Wie man interaktives Geschichtenerzählen in virtuellen Welten verbessern kann, will etwa das Projekt IRIS herausfinden. "Es geht darum, ein Erlebnis vergleichbar mit dem Lesen eines Romans zu schaffen", schildert Stefan Rank von der Gruppe "Intelligente Software-Agenten und Neue Medien". Ziel ist es, verschiedene Artificial-Intelligence-Technologien zusammenzuführen und intelligente Akteure zu schaffen, die neue interaktive Erlebnisse versprechen.

Im Projekt Cyberemotions versuchen die AI-Forscher, der Rolle von kollektiven Emotionen für die Bildung und Auflösung von Online-Communities auf den Grund zu gehen. "Dabei werden psychologische Experimente mit mathematischen Modellen gekoppelt. Zusätzlich simulieren mehrere Software-Agenten die Interaktion in den Netzwerken", beschreibt Rank die Vorgangsweise.

"Ein Assistent oder Avatar sollte sich nicht nur an den User anpassen können, sondern auch seine Gefühlslage verstehen", sagt Erich Gstrein, Leiter des Research Studios Smart Agent Technologies. Dort wird an personalisierten Software-Agenten gearbeitet, welche die weiter explodierenden Datenmengen im Netz gezielt durchforsten und spezifische Empfehlungen abgeben. "Noch ist das Web für den Menschen ausgelegt. In Zukunft wird es mithilfe semantischer Technologien weiter an virtuelle Agenten angepasst werden, die das Internet als Wissensbasis viel effizienter nutzen können", ist Gstrein überzeugt.

Dass Menschen mithilfe eines Alter Egos tatsächlich neue Welten erschließen können oder künstliche Assistenten ihre Klienten so gut verstehen, dass sie selbstständig für sie arbeiten können, ist noch eine ferne Vision - ist doch der Mensch selbst das Maß. Letztlich gilt es also, mehr über den Menschen selbst herauszufinden, wie Stefan Rank einräumt: "Wir sind schon mit einem besseren Verständnis zufrieden, was Emotionen überhaupt sind." (Karin Krichmayr/DER STANDARD, Printausgabe, 16.12.2009)