Foto: Star Trek
Wer derzeit über "Artificial Intelligence" - kurz: AI - diskutiert, meint bevorzugt Steven Spielbergs jüngsten Spielfilm über ein liebeshungriges Roboterkind in ferner Zukunft. Claus Philipp und Roland Schönbauer nahmen dies zum Anlass und sprachen mit dem Wiener AI-Forscher und Kybernetiker Robert Trappl über den Status Quo und Zukunftsperspektiven von intelligenten Maschinen. STANDARD: "Artificial Intelligence" - was definiert das? Robert Trappl : Intelligente Software. Eine ihrer Wurzeln war der explosionsartige Boom des World Wide Web, Anfang der 90er Jahre. Da stellte sich schnell die Frage: Wie findet man dort Informationen, ohne permanent mit überflüssigen Dingen zugeschüttet zu werden? Es wurde notwendig, Quasi-Roboter, möglichst selbständige Suchmaschinen zu konstruieren, die sich im Internet fortbewegen, und denen man, weil man nicht weiß, wie genau die Situation vor Ort sein wird, allgemein gehaltene Aufgaben mitgeben kann. Das ist nicht einfach. Der Programmierer muss sich überlegen: Wie macht das ein Mensch? Sind das nicht Zielsetzungen, die je nach dem, ob ich näher zum Ergebnis komme oder nicht, eine Belohnung oder eine Bestrafung nach sich ziehen müssen? STANDARD: Es geht also auch um Emotionen? Trappl : Ja, es gibt da eine Erkenntnis aus der ersten Hälfte der 90er Jahre: Bei bestimmten Erkrankungen oder Verletzungen eines Teils der vorderen Hirnrinde - bleiben die betreffenden Personen zwar intelligent, haben aber Probleme, Entscheidungen zu fällen. Scheinbar brauchen wir Emotionen, um einen Suchraum drastisch einzuschränken. Wir wissen: Gewisse Dinge sind ausgeschlossen. Sie wären unangenehm. Oder unnötig. Auch mit der Verbreitung der Computerspiele entstand ein Bedarf nach interessanteren, emotionelleren Akteuren. Das dürfen nicht nur "Idioten" sein, die herumschießen. Die bekannteste Ausformung dieser Entwicklung war Ende der Neunziger das Spiel "Virtual Petz" - kleine Viecher am Bildschirm zum Streicheln, Füttern, usw. Die haben sich toll verkauft. Also hat man das fortgesetzt mit "Virtual Babyz", mit "z", für die Trademark. Auch sie müssen gefüttert werden, kriechen herum und "reagieren" auf Emotionen des Benutzers. STANDARD: Und auf ähnliche Weise emotionalisiert man jetzt Suchprogramme? Trappl : Bei Microsoft Research überlegen sie gerade, wie man die jeweilige emotionale Situation eines Benutzers eingehen kann, der manchmal zum Beispiel verärgert ist, wenn er lange warten muss. Dann sollte die Maschine sagen: "Sorry it took so long to bring you this answer" oder "I hope you like it". STANDARD: Das heißt, es soll über Programme eine Art von Beseeltheit vermittelt werden? Das ist ja auch das Thema von Steven Spielbergs Film. Trappl : Die Frage ist scheinbar auch für ihn: Wo sind die Grenzen zwischen Programm und Emotion? Angeblich scheitert dieses Roboterkind im Film ja an der Liebe als höchster Emotionsform, die es nicht bewältigt, weil es sie nicht ausdrücken kann. STANDARD: Wie weit ist die tatsächliche AI-Forschung von so einem Programm entfernt? Trappl : Die Nachahmung von Liebe - ich kenne kein Projekt, das so etwas überlegt. Die Emotionalität der meisten mir bekannten Programme ist einfach zweidimensional: stark oder schwach, positiv oder negativ. Daneben gibt es auch Modelle, die Emotionen zeigen - als Reaktionen auf Objekte oder Menschen. Und der Mensch ist schwer einzuschätzen. Wenn ich ihm auf die Zehen steige, schreit er oder wird wild oder er denkt nach. Er wird über einen Umstand traurig, glücklich oder fröhlich - wie, das ist von außen überhaupt nicht feststellbar. Nicht einmal über die Gehirnströme ist das differenziert genug ableitbar. STANDARD: Dagegen sind die AI-"Emotionen" ziemlich primitiv: positiv - negativ, stark - schwach. Trappl : Es gibt schon ziemlich komplexe Modelle, da kommen über 30 Emotionen inklusive Schuldgefühle vor. STANDARD: Das heißt, so eine Maschine bedient zumindest die Rhetorik des Schuldgefühls? Trappl : Sie kann zumindest sagen: "In dieser Situation empfinde ich Schuld." Es gibt ausführliche Forschungen über Emotionen aus dem vorvorigen Jahrhundert, aber modellhafte Darstellungen erst seit den siebziger Jahren. STANDARD: Berichte über diese Forschung erzeugen oft Unbehagen. Es stellt sich die Frage: Nützt die Industrie das zu manipulativen Zwecken, etwa im Bereich der Unterhaltung? Wie stehen Sie zu dieser fragwürdigen Allianz zwischen Forschung und Industrie? Trappl : Gut möglich, dass wir hier Rationalisierungstendenzen zuarbeiten. Bei synthetischen Akteuren für die Filmindustrie wird es etwa interessant, wann sie in welchem Ausmaß die realen ablösen. Die Produzenten dürften das begrüßen, weil diese Kunstfiguren derzeit noch keine Gewerkschaft haben. Andererseits weiß man nicht, ob dann nicht irgendwann doch auch Schutzgesetze für Roboter oder intelligente Softwareagenten gelten werden. Jedenfalls werden sie eines Tages billiger werden und wirklich tolle Eigenschaften haben: Man muss dann nicht mehr durch Morphing einen realen Schauspieler verändern, am Computer ist das viel einfacher. STANDARD: Man braucht Michael Jackson und seine kosmetischen Veränderungen nicht mehr? Trappl : Man wird sicher - da gibt es schon Überlegungen - spezifisch für verschiedene Kulturen verschiedene synthetische Akteure mit verschiedenem Aussehen und Verhalten bauen können. STANDARD: ...oder einen Film für jeden Kulturkreis jeweils individuell besetzen? Trappl : Ja! Trotzdem: Am prekärsten sind wahrscheinlich die Auswirkungen, die diese Möglichkeit zur Simulation bei den Spielen haben wird. Die Kids wachsen ja mittlerweile in einer völlig anderen Welt auf als wir. Disneyland etwa hat sich zuletzt entschlossen, einen Zoo zu machen, mit echten Tieren, und dort sollen jetzt viele Beschwerden eingehen, dass zum Beispiel die Krokodile nicht echt wirken. Die liegen ja die ganze Zeit da und tun nichts. In der Vorstellung der Kinder schnappt ein Krokodil aber wild, da ist immer Action. Sie kriegen eine Vorstellung von der Welt, die fast videoclipartig ist. Alle paar Sekunden muss sich etwas total anderes tun. Im Fernsehen haben sie ja auch schon nach wenigen Sekunden eine andere Einstellung. Im normalen Leben hat man im Prinzip aber immer dasselbe. STANDARD: Es soll also gefälligst die Kunst imitieren? Trappl : Oder zumindest das, was jetzt in den Medien geboten wird. STANDARD: In Spielbergs Film kommt es zu Aufständen der Roboter, weil sie - wie bisher die menschlichen Arbeiter - sagen: Wir erfüllen hier unsere Aufgaben. Es ist ungerecht, dass man uns dann plötzlich ins Ausgedinge abschiebt. Auch Sie haben vorher von Schutzgesetzen für Roboter gesprochen. War das ironisch gemeint? Trappl : Die Frage ist: Ab welchem Zeitpunkt wird man sagen müssen, dass ein Roboter gewisse bürgerliche Rechte im Sinne des 18. Jahrhunderts braucht? Darf ich ihm dann sofort den Strom abschalten, wenn ich ihn nicht will? In Amerika, wo George Bush Menschen hinrichten lässt, wird das kein Problem sein, aber das wäre ja paradox. Dazu muss man sehen, dass ja auch die Roboter in einem Körper drinnen sind, auch wenn er noch höchst simpel ist. Nicht nur das MIT, auch die Japaner arbeiten seit Jahren daran, sie zum Teil menschenähnlicher zu machen. Noch gehen sie erst langsam, ohne viel zu wackeln. Ich warte darauf, dass einer einen Abfahrtslauf gewinnt. STANDARD: Wie bald kommt das? Trappl : Da wage ich keine Prognose, aber unter 40, 50 Jahren würde ich mich wundern. Diese zunehmende Bedeutung des Körperlichen bei den Robotern war in den siebziger Jahren für die AI-Forschung interessanterweise noch kein Thema. Wir haben zuerst immer an einem Kasterl geforscht, das in der Ecke stand und Wärme produziert hat. Erst die Frage, was mit Intelligenz passiert, die über einen "Körper" Kontakt mit ihrer Umwelt aufnimmt, und die frühen Versuche mit Robotern führten zum Paradigmenwechsel. STANDARD: Wo sind die Grenzen der Vermenschlichung des Roboters? Trappl : Natürlich ist die Versuchung sehr groß, quasi wie ein Faustscher Schöpfer einen Homunculus zu machen, der dann in einem Glaskolben herumhüpft - diesmal vom Menschen wirklich ununterscheidbar. Die Frage ist jedoch: Macht es einen Sinn, so etwas wie den Menschen abzubilden? Da gibt es den technischen Aspekt, dass der Mensch zu umständlich zu machen ist. Andere wiederum sehen in der Konstruktionsarbeit eine Möglichkeit zum Erkenntnisgewinn über den Menschen. STANDARD: Was geschieht aber, wenn diese Erkenntnis vor allem für industrielle Rationalisierung genützt wird, so wie die Arbeits- und Unterhaltungsroboter bei Spielberg? Was geschieht, wenn sogar die Auftraggeber durch Roboter ersetzt werden - mit Kalkulationsprogrammen zur Profitmaximierung beispielsweise? Trappl : Ja, warum soll da noch ein menschlicher Drahtzieher sein, könnte man fragen, wenn die Roboter auch die besseren Kapitalisten sein könnten? In Wirklichkeit könnten Softwareagenten, wenn sie die Datennetze richtig ausnützen, schon demnächst die Herrschaft der Welt antreten. Die Entwicklung ist nicht so weit, aber wenn sie weiter ginge, dann wäre nicht einmal eine Materialisierung über Roboterkörper erforderlich. Ein nicht-materieller Softwareagent könnte uns dann CNN-Nachrichten bringen, die es nie gegeben hat; er könnte globale Finanztransaktionen so modifizieren, dass Firmen oder Regierungen in Konkurs gehen. Dazu braucht er keinen Körper. STANDARD: Wo liegt für Sie angesichts derartiger Horrorszenarien das Limit für die AI-Forschung? Wann heißt es: Bis hierher und nicht weiter? Trappl : Meine Zielsetzung ist, dass eine möglichst große Zahl von Menschen mithilfe gewisser Errungenschaften glücklich ist. Das Problem ist nur: Niemand weiß genau, was die Leute wirklich glücklich macht. STANDARD: Und die Industrie hat ja davon mitunter ja auch sehr eigenwillige Vorstellungen. Trappl : Es geht ihr ja darum, was sich verkauft. Beim Spielzeug zum Beispiel: Früher haben die Kinder da ihre eigenen Emotionen hineinprojiziert, z.B. in eine Puppe. Die Puppe ist traurig, die Puppe weint, und jetzt ist man die gute Puppenmutter. Heute gibt es aber schon Spielsachen, die Emotionen des Benutzers verlangen, die sagen "du hast mich traurig gemacht" und "warum tust du das". Und plötzlich steht das Kind vis-à-vis einem Spielzeug, das ihm emotionale Forderungen stellt. Man kann sich vorstellen, dass es Puppen geben wird, die gequält und gestochen werden wollen. Das heißt: Da werden Verhaltensweisen, die wirklich gefährlich sind, in sehr jungen Jahren möglicherweise schon stark beeinflusst. STANDARD: Aber das ist ja wohl schon ein Detailaspekt, keine grundsätzliche ethische Frage. Trappl : Ich frage mich: Ist es zulässig, in einer Entwicklung zu arbeiten, die Roboter herstellen wird, die von uns vielleicht durchaus verschieden sind, aber die die gleichen Leistungen vollbringen und geschwinder besser werden? Manche AI-Forscher argumentieren hier so: Unsere Erbinformation ist so langsam modifizierbar, dass eine Robotergeneration mit Prozessoren, die alle 18 Monate ihre Leistungsfähigkeit verdoppeln, uns in absehbarer Zeit ablösen wird. Ich glaube das nicht, aber andere Wissenschafter prophezeien das mit vollem Ernst. Eine logische Konsequenz ihres Szenarios wäre ja, dass wir für den Tiergarten Schönbrunn spenden sollten, weil wir da vielleicht einmal im Käfig sitzen werden, und die Roboter kommen zu Besuch. Für diese Zeit sollte der Zoo möglichst gut ausgestattet sein. (DER STANDARD, Print-Ausgabe, 7./8. 7. 2001)