julian nida rümelin
Julian Nida-Rümelin referierte zuletzt auch vor den Abgeordneten des österreichischen Parlaments über den philosophischen Blick auf künstliche Intelligenz.
IMAGO/Future Image

Ist künstliche Intelligenz wirklich intelligent? Hat sie ein umfassendes Selbstverständnis, hat sie ein Bewusstsein? Und wenn ja: Sollten wir ihr dann nicht zumindest teilweise Menschenrechte zugestehen? Spätestens seit dem Siegeszug der generativen KIs – prominentestes Beispiel: ChatGPT – beschäftigt sich die Menschheit intensiv mit genau diesen Fragen. Deshalb hat der STANDARD einen prominenten Philosophen um Antworten gebeten: Julian Nida-Rümelin war von 2001 bis 2002 Bundesminister für Kultur der Bundesrepublik Deutschland und lehrt Philosophie unter anderem an der Ludwig-Maximilians-Universität in München sowie der Humboldt-Universität Berlin, zuletzt referierte er vor den Abgeordneten des österreichischen Parlaments über die Betrachtung der KI-Entwicklungen aus philosophischer Perspektive. Im Interview erklärt er, wie Intelligenz und Weltverständnis zusammenspielen – und was die Parallelen zwischen Chatbots und Bienen sind. 

STANDARD: Im Jahr 2023 ist künstliche Intelligenz jenes Tech-Thema, das die Massen am meisten bewegt. Aber wie definiert man eigentlich den Begriff Intelligenz?

Nida-Rümelin: Der Begriff Intelligenz ist lateinisch, er geht über mehr als 2.000 Jahre der europäischen Geistesgeschichte zurück. Intelligenz bedeutet Einsichtsfähigkeit, die Dinge beurteilen zu können. Es geht nicht so sehr darum, besonders schnell im Rechnen zu sein, sondern eben um die besondere Fähigkeit, Einzelfälle in größere Zusammenhänge zu stellen und sich selbst ein Urteil zu bilden. Bewertung, Kognitives, Evaluatives und auch Emotives gehen eine enge Verbindung ein. Zum Beispiel ist es so, dass Menschen durch Krebsgeschwüre im Gehirn oder durch Hirnverletztungen zunächst nur wenige kognitive Einschränkungen zu haben scheinen und auch Intelligenztests bestehen, dann aber oft in ihrer Handlungsfähigkeit, in ihrer Verlässlichkeit doch schwer beeinträchtigt sind. Das zeigt, dass Intelligenztests nicht alles messen, was für unser intuitives Verständnis von Intelligenz wichtig ist. Man kann also auch bei künstlicher Intelligenz nicht sagen: "Dieses System kann jetzt diese Aufgaben viel besser lösen, als das Menschen können, deswegen ist dieses System intelligent." Die Intelligenz ist schon ein sehr umfassender Begriff, bei dem man nicht einzelne kleine Aspekte rauspicken kann.

STANDARD: Nun ist es gerade bei der generativen künstlichen Intelligenz so, dass sich die Meldungen überschlagen haben, laut denen angeblich die Software in IQ-Tests und bei Schulabschlüssen besser als viele Menschen abschneidet. Aber wenn ich mir nun diese Definition von Intelligenz anhöre, dann ist das genau das, was der Software eigentlich fehlt.

Nida-Rümelin: Ja, das kann man so sehen. Die entscheidende Trennung ist jene zwischen Simulation und Realisierung. Ich kann zum Beispiel Schmerzen simulieren, indem ich "Aua" schreie, aber deswegen habe ich noch keine Schmerzen. Ich kann intelligentes Verhalten simulieren, indem ich eine technische Apparatur baue, die ganz ähnlich wie wir Menschen auf bestimmte äußere Stimuli reagiert. Das ist aber erst mal Simulation und noch nicht Realisierung.

Das zeigt sich auch am Beispiel von Insekten. Insekten zeigen ein auf den ersten Blick hochintelligentes Verhalten, wenn es darum geht, zum Beispiel ihre eigene Population zu schützen. Es ist jedoch hochgradig unplausibel anzunehmen, dass eine Ameise einsichtsfähig ist. Die Ameise hat bestimmte genetische Muster, die sich über die Jahrmillionen entwickelt haben und die den Eindruck erwecken, sie würde sich intelligent verhalten. Auch die "Bienensprache" ist keine Kommunikation, sondern ein bestimmter, genetisch etablierter Mechanismus, der sich im Laufe von Millionen von Jahren entwickelt hat.

Und so ist es eben auch bei Software: Die naheliegende Erklärung für ein bestimmtes Verhalten von Softwaresystemen ist, dass wir sie mit diesem Ziel entwickelt haben, zum Beispiel auf bestimmte Texte trainiert haben. Und es ist zunächst eine gewissermaßen unbegründete Übersprungshandlung zu sagen: "Dann sind die intelligent, dann realisieren sie das, was sie simulieren." Das "Simulieren" muss man im Grunde auch in Anführungszeichen schreiben, weil echte Simulation wieder einen Akteur voraussetzt, der weiß, was er nachahmt.

"Immer ist da diese Faszination mit einem unheimlichen, lebendigen künstlichen Wesen, das für beseelt gehalten wird."

STANDARD: Man liest so oft in Artikeln und in sozialen Medien, dass Menschen diesen Programmen wirklich menschliche Eigenschaften zuschreiben. Ist das ein Wunsch des Menschen nach einem Silikon-Gegenpart, oder woher kommt dieses Bedürfnis?

Nida-Rümelin: Es zieht sich ein merkwürdiger roter Faden durch die Kulturgeschichte: von Ovids Pygmalion-Mythos über E. T. A. Hoffmanns "Sandmann" bis hin zu dem Hollywoodfilm "Ex Machina" – immer ist da diese Faszination mit einem unheimlichen, lebendigen künstlichen Wesen, das für beseelt gehalten wird.

Der andere Aspekt ist: Es ist schwierig, sich vor diesen Verheißungen des Verstandes zu hüten. Stellen Sie sich vor, Ihre Katze finge zu Hause auf einmal an, sich mit Ihnen zu unterhalten: "Wie geht es dir, und wann kommst du nach Hause?" Zunächst würden Sie schockiert sein. Dann wäre die natürlichste Erklärung: "Ich habe mich total in der Katze geirrt. Sie ist in der Lage, die menschliche Sprache zu lernen. Sie ist hochintelligent. Es ist ein ganz anderes Wesen, als ich bislang dachte." Und jetzt? Wenn wir Systeme mit generativer künstlicher Intelligenz schaffen, dann wird ja genau dies simuliert. Wenn sich nachher herausstellt, dass bloß ein Chip in der Katze das Sprechen simuliert, ist man wieder beruhigt. Wenn ich so eine Erklärung aber nicht habe, dann ist die natürliche Reaktion zu sagen: "Oh, die Katze ist intelligent."

Und jetzt wird es besonders paradox, weil die hohe "Intelligenz", die ChatGPT zum Beispiel in Antworten auf unsere Fragen gibt, uns im Grund nahelegt, diesem System anspruchsvolle personale Eigenschaften zuzugestehen. Wenn aber das Wesen wirklich personale Eigenschaften hätte, dann müssten wir auch entsprechend mit ihnen umgehen. Wären sie wirklich intelligent, dann wären sie einsichtsfähig und empfindsam, und dann müssten wir die Menschenrechte auf sie ausweiten. Das hat Peter Singer schon für Orang-Utans, Gorillas und Schimpansen vorgeschlagen, indem er sagte: Sie sind in mancher Hinsicht so menschenähnlich, dass es Speziesismus – eine willkürliche Bevorzugung der eigenen Spezies – wäre, wenn wir ihnen nicht bestimmte Menschenrechte zuschreiben. Darüber kann man streiten, aber wir müssten es dann auch der Software zuschreiben, die im Gegensatz zu Schimpansen in menschlicher Sprache mit uns kommunizieren kann.

STANDARD: Und darin liegt die große Gefahr, weil es im Grunde die Innovation behindern würde. Ab dem Punkt, wo Menschenrechte für Softwareprogramme gelten, kann man sie nicht mehr wie Untertanen behandeln.

Nida-Rümelin: Man kann sie nicht mehr wie Instrumente behandeln. Das ist die wichtige, kantische Botschaft: Menschen sind immer so zu behandeln, dass sie nicht bloßes Mittel für andere Zwecke sind. Sie dürfen ruhig als Mittel eingesetzt werden, aber nie als bloßes Mittel. Ich muss immer Rücksicht nehmen auf die Würde der Person und ihre Selbstzweckhaftigkeit. Das ist eine wichtige, vielleicht die im Westen dominierende Interpretation der Menschenwürde und der Menschenrechte. Demokratie ist durch Kant, durch die Aufklärung und Philosophie geprägt. Und Kant ist übrigens kein Speziezist, er spricht von Vernunftwesen, die Würde haben: Sollten Engel Vernunft haben, hätten sie Würde. Dann müsste man Softwareentitäten konsequenterweise längst mit einbeziehen. Manche Beobachter sehen diesen Punkt noch nicht erreicht, halten ihn in Zukunft aber für möglich.

"Gerade diejenigen, die wie Harari, Musk und viele andere der Meinung sind, KI sei eine disruptive, alles verändernde Entwicklung, fürchten, dass wir plötzlich gleichwertige Akteure geschaffen haben."

STANDARD: Yuval Noah Harari zeichnet in seinem Buch "Homo Deus" das Bild einer Welt, in der sich Menschen durch Technologie auf eine neue Evolutionsstufe erheben. Gentechnik und KI spielen dabei eine große Rolle, der Grundton des Buchs ist recht utopisch. Trotzdem hat er sich nun für ein Moratorium ausgesprochen. Ist das der Grund? Dass man Maschinen Menschenrechte zusprechen müsste, wenn die Entwicklung so weitergeht?

Nida-Rümelin: Harari und auch Elon Musk sind gute Beispiele. Beide gelten als digital affin, doch beide wollen die Weiterentwicklung künstlicher Intelligenz erst mal stoppen und Regularien entwickeln. Der libertäre Musk fordert den Staat auf, Regularien zu etablieren. Ich bin nicht ganz so überrascht wie viele über diese Volte, weil ich Ähnliches schon in der Debatte um Gentechnik in den 80er- und 90er-Jahren beobachtet habe. Im Transhumanismus gibt es sehr hohe Erwartungen. Und wer diese hohen Erwartungen selbst hat, der erschrickt dann vielleicht vor diesen: Wenn Gentechnik so mächtig ist, werden dann Klone von uns durch die Welt laufen? Das wurde damals diskutiert. Ähnlich ist es nun auch.

Gerade diejenigen, die wie Harari, Musk und viele andere der Meinung sind, KI sei eine disruptive, alles verändernde Entwicklung, fürchten, dass wir plötzlich gleichwertige Akteure geschaffen haben. Immerhin schreibt Harari auch, dass Menschen eigentlich nichts anderes als gut funktionierende Softwareprogramme sind. Der "Homo Deus" schafft also Personen, und die könnten uns unterjochen, sie könnten die ganze Welt unter sich aufteilen und diese lästige Menschheit vielleicht auch beseitigen. Und so gibt es alle möglichen Dystopien oder Utopien.

Auch ich war von ChatGPT beeindruckt, sage aber auch: keine Panik. Das ist keine disruptive Technologie, die alles auf den Kopf stellt und uns auf einmal zwingt, digitale Technologien ganz neu zu interpretieren. Ich habe auch darauf hingewiesen, was für ein tolles Projekt zum Beispiel die Enzyklopädien in der europäischen Aufklärung waren. Sie hatten das Ziel, das ganze Weltwissen mit präzisen Zeichnungen und Fußnoten zu belegen, und lieferten verlässlichere Auskünfte, als ChatGPT das heute hinbekommt. Zu dieser Zeit war die Aufregung groß, dass die vollständige naturwissenschaftliche Erklärung der Welt diese entzaubert. Tatsächlich stimmt es, dass die Menschheit dank des Buchdrucks das Weltwissen im Regal stehen hatte. Aber deswegen muss der Mensch sich immer noch ein eigenes Urteil bilden. Das ist Verantwortung. Das kann man nicht an Tiere und nicht an Softwaresysteme delegieren.

"Aristoteles forderte auch, die Mitte zu wahren, die Mitte zwischen den Extremen."

STANDARD: Der STANDARD hat auch eine Doppelseite zu KI veröffentlicht, wo wir auf der einen Seite die Frage gestellt haben, ob KI die Menschheit vernichten wird, und auf der anderen, ob sie uns reich machen kann. Man oszilliert da zwischen zwei Extremen. Liegt die Wahrheit in der Mitte?

Nida-Rümelin: Also zwischen Euphorie und Apokalypse? Ja. Aristoteles forderte auch, die Mitte zu wahren, die Mitte zwischen den Extremen. Und das ist meistens eine gute Empfehlung, weil Menschen bei der Konfrontation mit Neuem verunsichert sind und zu hysterischen Reaktionen neigen: Entweder sie sind total begeistert oder total entsetzt. Sie fürchten das Schlimmste oder hoffen das Größte. Das galt auch bei der Dampfmaschine, bei elektrischen Eisenbahnen, bei der Elektrifizierung. Der Futurismus Anfang des letzten Jahrhunderts sah den Menschen nur noch als Teil von technischen Maschinerien. Auf der anderen Seite standen Romantiker, die ein Zurück zur Natur forderten. Genau dieses Muster zeigt sich wieder.

Nun sehe ich meinen Auftrag darin, für mehr Urteilskraft zu werben. Wir müssen uns überlegen, was wir mit diesen technologischen Innovationen unternehmen. Die Optionen sind hochgradig ambivalent. Man kann sie wie der chinesische Staat zur Kontrolle der Bevölkerung einsetzen oder für alle möglichen, manchmal sogar eher spielerischen, das Alltagsleben vereinfachenden Angebote. Google Maps ist wunderbar, kein Mensch verwendet mehr Landkarten. Auf der anderen Seite kann Technologie auch großen Schaden anrichten. Airbnb hat lange Zeit in italienischen Städten eine Katastrophe ausgelöst, weil ganze Stadtviertel zu Bettenburgen umgewandelt wurden. Das stoppen die Kommunen nun durch Restriktionen. Es ist alles ambivalent, man kann es unterschiedlich einsetzen.

STANDARD: Die Ironie bei künstlicher Intelligenz oder Software generell ist, dass sie erschaffen wurde, um unser Leben zu erleichtern, uns lästige Tätigkeiten abzunehmen. Ausgerechnet generative KI schreibt nun aber Gedichte, während ich als Mensch noch diverse Routinetätigkeiten erfüllen muss. Beißt sich die Katze da nicht ein bisschen in den Schwanz?

Nida-Rümelin: Denken wir an eine etablierte Technologie, die E-Mail. Es ist ja schön, dass man keine Schreibmaschine, keinen Drucker, keine Briefmarken mehr braucht – theoretisch ein Quantensprung an Produktivität, Transparenz und Kommunikation. Was ist passiert? Wir kriegen statt fünf Briefen nun 70 E-Mails täglich. Die Schwelle für jeden kommunikativen Akt ist so abgesenkt worden, dass sich die Zahl der kommunikativen Akte vervielfacht hat. Somit ist der ganze Effekt weitgehend verpufft. Die klassische Glühbirne verbraucht auch deutlich mehr Strom als eine moderne LED-Birne – trotzdem ist die Energieeinsparung minimal, weil die Menschen das Licht nun einfach brennen lassen. Ähnlich ambivalent ist es auch bei KI: Wenn ChatGPT ein Gedicht im Stil von Goethe schreiben soll, dann führt es den Befehl aus, aber es ist auch bemerkenswert platt. Und es könnte sein, dass dadurch unsere Sensibilität für Kreativität eher wieder geschärft wird. Ich bin da ein bisschen agnostisch. Ich würde es weder verdammen noch zu viel erwarten.

STANDARD: Kann man diese Entwicklung damit vergleichen, dass der Siegeszug des MP3 auch zu einem Boom bei Vinylschallplatten führte, weil die Menschen nach Alternativen suchten?

Nida-Rümelin: Das kann durchaus sein. Eine Veränderung ist jedenfalls nicht aufzuhalten. Nämlich, dass wir im Bildungssystem sehr viel mehr auf Kreativität, Urteilskraft, Reflexion und Debatten setzen, als dass man den Kindern und Jugendlichen sagt, dass sie das in der Schule Erlernte wiedergeben sollen. Derzeit gibt es einen massiven Druck, diese Praxis im Bildungswesen nicht fortzusetzen. Ich finde es positiv, dass die Kinder nicht dasitzen, sondern dass sie eher die kostbare Zeit in der Schule nutzen, um sich selbst ein Urteil zu bilden, zu diskutieren, zu reflektieren, zu verändern.

STANDARD: Verschwinden dadurch nicht auch Basisfähigkeiten? Dass etwa Menschen, die mit Google Maps aufgewachsen sind, nicht mehr fähig sind, sich an der Sonne zu orientieren?

Nida-Rümelin: Ja, oder eine Landkarte zu lesen. Man kann sich aber auch entspannt zurücklehnen und sagen: Das brauchen wir auch nicht mehr. Durch den Taschenrechner können die Menschen auch nicht mehr so gut rechnen wie früher. Aber warum sollte man?

STANDARD: Und Google ist als Suchmaschine auch schneller darin, aus Milliarden von Websites zu einem Begriff die richtigen herauszufinden, als ich es jemals könnte.

Nida-Rümelin: Genau. Man muss in vielen Fällen nicht mehr in die Bibliothek, die Erleichterungen sind extrem, und es hat auch demokratisch positive Wirkung. Früher haben Studierende Stunden in Bibliotheken verbracht und mussten sich nach den Öffnungszeiten richten. Nun sind viele Informationen verfügbar, wiewohl diese nicht immer zuverlässig sind. Das gilt übrigens auch für Google-Ergebnisse. Dies zu unterscheiden ist wiederum eine eigene Kunst, die man erst lernen muss.

STANDARD: Und das führt uns dann an den Anfang des Interviews zurück. Das ist dann Intelligenz.

Nida-Rümelin: Ja. Es gibt in der Philosophie die Unterscheidung zwischen "Strong AI" und "Weak AI". "Strong AI" geht auf den Turing-Test zurück: Wenn sich das Verhalten von Maschinen nicht von jenem von Menschen unterscheiden lässt, dann sind diese auch wie Menschen zu behandeln. Die These der "Weak AI" besagt wiederum, dass Software die Verhaltensweisen von Menschen nur reproduzieren kann.

STANDARD: Wenn also aktuelle KI-Systeme "Weak AIs" sind, dann gelten sie als nicht wirklich intelligent?

Nida-Rümelin: Hier kommt eine Argumentation des Philosophen John Searle aus den 1980ern ins Spiel: Wenn bestimmte kommunikative Akte simuliert werden, dann heißt das noch nicht, dass der Computer deren Bedeutung von Ausdrücken versteht. Auch ChatGPT arbeitet mit Algorithmen, versteht deren Bedeutung aber nicht. Ein zweites Argument ist, dass ein Computer ein System aus Verschaltungen ist, in dem entweder Strom fließt oder nicht. Diese zwei Zustände werden als Null oder Eins, beziehungsweise als wahr oder falsch interpretiert. Diese Interpretation kommt aber nicht von der Maschine selbst, sondern wir als Menschen haben diese vorgenommen.

Und das führt dann zu einer noch viel stärkeren These, nämlich dass diese Computer nicht nur über keine Semantik, sondern auch nicht einmal über Syntax verfügen. Das System selber hat keine Syntax, sondern wir unterlegen bestimmte physikalisch-technische Zustände im System mit einer Syntax. Diesen beiden Argumenten ist sehr schwer beizukommen.

"Die menschliche Intelligenz ist prinzipiell nicht auf algorithmische Systeme reduzierbar."

Ich selbst habe noch ein drittes Argument entwickelt, dieses geht auf den Mathematiker und Philosophen Kurt Gödel in den 1930er-Jahren zurück. Eine Interpretation dieses Theorems besagt, dass es nicht möglich ist, logisch wahre Aussagen in komplexeren Sprachen gemäß einem Algorithmus herzuleiten. Es geht aus systematischen, bewiesenen Gründen nicht. Grob gesagt ist das die These der Nichtberechenbarkeit: Systeme, die eine bestimmte Komplexität aufweisen – also alles, was wir verwenden, wenn wir argumentieren – sind für Algorithmen zu komplex. Es ist beweisbar, dass innerhalb dieses Systems die einzelnen Aussagen nicht mehr herleitbar sind. Wenn wir als Menschen argumentieren, dann verwenden wir anspruchsvolle Logiksprachen. Ich habe Logik in Göttingen und in München unterrichtet. Dort habe ich gesehen, dass man den Studierenden im zweiten Logikkurs sagen muss, dass es in anspruchsvolleren Logiksystemen keine mechanischen Beweisverfahren, das heißt Algorithmen, für Theorie mehr gibt.

Das Erstaunliche ist: Mindestens zwei Drittel der Studierenden können das. Sie können diese Theoreme ohne mechanisches Verfahren beweisen. Das Argument, das ich daraus hervorbringe: Die menschliche Intelligenz ist prinzipiell nicht auf algorithmische Systeme reduzierbar. Zwar könnten wir in Zukunft Systeme haben, die nicht algorithmisch funktionieren, und dann wäre die Debatte wieder offen. Aber nach aktuellem Stand ist dies ein sehr starkes Argument, dass künstliche Intelligenz nicht wirklich intelligent ist. (Stefan Mey, 9.7.2023)