Maschinenethiker Oliver Bendel: "Man bräuchte einen Fahrlehrer, der dem Auto ständig die Verrücktheit der Welt erklärt."

Foto: Kai R. Joachim

Das E-Mobility-Magazin ELO können Sie hier kaufen. Sie finden ELO außerdem auf den Plattformen Readly, read-it und PressReader.

ELO: Herr Bendel, kann eine Maschine eine Moral haben oder moralische Entscheidungen treffen?

Oliver Bendel: Das kommt darauf an, was man unter Moral versteht. Zunächst ist das eine Metapher: So wie man sagt, dass der Brief einen Kopf hat, kann man sagen, die Maschine habe eine Moral. Mit dem Terminus technicus, der daraus entstanden ist, meinen wir Maschinenethiker nicht, dass die Maschine eine vollständige menschliche Moral hat. Das würden wir nie behaupten. Aber die Maschine bildet bestimmte Aspekte menschlicher Moral ab.

ELO: Welche Aspekte sind das?

Bendel: Menschliche Moral ist sehr komplex. Sie besteht sowohl aus rationalen als auch aus emotionalen Elementen wie Intuition und Empathie. Das hat die Maschine natürlich noch nicht. Was sie aber hat, was man ihr beibringen kann, das sind moralische Regeln. Man kann die Maschine sogar dazu bringen, dass sie diese anpasst. Auch manche Menschen halten sich ausschließlich an vorgegebene Regeln – eine eher schwache Moral.

ELO: Der amerikanische Philosoph James Moor behauptet, eine volle Moral könne eine Maschine nicht haben, weil ihr das Ich-Bewusstsein fehle. Wie sehen Sie das?

Bendel: Ich-Bewusstsein reicht ja noch gar nicht. Ein hoch entwickeltes Tier wie ein Schimpanse, das einen auf sein Fell gemalten Fleck im Spiegel sieht, versucht nicht, den Fleck am Spiegel wegzumachen, sondern an sich selbst. Es hat eine Form von Selbstbewusstsein. Das heißt aber nicht, dass dieses Tier eine Moral hätte. Dazu muss noch mehr kommen. Der Roboter Pepper hat keine Emotionen, kann aber welche zeigen. So gesehen könnte die Simulation von Bewusstsein oder etwas, das mit Ich-Bewusstsein zusammenhängt, schon möglich sein. Einen vollumfänglich moralischen Akteur aber können wir nicht bauen. Der nämlich hat Bewusstsein als mentalen Zustand, Denkfähigkeit und Willensfreiheit. Davon sind wir noch weit entfernt.

ELO: In ihrem Buch "Grundfragen der Maschinenethik" befürchtet Catrin Misselhorn, wenn wir Maschinen entscheiden lassen, drohe ein Verlust von Verantwortung. Was meinen Sie?

Bendel: Wenn wir Verantwortung an eine Maschine abgeben, ist da nichts, was Verantwortung tragen kann, und daher auch nichts, was wir zur Verantwortung ziehen können. In vielen Fällen ist das kein Problem. Wenn ich in meiner Wohnung bestimmte Entscheidungen auf eine Maschine übertrage, macht die Maschine in meiner Abwesenheit einfach das, was ich sonst machen würde. Das ist nicht verantwortungslos von mir. Nur die Maschine ist verantwortungslos, in einem ganz unproblematischen Sinn. Draußen in der Welt ist das grundlegend anders: Wenn ich die Verantwortung auf ein Auto übertrage und dieses sie im Straßenverkehr gar nicht tragen kann, wenn sie ins Leere läuft bzw. sich auflöst, ist das sehr wohl problematisch.

ELO: Sie haben sich vehement gegen einen Einsatz von vollautonomem Fahren in Städten ausgesprochen. Weshalb?

Bendel: Manchmal kennt man in Deutschland den Unterschied zwischen Automobilindustrie und Politik nicht mehr. Es geht um die Durchsetzung von Interessen. Die Produkte sollen sich verbreiten und überall genutzt werden können. Einmal abgesehen davon: Gegen das autonome Fahren an sich habe ich nichts. Es sollte nur dort stattfinden, wo es sicher ist, und das sind für mich Autobahnen. Die sind übersichtlich, relativ gerade und mehrspurig. Wenn dort Unfälle passieren, was ab und zu der Fall sein wird, wird man das eher wie einen Flugzeugabsturz werten, der regelmäßig alle paar Jahre passiert, was betrüblich ist, die meisten von uns aber nicht davon abhält, weiter ins Flugzeug zu steigen. In Städten aber wird autonomes Fahren auf viele Jahre hinaus noch von der Komplexität der Umgebung überfordert sein. Dort gibt es viele bewegte und unbewegte Objekte, die es zu beurteilen gilt. Wir Menschen können ganz schnell priorisieren, das Auto nicht. Es muss alles identifizieren und analysieren und daher fast zwangsläufig auch zu Fehleinschätzungen kommen. Insgesamt ergeben sich in Siedlungen praktische Dilemmata, die schwer zu lösen sind.

ELO: So, wie das sogenannte Trolley-Problem, bei dem eine Straßenbahn auf eine Weiche mit einer Gruppe von fünf Gleisarbeitern drauf zurast. Auf dem Nebengleis steht nur ein Arbeiter. Darf die Weiche so umgestellt werden, dass der Arbeiter stirbt, weil man damit die Gruppe rettet? Oder: Darf eine Maschine einen alten Mann für ein kleines Kind opfern?

Bendel: Das Trolley-Problem gehört zu den Gedankenexperimenten. Diese sind wichtig und dienen beispielsweise dazu, die Haltung eines Menschen abzufragen. Für den Straßenverkehr sind sie deshalb interessant, weil man aus ihnen bestimmte Ansätze ableiten kann, wie das Quantifizieren oder Qualifizieren. Was im Leben auftritt, sind praktische Dilemmata. In der Realität wird es kaum passieren, dass sechs Leute in dieser Weise auf den Gleisen stehen. Mann gegen Frau, Erwachsener gegen Kind – dazu kann es kommen.

ELO: Die Ethikkommission "Autonomes und vernetztes Fahren" hat sich 2017 festgelegt: Bei unausweichlichen Unfallsituationen sei jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) genauso wie eine Aufrechnung von Opfern untersagt. Wie beurteilen Sie das?

Bendel: Es gab keinen einzigen Maschinenethiker in dieser Kommission, aber einen Weihbischof. Ich weiß nicht, wie viel in der Bibel über autonome Autos geschrieben steht, aber ich vermute mal: nicht allzu viel. Wenn in Deutschland solch eine Kommission einberufen wird, dann sitzen die Wirtschaft und die Kirche drin, vielleicht noch ein philosophischer Ethiker. Aber einer, der moralische Maschinen systematisch erforscht? Fehlanzeige in diesem Fall. Man kann so eine Kommission schon einsetzen, aber sie ist ein Puzzlestein. Letzten Endes muss die Gesellschaft mitreden, zudem die Vernunft, und solch eine Kommission ist nicht die Gesellschaft und spiegelt sie auch nicht wider. Zur Entscheidung: Quantifizieren und Qualifizieren – ich würde beides ablehnen. Das Qualifizieren und Klassifizieren lehnt eben auch die Kommission ab. Beim Quantifizieren scheint sie mir, wenn man den Text an anderer Stelle so verstehen will, eine Hintertür gelassen zu haben. Den Grund dafür sehe ich nicht ein. Mal ganz grundsätzlich: Warum soll ich sterben, damit zwei andere gerettet werden? Ich spiele mit meinen Studenten immer ein Spiel, das so beginnt: Dürfte man den Bendel töten, um zwei Studenten zu retten? Nein. Dürfte man ihn töten, um die Bevölkerung von Basel zu retten? Da wanken die ersten. Dürfte man ihn töten, um die Menschheit zu retten? Spätestens da ist allen klar: Man muss den Bendel töten! Im Straßenverkehr haben wir 1:2- oder 1:3-Situationen. Da funktioniert die Sache nicht. Es gibt keinen Grund, weshalb man mich töten müsste, um zwei oder drei andere zu retten.

ELO: Und wenn ich die Maschine würfeln lasse? Auch unbefriedigend, oder?

Bendel: Ja. Der Mensch ist kein Zufallsgenerator. Er hat Intuitionen. Für mich hat der programmierte Zufall deshalb etwas Zynisches. Was will man den Eltern dann erzählen? "Ihr Kind wurde getötet. Das hat der Zufallsgenerator so entschieden."

ELO: Kann ich überhaupt sichergehen, dass die Maschine würfelt? Vielleicht hat sie ja inzwischen dazugelernt.

Bendel: Die meisten von uns sind mit Blick auf den Straßenverkehr der Meinung, die Maschine sei mit starren Regeln auszustatten, die sie selbst nicht verändern kann. Es gibt aber auch Leute, die wollen, dass Autos ständig dazulernen. Wenn man dieser Meinung ist, könnte man das, was Sie sagen, dass die Maschine ihre Prinzipien anpasst, nicht ausschließen. Dass sie irgendwann aus eigenem Antrieb zu qualifizieren und quantifizieren beginnt.

ELO: Was denken Sie?

Bendel: Wir haben hier eine Meile in Zürich, wo überwiegend junge Männer mit ihren Maseratis und Lamborghinis unterwegs sind. Würde dort ein Auto dazulernen, würde es lauter falsche Sachen mitnehmen: Wie man dicht auffährt, laut mit dem Motor röhrt und bei Rot über die Kreuzung brettert. Man bräuchte einen Fahrlehrer, der dem Auto ständig die Verrücktheit der Welt erklärt.

ELO: Im "Moral Machine Experiment" ließ man fast vierzig Millionen Menschen aus 233 Ländern Dilemmata lösen. Das Ergebnis: Eine Mehrheit würde einen Menschen für mehrere opfern oder eher einen Kriminellen überrollen als einen Hund. Kann man die Moral an der Mehrheitsmeinung festmachen? Oder wie soll es aussehen, wenn die Gesellschaft mitredet?

Bendel: Die bloße Abstimmung reicht nicht. Auch keine Statistik. Man könnte doch den Eltern nicht vermitteln, dass die Maschine ihr Kind töten musste und die Gesellschaft voll dahintersteht. Man darf nicht allein nach den Befindlichkeiten einer Gesellschaft gehen, sondern muss rechtsstaatliche Prinzipien – und dazu gehört z. B. auch der Minderheitenschutz – beachten. Dann kommt man relativ schnell zum Ergebnis, dass man bestimmte Entscheidungen – wie Kriminelle einfach zu töten – nicht tragen kann. Aber auch wenn ich diese Prinzipien miteinbeziehe, ist das Problem letztlich nicht lösbar. Daher muss die Lösung sein: Keine autonom fahrenden Autos in der Stadt.

ELO: Daraus folgt, dass man die Verkehrstoten, die man vielleicht durch autonomes Fahren verhindern könnte, in Kauf nimmt.

Bendel: Man müsste eine Gesamtrechnung aufstellen: Wie viele Unfälle entstehen durch Menschen und wie viele dieser Unfälle ließen sich durch autonome Autos verhindern? Selbst wenn sich die Anzahl der Unfälle von 100 auf 90 verringern ließe, würde ich – das mag vielleicht zynisch klingen – sagen: Bleiben wir trotzdem bei den menschlichen Entscheidungen. Die Verwandten eines Verstorbenen können ihre Wut auf einen Menschen projizieren. Es gibt auch jemanden, den man ernsthaft verklagen kann. Wenn ich in der Zukunft Unfälle durch autonomes Fahren an jedem Ort nahezu ausschließen könnte, müsste ich es vielleicht flächendeckend einführen. Aber das sehe ich derzeit nicht. Fahrerassistenzsysteme halte ich hingegen für sehr sinnvoll.

ELO: China gilt als Vorreiter beim autonomen Fahren. Steckt hinter diesem Engagement auch der Wunsch, die Bevölkerung noch besser kontrollieren zu können?

Bendel: Ich werde als Ethiker selten moralisch, aber was China gerade einführt, das Sozialkreditsystem, ist das Böseste seit Jahrzehnten. Das ist der Versuch, über Technologien, nicht zuletzt über KI-Systeme, in Zukunft auch mit der Hilfe von Robotern, die totale Kontrolle über Menschen zu gewinnen. Man startet mit einem Punktestand und wird daraufhin ständig beobachtet. Alles, was nicht in die Moral der Partei passt, führt dazu, dass man runtergestuft wird. KI-Systeme und mobile Roboter als Möglichkeit zu begreifen, den Überwachungsstaat voranzubringen, halte ich ganz generell für eine Gefahr. Automatische Autos und mobile Roboter haben viele Sensoren, eine ausgeklügelte Software, künstliche Intelligenz – das alles führt dazu, dass uns diese Maschinen, wenn sie entsprechend programmiert sind, überwachen können. Das ist die große Schattenseite der Robotik.