Bild nicht mehr verfügbar.

Einer von mittlerweile vielen: Der Sedric des Autobauers Volkswagen, hier ein Prototyp, soll künftig ohne menschlichen Fahrer Passagiere durch die Gegend kutschieren. Wie er im Ernstfall reagiert, bleibt fraglich.

Foto: REUTERS/Hannibal Hanschke

Was vor wenigen Jahren noch wie reine Science-Fiction klang, ist mittlerweile annähernd Realität: Zahlreiche Unternehmen entwickeln inzwischen Fahrzeuge, die künftig völlig autonom und weitgehend ohne menschliches Zutun ihren Weg durch den alltäglichen Verkehr finden. So bequem das auf den ersten Blick für die Passagiere klingen mag, so problematisch ist das, wenn ein solches computergesteuertes Auto in eine Situation gerät, in der Menschleben auf dem Spiel stehen.

Grundlage einer solchen Situation ist das Trolleyproblem, das letztlich in der moralischen Frage resultiert, wie autonome Fahrzeuge in Dilemmasituationen, in denen ein Personenschaden unausweichlich ist, agieren sollten. Welche Entscheidungen soll ein solches System treffen, um eine Kollision mit Fußgängern zu vermeiden? Wie kann es wirklich entscheiden, wer letztlich einer solchen Situation zum Opfer fällt?

Gesellschaftlicher Konsens

Eine aktuell im Fachjournal "Nature" präsentierte Studie versucht herauszufinden, ob es einen gesellschaftlichen Konsens darüber gibt, wie autonome Systeme auf solche Situationen reagieren sollten. Entsprechende Richtlinien seien wichtig, damit autonome Fahrzeuge von der Öffentlichkeit akzeptiert werden, schreiben die Autoren. Um diesem Problem auf den Grund zu gehen, haben die Forscher eine Art Onlinespiel entwickelt, in dem Nutzer mit entsprechenden Verkehrsdilemmata konfrontiert werden und sich zwischen zwei möglichen Manövern entscheiden, bei denen jeweils unterschiedliche Personen(gruppen) zu Schaden kommen.

Aufgrund der dabei gewonnenen Daten stellen die Forscher fest, dass eine klare Rangfolge von Eigenschaften zu erkennen ist, die bestimmen, ob Teilnehmer dazu tendieren, das Leben einer Person zu schützen. Demnach verschonten die Teilnehmer des Spiels vermehrt eher junge als alte Menschen und öfter Gruppen als Einzelpersonen. Darüber hinaus konnten die Wissenschafter drei verschiedene Kulturkreise identifizieren, zwischen denen die Bedeutung einzelner Eigenschaften variiert.

Unprogrammierbare Ethik

In Deutschland hat die Ethik-Kommission automatisiertes Fahren im Juni 2017 ethische Regeln für autonomes Fahren vorgestellt. Darin heißt es, eine automatische Steuerung für unvermeidbare Unfälle sei "nicht ethisch zweifelsfrei programmierbar". Bei unausweichlichen Unfällen sei "jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt".

Experten in Deutschland bestätigen die Ergebnisse: "Es ist gut, dass die Studie anerkennt, dass Trolleyprobleme keine besondere Bedeutung haben, denn die haben sie wirklich nicht. In unserer Fahrschulpraxis werden denn auch Fahrschüler nicht auf diese Situationen vorbereitet", erklärt Armin Grunwald vom Karlsruher Institut für Technologie. "Und trotzdem akzeptieren wir, dass diese unvorbereiteten Fahrschüler einen Führerschein erhalten. Genauso würden wir dies auch bei autonomen Fahrzeugen akzeptieren – außer vielleicht wenn die Medien dieses Thema abseits jeder Bedeutung aufbauschen."

Spiele und Realität

"Onlinespiele geben Anlass für gewisse Vermutungen über menschliches Verhalten. Ob das dann auch in der Wirklichkeit zutreffen würde, ist schwer zu beantworten. Immerhin ist Spiel nicht Ernst. Auf jeden Fall ist Vorsicht geboten, die Ergebnisse eines Spiels einfach auf die Realität zu übertragen", meint Grunwald.

"Weder aus Spielen noch aus Umfragen kann etwas über die ethische Zulässigkeit von Normen gelernt werden. Ansonsten könnte nach jedem schweren Verbrechen eine Umfrage gemacht werden, die mit ziemlicher Sicherheit für die Einführung der Todesstrafe ausgehen würde." (tberg, 25.10.2018)