Von düster bis optimistisch: Szenarien zur Zukunft auf dieser Welt sind divers. Wie wir mit Gefahren umgehen, hängt auch davon ab, welches Risiko wir eingehen wollen.

Foto: AP/Nathan Denette

Wer wie Cass R. Sunstein als Berater der US-Regierung arbeitet, tut gut daran, sich Gedanken über die Zukunft zu machen: über Klimakatastrophen, künstliche Intelligenz, Pandemien und neue Technologien. Vor kurzem hat Sunstein ein Buch mit dem Titel "Averting Catastrophe" (deutsch: "Katastrophe verhindern") veröffentlicht, in dem es darum geht, wie wir als Menschheit mit Gefahren und möglichen Katastrophen bestmöglich umgehen können. Eine große Frage darin: Wie viel Risiko sind wir als Menschen bereit einzugehen?

STANDARD: Herr Sunstein, in Ihrem Buch lieben Sie es, Entscheidungsszenarien zu entwerfen. Lassen Sie uns hier auch mit einem starten: Angenommen, eine weit gefährlichere Corona-Mutation taucht auf. Von Experten heißt es, die Variante verbreitet sich schneller und führt zu bleibenden Gesundheitsschäden, genaue Daten gibt es allerdings dazu noch nicht. Ein Unternehmen hat in Windeseile einen Impfstoff entwickelt, der zu 95 Prozent schützt, aber eine 0,1-prozentige Chance hat, zu schweren Gesundheitsschäden und möglicherweise zum Tod zu führen. Würden Sie a) den Impfstoff nehmen oder b) darauf verzichten und erst einmal abwarten?

Sunstein: Das ist ein faszinierendes Beispiel. Auf der einen Seite haben wir es mit einem ungewissen Risiko zu tun, das zu schrecklichen Konsequenzen führen kann. Auf der anderen Seite gibt es ein sehr kleines Risiko, dass etwas sehr Schlimmes passiert. Würde ich nach dem Vorsichtsprinzip handeln, würde ich die Impfung nehmen – vor allem weil das Worst-Case-Szenario bei der Corona-Mutation weit schlimmer ist als das Worst-Case-Szenario bei der Impfung.

STANDARD: Was sind Ihrer Meinung nach die größten Unsicherheiten und Gefahren unserer Zeit?

Sunstein: Die offensichtlichste Gefahr ist sicher der Klimawandel. Wenn wir nichts unternehmen, ist das Risiko, dass etwas Schlimmes passiert, hoch. Das Problem ist, dass es ziemlich herausfordernd ist, andere Gefahren bereits im Vorhinein zu bestimmen und richtig einzuschätzen. 2015 hätte niemand vermutet, dass wir jetzt eine weltweite Pandemie haben.

STANDARD: Wenn wir nicht wissen, welche Gefahren uns als Menschheit drohen, wie sollen wir uns dann darauf vorbereiten?

Sunstein: Wenn wir uns zehn Gefahren vorstellen, die alle potenziell katastrophal sind, aber von denen wir nicht wissen, wie wahrscheinlich sie sind, ist es klug, zuerst etwas gegen jene zu unternehmen, die am verheerendsten sein können. Diese Vorgehensweise ist auch als Maximin-Prinzip bekannt: Wir schließen aus, dass das schlechteste aller schlechten Szenarien eintritt. Für viele Ökonomen ist diese Herangehensweise ziemlich dumm.

STANDARD: Warum das?

Sunstein: Es macht wenig Sinn, sich generell nach dem Maximin-Prinzip oder Vorsorgeprinzip zu richten. Im Alltag hieße das, dass Sie sich dafür entscheiden müssten, lieber keinen Sport zu machen, weil dieser schlimmstenfalls zu einem Herzinfarkt führen könnte. Gleichzeitig schaffen Sie ein neues Risiko: dass Sie einen Herzinfarkt bekommen, weil Sie keinen Sport betreiben. Wenn wir uns etwa dazu entschließen, Atomenergie aus dem Vorsorgeprinzip heraus zu verbieten, erhöhen wir das Risiko des Klimawandels, weil wir wahrscheinlich mehr fossile Energien benötigen. Allerdings gibt es ein paar Ausnahmen wie den Klimawandel, bei dem es Sinn macht, auf das Vorsorgeprinzip zurückzugreifen. Für viele Wissenschafter ist klar, dass wir nicht genau wissen, welche Konsequenzen eine Erwärmung von zwei oder drei Grad haben wird. Das heißt, wir müssen entschlossen gegen den Klimawandel vorgehen, auch wenn das in einigen Fällen zu neuen Kosten führt.

STANDARD: Von welchen Kosten sprechen Sie? Können nicht alle Teile der Bevölkerung profitieren, wenn wir sauberer wirtschaften?

Sunstein: Es ist sicher die richtige Entscheidung, sehr offensiv den Weg in Richtung sauberer Energien zu gehen. Das heißt, dass wir den Verkehr, Kraftwerke oder andere CO2-intensive Bereiche der Wirtschaft stärker regulieren und erneuerbare Energien und Elektroautos mehr fördern müssen. Aber wir sollten Autos auch nicht einfach von heute auf morgen verbieten oder alle Kohlekraftwerke auf einmal abdrehen. Das würde dazu führen, dass Millionen Menschen, vor allem die Ärmeren der Bevölkerung, leiden und noch weiter in die Armut stürzen.

STANDARD: Für viele ist der Umgang mit dem Klimawandel auch eine Frage der Gerechtigkeit, etwa zwischen den Generationen. Wie sollten wir mit zukünftigen Generationen umgehen?

Sunstein: Jemand, der 2040 geboren wird, sollte nicht weniger Rücksicht erfahren als jemand, der 1970 geboren wurde. Allerdings sollten wir uns auch nicht zu viele Sorgen um zukünftige Generationen machen. Denn wenn Menschen schon 1910 gedacht hätten, dass sie keine Autos entwickeln, weil diese zu Luftverschmutzung für zukünftige Generationen führen könnten, ginge es Ihnen und mir heute viel schlechter. Wir leben heute, zumindest in den USA und Europa, wesentlich wohlhabender und gesünder als Menschen vor 150 Jahren. Wenn die Vergangenheit Aufschluss über die Zukunft gibt, dann wird es Menschen 2080 viel besser gehen als uns heute. Das heißt nicht, dass wir deshalb besonders unnachhaltig wirtschaften sollten: Denn wenn wir mit unserem Verhalten zu einer wesentlich wärmeren Welt oder zum Artensterben beitragen, verletzen wir unsere Pflicht, Rücksicht auf zukünftige Generationen zu nehmen.

STANDARD: Welche Risiken sollten wir als Menschheit eingehen?

Sunstein: Wir brauchen Innovationen, die zwar ein gewisses Risiko beinhalten, aber uns als Menschheit voranbringen. Es gibt unzählige Beispiele aus der Vergangenheit: Flugzeuge, Autos, Handys oder die moderne Medizin. Würden wir nur nach dem Vorsorgeprinzip handeln, hieße das, dass wir die Risiken solcher Innovationen ausschließen müssten, etwa durch extreme Regulierung. Die Innovation käme damit niemals zustande. Häufig ist aber auch nicht eindeutig klar, welche wirklich die sicherere Entscheidung ist. Die Gentechnik in der Landwirtschaft ist ein gutes Beispiel: Aus dem Vorsorgeprinzip heraus könnte man argumentieren, gentechnisch veränderte Lebensmittel sollten verboten werden, etwa weil sie eine potenzielle Gefahr für die Umwelt und den Menschen darstellen. Aber ein Verbot kann genauso ein Gesundheitsrisiko darstellen – aus dem Grund, dass die Technologie verspricht, Lebensmittel zu produzieren, die sowohl günstiger als auch gesünder sind.

STANDARD: Könnten uns Algorithmen künftig bei Entscheidungen im Alltag und in der Politik helfen?

Sunstein: Richtlinien, die vorgeben, welche Menschen Sozialleistungen, ein Visum, Asyl, eine gute Note oder Zugang zur Universität bekommen, gibt es ja bereits. Im Grunde sind diese Auswahlverfahren bereits eine Form des Algorithmus. Es besteht die Möglichkeit, dass Algorithmen unvoreingenommener und in ihren Entscheidungen konstanter sind als Menschen, die teilweise je nach Tageszeit und Gemüt unterschiedliche Entscheidungen treffen. Wir müssen aber auch vorsichtig sein: Algorithmen könnten rassistische oder sexistische Vorurteile haben. Wir sollten in jedem Fall die menschliche mit der algorithmischen Beurteilung vergleichen: In einigen Bereichen werden wir die menschliche, in anderen die algorithmische Bewertung bevorzugen.

STANDARD: Sie sind großer Science-Fiction-Fan und haben ein Buch über "Star Wars" verfasst. Was können wir von Science-Fiction lernen?

Sunstein: Science-Fiction regt unsere Fantasie an, macht uns offener gegenüber neuen Entwicklungen und zeigt auf, welche Rolle unvorhergesehene Ereignisse spielen können: in unserem persönlichen Leben und in unseren Gesellschaften. Ich bin optimistisch, was diese Entwicklungen betrifft, weil ich es mit dem bekannten Verhaltenswissenschafter Amos Tversky halte, der sagte: "Ich bin Optimist, denn wenn du ein Pessimist bist und Schlechtes passiert, dann leidest du zweifach." (Jakob Pallinger, 19.6.2021)