Bild nicht mehr verfügbar.

Eine "maschinelle Superintelligenz" steht Bostrom zufolge weit oben auf der Liste der größten theoretisch möglichen Bedrohungen für die Menschheit.

Foto: REUTERS/Robert Pratta

Wien - Entscheidende Überlegungen ("crucial considerations") zur Zukunft der Menschheit hat sich der schwedische Philosoph Nick Bostrom zur Lebensaufgabe gemacht. Ob molekulare Nanotechnologie, synthetische Biologie oder Künstliche Intelligenz - besonders haben es ihm existenzielle Bedrohungen technologischer Natur angetan. Wie wahrscheinlich unsere Auslöschung noch in diesem Jahrhundert ist, darauf will sich der Direktor des Future of Humanity Institute im Gespräch freilich nicht festlegen. Bostrom wird am Samstag (25. August) bei den Alpbacher Technologiegesprächen im Themenblock "Zukunftsszenarien: in welchen Zeiträumen können wir planen?" sprechen.

"Wir versuchen unsere strategische Situation zu verstehen. Wie die Dinge, die wir jetzt tun, die Menschheit auf lange Sicht beeinflussen können", erklärt Bostrom die "intellektuelle Pionierarbeit" des Future of Humanity Institute, eines multidisziplinären Think Tank an der Universität Oxford.

Richtung unbekannt

"Eines der Hauptprobleme ist, dass wir nicht einmal wissen, in welche Richtung wir gehen sollen. Sogar wenn wir sagen, dass wir über Technologie reden, ist es nicht offensichtlich, ob wir sie schneller oder langsamer entwickelt haben wollen. Bevor wir nicht eine Meinung über diese fundamentalen Dinge haben, scheint es sinnlos, bei einem bestimmten Thema in die eine oder die andere Richtung zu drängen. Wenn man die falsche Richtung einschlägt, kann man die Dinge auch schlimmer machen", so der 39-jährige Schwede, dessen akademischer Hintergrund die Bereiche Physik, computerbasierte Neurowissenschaft, mathematische Logik und Philosophie umfasst.

Bedrohung "maschinelle Superintelligenz"

Weit oben auf der Liste der größten theoretisch möglichen Bedrohungen sieht Bostrom "maschinelle Superintelligenz", ein Thema, über das er derzeit ein Buch schreibt. Diese Superintelligenz könne dann entstehen, "wenn wir irgendwann in der Lage sein werden, eine Art von künstlicher Intelligenz zu entwickeln, die Menschen in allgemeiner Intelligenz gleichkommt und übertrifft". Wie weit wir auf dem Weg dorthin sind, sei schwer zu bestimmen. "Darum müssen wir eine Wahrscheinlichkeitsverteilung über eine ganze Reihe von Ankunftsdaten finden. Es könnte in zwei oder in acht Jahrzehnten passieren. Wir sollten die Wahrscheinlichkeiten für jede dieser Möglichkeiten errechnen."

Eine andere Bedrohung könne durch molekulare Nanotechnologie erwachsen und den Dingen, die man damit bauen könnte - zum Beispiel verschiedene Waffensysteme. Ähnlich sei es mit Anwendungen von synthetischer Biologie, mit denen man Designer-Krankheitskeime und andere Mikroorganismen mit existenziellem Bedrohungspotenzial herstellen könnte.

Globale Tyrannei als Bedrohung

Der vierte Typus einer existenziellen Bedrohung liegt für Bostrom in "einer Art unterdrückerischem, globalem totalitären System". "Das ist deshalb interessant, weil wir hier nicht notwendigerweise von einem Untergangsszenario sprechen, sondern auch von einem permanenten oder drastischen Zerstören unserer möglichen Zukunft oder einer wünschenswerten Entwicklung." Man könne sich vorstellen, dass neue Technologien zur Überwachung oder Gedankenkontrolle dafür eingesetzt werden, eine globale Tyrannei dauerhaft stabil zu halten.

Wie weit man in die Zukunft blicken kann, ist freilich ungewiss. "Meiner Ansicht nach gibt es nicht unbedingt eine gleichförmige Relation zwischen Distanz und Zeit, wenn es um die Vorhersehbarkeit geht. In anderen Worten, manchmal ist ein längerer Zeitrahmen leichter als ein mittlerer vorhersagbar. Das ist speziell der Fall, wenn wir in Betracht ziehen, welche Technologien bis zu einer bestimmten Zeit entwickelt sein werden."

Man könne etwa unterschiedlicher Ansicht darüber sein, ob molekulare Nanotechnologie - also die Erschaffung einer neuen Welt aus Atomen, den Bausteinen der Materie, nach dem Legosteinprinzip - in 20 Jahren entwickelt sein wird. "Aber wir können ziemlich sicher sein, dass sie in 200 Jahren erfunden sein wird."

Die Zeit, in der wir leben, würde Bostrom mit dem Begriff "Übergang" etikettieren. "Es ist eine gewaltige, massive Abnormität von jedem Punkt, den wir als den normalen menschlichen Zustand bezeichnen würden. Ich glaube nicht, dass der gegenwärtige Zustand noch lang andauern wird, darum schlage ich Übergang vor." (APA, 20.8.2012)