Bild nicht mehr verfügbar.

Supercomputer sollen dazu beitragen, die großen Probleme der Zukunft zu bewältigen

Foto: AP Photo/Paul Sakuma

Intel hat im Rahmen der International Supercomputing Conference (ISC) angekündigt, zusammen mit Partnern bis 2018 erste Architekturen für Supercomputer stellen zu wollen, die Rechenleistungen von "einer Trillion Rechenoperationen pro Sekunde" schaffen. Als Grundlage dafür soll die Many Integrated Core Architektur (MIC) zum Einsatz kommen. Zu den interessierten Rechenzentren gehören das Forschungszentrum Jülich, das Leibniz-Rechenzentrum (LRZ), das CERN (Conseil Européen pour la Recherche Nucleaire) sowie das Korea Institute of Science and Technology (KISTI).

Exascale-Zeitalter

Um Exascale-Rechenleistung zu erreichen, müssen laut dem Chiphersteller Industrie und Regierungen zusammenarbeiten. Zudem seien hierfür neue Hardwareansätze notwendig. Einsatzfelder für derart schnelle Computer seien beispielsweise die Verarbeitung der wachsenden Datenmengen im Internet, Lösungen der Probleme des Klimawandels oder der Umgang mit den enorm steigenden Kosten bei der Öl- und Gas-Förderung.

Intel beschrieb drei Vorraussetzungen, die den Schritt vom Petascale-Computing hin zur Ära des Exscale-Computings möglich machen können: Die Fortschreibung des Moore'schen Gesetzes, kombiniert mit einem neuartigen, hocheffizienten Modell zur Software-Programmierung sowie die außerordentliche Skalierbarkeit der Systeme.

Massiver Energieverbrauch

Dieser Leistungszuwachs bedeutt aber auch einen Anstieg der Energieaufnahme. Beispielsweise würde der derzeit schnellste Supercomputer in China, der Tianhe-1A, zum Erreichen von Exascale-Leistung mehr als 1,6 Gigawatt an Energie benötigen. Dies wäre ausreichend Energie, um zwei Millionen Haushalte mit Energie zu versorgen. Somit stellt sich hinsichtlich der Energieeffizienz eine enorme Herausforderung. Um sich dieser Herausforderung anzunehmen, haben Intel und Forscher aus Europa drei europäische Labore eingerichtet.

Fahrplan zur Exascale-Grenze

Intel erwartet, dass die Top 100 der Supercomputer im Jahr 2013 eine Million Prozessoren verwenden werden. Bis 2015 soll sich diese Zahl verdoppeln und bis zum Ende des Jahrzehnts sogar auf acht Millionen ansteigen. Die Leistung des schnellsten TOP500-Computers werde im Jahr 2015 schätzungsweise bei 100 PetaFLOP/s liegen und die Grenze von einem ExaFLOP/s im Jahr 2018 durchbrochen. Bis zum Ende des Jahrzehnts könne das weltweit schnellste System mehr als 4 ExaFLOP/s leisten. (zw)