Bild nicht mehr verfügbar.

Foto: APA/dpa/Oliver Berg
Die Bewohner des digitalen Universums haben im vergangenen Jahr Daten in einem Umfang von 161 Exabyte produziert - das sind 161 Milliarden Gigabyte. Bis zum Jahr 2010 soll sich die jährliche Datenflut nach einer Schätzung des Marktforschungsinstituts IDC auf 988 Exabyte versechsfachen. Wie dieser gigantische Strom kanalisiert werden kann, zeigt ab Donnerstag die Computermesse CeBIT in Hannover.

24 GB digitale Daten

Pro Kopf der Weltbevölkerung werden rein statistisch 24 Gigabyte an digitalen Daten produziert - allein in Deutschland aber erzeugt der IDC-Studie zufolge jeder mehr als 121 Gigabyte. Die Datenmenge in Deutschland soll bis 2010 von 10 Exabyte auf 70 Exabyte anschwellen. Der IDC-Studie zufolge sind 70 Prozent der Datenproduzenten Privatpersonen, die im Internet surfen, E-Mails versenden, telefonieren, fotografieren oder eine Vielzahl von anderen elektronischen Tätigkeiten verrichten.

Wachstum und Vielfalt

"Heutige Informationsinfrastrukturen sind mit einem so rasanten Wachstum und der Vielfalt an Formaten wie Inhalten überfordert", erklärt der Geschäftsführer von EMC Deutschland, Jochen Moll. Sein Unternehmen stellt Hardware für die Speicherung von Massendaten und Software für den Umgang damit her. Dazu gehören Lösungen, um Daten in "Wertklassen" einzuteilen, "damit die richtigen Informationen zeitnah aus dem Datenwust gefiltert werden können".

"Hierarchisches Storage-Management"

Eine solche Sortierung von Daten wird in der Branche als "hierarchisches Storage-Management" bezeichnet. Ein wichtiges Kriterium für die Einteilung in verschiedene Kategorien ist die Frage nach der zu erwartenden Häufigkeit von Zugriffen. "Wenn die Revision nach zehn Jahren nochmal eine Rechnung braucht, reicht es, wenn diese auf einem Magnetband gespeichert ist", erklärt der Server-Experte von Sun Microsystems, Rolf Kersten. Häufig benötigte Daten werden hingegen auf schnelleren Speichersystemen abgelegt wie dem X4500 von Sun, der 48 Festplatten mit einer Kapazität von jeweils 750 GB bündelt - insgesamt sind das 36 Terabyte.

Rasantes Wachstum

Ein rasantes Datenwachstum erwartet Sun Microsystems insbesondere bei Internet-Anwendungen mit globaler Reichweite. "Die Googles und eBays dieser Welt brauchen leistungsfähige Server, die eine Vielzahl paralleler Transaktionen bedienen", sagt Kersten im AP-Gespräch. "Bei Second Life werden jeden Monat tausend neue Server aufgebaut." Für solche Anwendungen wie den Datenaustausch dieser virtuellen Welt führt Sun in diesem Jahr einen neuen Hochleistungsserver ein, der einen Arbeitsspeicher von 64 Gigabyte hat und 64 Transaktionen aus dem Netz gleichzeitig bearbeiten kann. Dabei werde auch standardmäßig die Möglichkeit zur Datenverschlüsselung in den Prozessor eingebaut, kündigt der Sun-Produktmanager an.

Keine Grenzen

Auf Seiten der Hardware gebe es praktisch keine Grenze mehr für die Skalierbarkeit, also für den Umgang mit immer größeren Datenmengen, erklärt IBM-Sprecher Hans-Jürgen Rehm. In großen Unternehmen gehe es bislang meist um Größenordnungen von mehreren Terabytes (ein Terabyte sind tausend Gigabyte). Für ihre Bewältigung bietet IBM leistungsfähige Unix-Server mit Intel-Prozessoren und klassische Großrechner (Mainframes) an. Erst im Petabyte-Bereich (das sind 1.000 Terabyte) müssten speziellere Lösungen für den Datendurchsatz entwickelt werden.

Leistungsfähigkeit

Müssen sehr viele Daten gleichzeitig verarbeitet werden, kommt es weniger auf den physikalischen Datenspeicher an als vielmehr auf die Leistungsfähigkeit von Prozessoren, Arbeitsspeicher und Datenbank-Software. Bei Datenbanken im Petabyte-Bereich wird die jeweils benötigte Tabelle als Ausschnitt in den Speicher geladen. Supercomputer, deren Rangliste von IBM angeführt wird, können mit solchen Daten dann bis zu 380 Billionen Berechnungen in der Sekunde ausführen - die Experten sprechen von 380 Teraflops. Rechner mit einer Leistung von einem Petaflop - eine Billiarde Berechnungen pro Sekunde - sind nach Angaben Rehms bereits in Bau.(APA/AP)