Bild nicht mehr verfügbar.
24 GB digitale Daten
Pro Kopf der Weltbevölkerung werden rein statistisch 24 Gigabyte an digitalen Daten produziert - allein in Deutschland aber erzeugt der IDC-Studie zufolge jeder mehr als 121 Gigabyte. Die Datenmenge in Deutschland soll bis 2010 von 10 Exabyte auf 70 Exabyte anschwellen. Der IDC-Studie zufolge sind 70 Prozent der Datenproduzenten Privatpersonen, die im Internet surfen, E-Mails versenden, telefonieren, fotografieren oder eine Vielzahl von anderen elektronischen Tätigkeiten verrichten.
Wachstum und Vielfalt
"Heutige Informationsinfrastrukturen sind mit einem so rasanten Wachstum und der Vielfalt an Formaten wie Inhalten überfordert", erklärt der Geschäftsführer von EMC Deutschland, Jochen Moll. Sein Unternehmen stellt Hardware für die Speicherung von Massendaten und Software für den Umgang damit her. Dazu gehören Lösungen, um Daten in "Wertklassen" einzuteilen, "damit die richtigen Informationen zeitnah aus dem Datenwust gefiltert werden können".
"Hierarchisches Storage-Management"
Eine solche Sortierung von Daten wird in der Branche als "hierarchisches Storage-Management" bezeichnet. Ein wichtiges Kriterium für die Einteilung in verschiedene Kategorien ist die Frage nach der zu erwartenden Häufigkeit von Zugriffen. "Wenn die Revision nach zehn Jahren nochmal eine Rechnung braucht, reicht es, wenn diese auf einem Magnetband gespeichert ist", erklärt der Server-Experte von Sun Microsystems, Rolf Kersten. Häufig benötigte Daten werden hingegen auf schnelleren Speichersystemen abgelegt wie dem X4500 von Sun, der 48 Festplatten mit einer Kapazität von jeweils 750 GB bündelt - insgesamt sind das 36 Terabyte.
Rasantes Wachstum
Ein rasantes Datenwachstum erwartet Sun Microsystems insbesondere bei Internet-Anwendungen mit globaler Reichweite. "Die Googles und eBays dieser Welt brauchen leistungsfähige Server, die eine Vielzahl paralleler Transaktionen bedienen", sagt Kersten im AP-Gespräch. "Bei Second Life werden jeden Monat tausend neue Server aufgebaut." Für solche Anwendungen wie den Datenaustausch dieser virtuellen Welt führt Sun in diesem Jahr einen neuen Hochleistungsserver ein, der einen Arbeitsspeicher von 64 Gigabyte hat und 64 Transaktionen aus dem Netz gleichzeitig bearbeiten kann. Dabei werde auch standardmäßig die Möglichkeit zur Datenverschlüsselung in den Prozessor eingebaut, kündigt der Sun-Produktmanager an.
Keine Grenzen
Auf Seiten der Hardware gebe es praktisch keine Grenze mehr für die Skalierbarkeit, also für den Umgang mit immer größeren Datenmengen, erklärt IBM-Sprecher Hans-Jürgen Rehm. In großen Unternehmen gehe es bislang meist um Größenordnungen von mehreren Terabytes (ein Terabyte sind tausend Gigabyte). Für ihre Bewältigung bietet IBM leistungsfähige Unix-Server mit Intel-Prozessoren und klassische Großrechner (Mainframes) an. Erst im Petabyte-Bereich (das sind 1.000 Terabyte) müssten speziellere Lösungen für den Datendurchsatz entwickelt werden.
Leistungsfähigkeit