IBM forscht an Datenspeicher mit 120 Petabyte

Das Speichersystem setzt sich aus 200.000 Festplatten zusammen. Es bietet mehr Kapazität für die Simulation von Wetter- und Klimamodellen. Das Dateisystem GPFS erlaubt schnellere Datenzugriffe für Supercomputer.

IBM Logo

Forscher von IBM arbeiten an einem neuen Datenspeicher, der sich aus 200.000 konventionellen Festplatten zusammensetzt, die kooperieren. Die riesige Datenablage mit 120 Petabyte Kapazität soll rund eine Billion Dateien aufnehmen können und genug Speicherkapazität für aufwendige Simulationen komplexer Systeme bieten, wie sie für Wetter- und Klimamodelle erforderlich sind.

Laut MIT Technology Review ist das Speichersystem auf eine fast zehnmal größere Kapazität ausgelegt als alle bisherigen. Ein Speichersystem mit 120 Petabyte könnte 24 Milliarden MP3-Dateien mit einer üblichen Größe von jeweils 5 MByte aufnehmen oder mühelos 60 Kopien der weltweit größten Datensicherung abbilden – dem Internetarchiv WayBack Machine mit 150 Milliarden Seiten.

Zum Einsatz kommt dabei ein Dateisystem, das im IBM Almaden Research Center in San José unter dem Namen General Parallel File System (GPFS) entwickelt wurde. Es soll schnellere Datenzugriffe für Supercomputer ermöglichen, in dem es einzelne Dateien über mehrere Laufwerke verteilt , sodass viele Teile einer Datei gleichzeitig gelesen oder geschrieben werden können. GPFS baut auf eine Cluster-Architektur, um herkömmliche Speichermedien optimal zu nutzen und ihnen Rekordleistungen abzuringen. Es kam auch bei IBMs Supercomputer „Watson“ zum Einsatz, der in der US-Quizshow Jeopardy seine menschlichen Gegenspieler zu schlagen vermochte.

Das Speichersystem wurde für einen nicht genannten Kunden entwickelt, der einen neuen Supercomputer für detaillierte Simulationen benötigt. Die Technologien könnten jedoch auch in ähnliche Systeme für konventionelles Computing einfließen, erklärte Projektleiter Bruce Hillsberg, der bei IBM für Speicherforschung verantwortlich ist: „Das 120-Petabyte-System ist heute absolut extrem, aber es ist durchaus möglich, dass in ein paar Jahren alle Cloud-Computing-Systeme so aussehen.“

Themenseiten: Business, Hardware, IBM, Storage, Supercomputing

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen Lesen Sie ZDNet-Artikel in Google Currents ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu IBM forscht an Datenspeicher mit 120 Petabyte

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *