Deutschland kämpft um Europas Supercomputing-Krone

ZDNet: Wie speichern und sichern Sie diese Datenmengen?

Biardzki: Projektdaten werden auf den Netapp-Systemen über mehrere Dateisystem-Snapshots sowie eine Replikation auf zusätzliche SATA-Festplatten geschützt (diese Features sind in Ontap GX integriert). Das pseudotemporäre Dateisystem wird nicht gesichert.

ZDNet: Wie lange müssen die Daten vorrätig sein? Wie geht die Archivierung vonstatten?

Biardzki: Die Projektdaten sind über die gesamte Projektlaufzeit verfügbar, also über Monate bis Jahre und werden danach gelöscht. Das pseudotemporäre Dateisystem unterliegt einer Gleitlöschung, es wird also teilentleert, sobald ein bestimmter Füllstand erreicht wurde.

Die Langzeitarchivierung erfolgt über den IBM Tivoli Storage Manager: für den HLRB2 gibt es dedizierte Archivierungsserver, die einen Durchsatz von mehreren hundert MBit/s ermöglichen. Archivdaten werden aus einem Disk-Cache des Archivierungsservers auf Band gespeichert und zusätzlich in ein benachbartes Rechenzentrum kopiert, um eine Zweitkopie zu erhalten.

ZDNet: Die wissenschaftlichen Supercomputing-Daten werden also auf SGI gespeichert? Die Nutzerdaten wie E-Mails auf Netapp?

Biardzki: Der HLRB2 ist wegen der spezifischen Anforderungen ein separates System. Als IT-Service-Provider für die Münchner Hochschulen betreibt das LRZ weitere Speichersysteme von IBM, Storagetek und Netapp mit rund 250 TByte SAN und 55 TByte NAS-Speicher plus 1,7 PByte auf Band in mehreren Bandarchivsystemen mit etwa 2,5 PByte Kapazität. SAN kommt primär bei den Backup- und Archiv-Disk-Caches sowie bei Datenbanken zum Einsatz. NAS bedient hauptsächlich die Bereiche E-Mail, Dateidienste sowie diverse interne Server. Auch das von Münchner Wissenschaftlern genutzte Linux-Cluster des LRZ mit circa 300 Knoten wird über NAS versorgt.

ZDNet: Sie haben in Ihrem Vortrag erwähnt, dass Zuverlässigkeit Ihre vorrangige Aufgabe darstelle. Können Sie das näher erläutern?

Biardzki: Wie bereits erwähnt müssen Projektdaten über den höchsten Grad an Datenintegrität und -sicherheit verfügen, das heißt, es sind integrierte Backup- und Replikationsverfahren notwendig. Das pseudotemporäre Dateisystem ist wegen der riesigen Anzahl an Komponenten – 1536 Festplatten, 32 RAID-Controller, 256 SAN-Ports und Hunderte von FC-Karten – natürlich ebenfalls vollredundant ausgelegt, kann aber wegen der Datenmengen nicht automatisch gesichert werden. Das ergibt bei temporären Daten, die sich neu berechnen lassen, auch keinen Sinn. Generell steigt bei großen, zusammenhängenden Dateisystemen immer das Risiko eines Ausfalls, so dass auch die Verfahren für den Schutz der Daten angepasst werden müssen, etwa RAID DP auf den Netapps.

Themenseiten: IT-Business, Supercomputing, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Deutschland kämpft um Europas Supercomputing-Krone

Kommentar hinzufügen
  • Am 12. Februar 2007 um 12:48 von Darkwing

    4096 CPUs…
    …hoffentlich wird auch die GEZ-Gebühr dafür bezahlt.
    Dann kann die ARD Herrn Friedmann ein höheres Gehalt bezahlen, er kann sich Koks und Prostituierte davon kaufen und die Wirtschaft kommt endlich in Schwung! Juhu!

    Aber was für einen Energieverbrauch haben die Dinger? Klimakiller Supercomputer? Da wird es doch Zeit für eine neue Umweltsteuer auf PC…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *