Deutschland kämpft um Europas Supercomputing-Krone

ZDNet: Wie speichern und sichern Sie diese Datenmengen?

Biardzki: Projektdaten werden auf den Netapp-Systemen über mehrere Dateisystem-Snapshots sowie eine Replikation auf zusätzliche SATA-Festplatten geschützt (diese Features sind in Ontap GX integriert). Das pseudotemporäre Dateisystem wird nicht gesichert.

ZDNet: Wie lange müssen die Daten vorrätig sein? Wie geht die Archivierung vonstatten?

Biardzki: Die Projektdaten sind über die gesamte Projektlaufzeit verfügbar, also über Monate bis Jahre und werden danach gelöscht. Das pseudotemporäre Dateisystem unterliegt einer Gleitlöschung, es wird also teilentleert, sobald ein bestimmter Füllstand erreicht wurde.

Die Langzeitarchivierung erfolgt über den IBM Tivoli Storage Manager: für den HLRB2 gibt es dedizierte Archivierungsserver, die einen Durchsatz von mehreren hundert MBit/s ermöglichen. Archivdaten werden aus einem Disk-Cache des Archivierungsservers auf Band gespeichert und zusätzlich in ein benachbartes Rechenzentrum kopiert, um eine Zweitkopie zu erhalten.

ZDNet: Die wissenschaftlichen Supercomputing-Daten werden also auf SGI gespeichert? Die Nutzerdaten wie E-Mails auf Netapp?

Biardzki: Der HLRB2 ist wegen der spezifischen Anforderungen ein separates System. Als IT-Service-Provider für die Münchner Hochschulen betreibt das LRZ weitere Speichersysteme von IBM, Storagetek und Netapp mit rund 250 TByte SAN und 55 TByte NAS-Speicher plus 1,7 PByte auf Band in mehreren Bandarchivsystemen mit etwa 2,5 PByte Kapazität. SAN kommt primär bei den Backup- und Archiv-Disk-Caches sowie bei Datenbanken zum Einsatz. NAS bedient hauptsächlich die Bereiche E-Mail, Dateidienste sowie diverse interne Server. Auch das von Münchner Wissenschaftlern genutzte Linux-Cluster des LRZ mit circa 300 Knoten wird über NAS versorgt.

ZDNet: Sie haben in Ihrem Vortrag erwähnt, dass Zuverlässigkeit Ihre vorrangige Aufgabe darstelle. Können Sie das näher erläutern?

Biardzki: Wie bereits erwähnt müssen Projektdaten über den höchsten Grad an Datenintegrität und -sicherheit verfügen, das heißt, es sind integrierte Backup- und Replikationsverfahren notwendig. Das pseudotemporäre Dateisystem ist wegen der riesigen Anzahl an Komponenten – 1536 Festplatten, 32 RAID-Controller, 256 SAN-Ports und Hunderte von FC-Karten – natürlich ebenfalls vollredundant ausgelegt, kann aber wegen der Datenmengen nicht automatisch gesichert werden. Das ergibt bei temporären Daten, die sich neu berechnen lassen, auch keinen Sinn. Generell steigt bei großen, zusammenhängenden Dateisystemen immer das Risiko eines Ausfalls, so dass auch die Verfahren für den Schutz der Daten angepasst werden müssen, etwa RAID DP auf den Netapps.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

MDM-Spezialist Semarchy stellt Data-Intelligence-Lösung vor

Als Erweiterung von Master-Data-Management ermöglicht es die Lösung, den Werdegang von Daten verstehen und sie…

4 Tagen ago

Apple stopft 15 Sicherheitslöcher in iOS und iPadOS

Sie erlauben unter anderem das Einschleusen von Schadcode. In älteren iPhones und iPads mit OS-Version…

4 Tagen ago

Hochleistungs-NAS-Speicher für KI-Daten

Neuer Speicher für KI von Huawei mit integrierter Ransomware-Erkennungs-Engine und deutlich geringerem Energiekonsum.

4 Tagen ago

Abo für Facebook: Verbraucherzentrale NRW klagt erneut gegen Meta

Diesmal geht es um das neue Abomodell für Facebook und Instagram. Die Verbraucherschützer klagen auf…

5 Tagen ago

Jedes zweite Gerät mit Redline-Infostealer infiziert

Infostealer-Infektionen haben laut Kaspersky-Studie zwischen 2020 und 2023 um mehr als das sechsfache zugenommen.

5 Tagen ago

Kaspersky warnt vor kritischen Sicherheitslücken in Cinterion-Modems

Betroffen sind Millionen IoT- und M2M-Geräte Geräte weltweit. Unter anderem können Angreifer per SMS Schadcode…

5 Tagen ago