Deutschland kämpft um Europas Supercomputing-Krone

ZDNet: Aktuell arbeiten Sie mit Speichersystemen von SGI und Netapp – was sich aus Ihrer doppelten Rolle als Hoster für die Nutzer-Accounts einerseits und Storage-Provider für das Supercomputing andererseits erklärt. Können Sie die beiden Aufgabengebiete näher beschreiben?

Biardzki: Am HLRB2 gibt es zwei Speichersysteme: Netapps Ontap GX für alle Projektdaten (55 TByte) und SGIs CXFS (262 TByte) für alle Zwischenergebnisse und pseudotemporäre Daten. Während CXFS eine enormen Durchsatz bei großen Dateien liefert, kommt Ontap GX viel besser mit großen Mengen an kleineren Files zurecht und bietet zusätzlich integrierte Snapshot- und Replikationsmöglichkeiten. Das LRZ in seiner Rolle als IT-Service-Provider für die Münchner Hochschulen betreibt weitere Speichersysteme.

ZDNet: Welche sind das und wofür dienen sie?

Biardzki: Die auf IBMs Tivoli Storage Manager basierten Backup- und Archivsysteme nutzen Storage- und Bandsysteme von IBM und Storagetek, um wichtige Daten auf Magnetband zu archivieren. Hier kommt beim HLRB2 hauptsächlich Sun-Storagetek-T10000-Technologie mit 120 MByte/s Durchsatz und 500 GByte/Band zum Einsatz.

ZDNet: Wie gestaltet sich die Zusammenarbeit mit Fremdfirmen wie SGI, Netapp oder anderen?

Biardzki: SGI ist Generalunternehmer für den gesamten Höchstleistungsrechner sowie seine Speichersysteme und kann damit alle Aufgaben direkt koordinieren. Zusätzlich zur Rechnerhardware bietet ein so großer Rechner auch noch Herausforderungen im Bereich Klimatechnik, Stromversorgung oder Software. Die Zusammenarbeit mit SGI läuft ausgezeichnet: Da SGI am LRZ ein eigenes Büro und Mitarbeiter vor Ort hat, können durch die kurzen Wege viele Aufgaben sehr effizient gelöst werden.

ZDNet: Welche Art von Daten fallen beim Supercomputing an?

Biardzki: Wie bereits angesprochen muss hier zwischen Programmcodes, Quell- und Ergebnisdaten sowie temporären Zwischenergebnissen unterschieden werden. Bei ersteren ist die Datenintegrität extrem hoch, die Performanceanforderungen sind jedoch oft niedriger. Die Zwischenergebnisse bewegen sich schnell im Terabyte-Bereich – der Rechner hat ja schon 17,5 TByte RAM -, können jedoch prinzipiell einfach neu berechnet werden. Aus diesem Grund erfolgt hier auch keine Datensicherung.

Themenseiten: IT-Business, Supercomputing, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Deutschland kämpft um Europas Supercomputing-Krone

Kommentar hinzufügen
  • Am 12. Februar 2007 um 12:48 von Darkwing

    4096 CPUs…
    …hoffentlich wird auch die GEZ-Gebühr dafür bezahlt.
    Dann kann die ARD Herrn Friedmann ein höheres Gehalt bezahlen, er kann sich Koks und Prostituierte davon kaufen und die Wirtschaft kommt endlich in Schwung! Juhu!

    Aber was für einen Energieverbrauch haben die Dinger? Klimakiller Supercomputer? Da wird es doch Zeit für eine neue Umweltsteuer auf PC…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *