Deutschland kämpft um Europas Supercomputing-Krone

ZDNet: Aktuell arbeiten Sie mit Speichersystemen von SGI und Netapp – was sich aus Ihrer doppelten Rolle als Hoster für die Nutzer-Accounts einerseits und Storage-Provider für das Supercomputing andererseits erklärt. Können Sie die beiden Aufgabengebiete näher beschreiben?

Biardzki: Am HLRB2 gibt es zwei Speichersysteme: Netapps Ontap GX für alle Projektdaten (55 TByte) und SGIs CXFS (262 TByte) für alle Zwischenergebnisse und pseudotemporäre Daten. Während CXFS eine enormen Durchsatz bei großen Dateien liefert, kommt Ontap GX viel besser mit großen Mengen an kleineren Files zurecht und bietet zusätzlich integrierte Snapshot- und Replikationsmöglichkeiten. Das LRZ in seiner Rolle als IT-Service-Provider für die Münchner Hochschulen betreibt weitere Speichersysteme.

ZDNet: Welche sind das und wofür dienen sie?

Biardzki: Die auf IBMs Tivoli Storage Manager basierten Backup- und Archivsysteme nutzen Storage- und Bandsysteme von IBM und Storagetek, um wichtige Daten auf Magnetband zu archivieren. Hier kommt beim HLRB2 hauptsächlich Sun-Storagetek-T10000-Technologie mit 120 MByte/s Durchsatz und 500 GByte/Band zum Einsatz.

ZDNet: Wie gestaltet sich die Zusammenarbeit mit Fremdfirmen wie SGI, Netapp oder anderen?

Biardzki: SGI ist Generalunternehmer für den gesamten Höchstleistungsrechner sowie seine Speichersysteme und kann damit alle Aufgaben direkt koordinieren. Zusätzlich zur Rechnerhardware bietet ein so großer Rechner auch noch Herausforderungen im Bereich Klimatechnik, Stromversorgung oder Software. Die Zusammenarbeit mit SGI läuft ausgezeichnet: Da SGI am LRZ ein eigenes Büro und Mitarbeiter vor Ort hat, können durch die kurzen Wege viele Aufgaben sehr effizient gelöst werden.

ZDNet: Welche Art von Daten fallen beim Supercomputing an?

Biardzki: Wie bereits angesprochen muss hier zwischen Programmcodes, Quell- und Ergebnisdaten sowie temporären Zwischenergebnissen unterschieden werden. Bei ersteren ist die Datenintegrität extrem hoch, die Performanceanforderungen sind jedoch oft niedriger. Die Zwischenergebnisse bewegen sich schnell im Terabyte-Bereich – der Rechner hat ja schon 17,5 TByte RAM -, können jedoch prinzipiell einfach neu berechnet werden. Aus diesem Grund erfolgt hier auch keine Datensicherung.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Chips bescheren Samsung deutlichen Gewinnzuwachs

Das operative Ergebnis wächst um fast 6 Billionen Won auf 6,64 Billionen Won. Die Gewinne…

4 Tagen ago

Chrome: Google verschiebt das Aus für Drittanbietercookies

Ab Werk blockiert Chrome Cookies von Dritten nun frühestens ab Anfang 2025. Unter anderem gibt…

5 Tagen ago

BAUMLINK: Wir sind Partner und Aussteller bei der Frankfurt Tech Show 2024

Die Vorfreude steigt, denn BAUMLINK wird als Partner und Aussteller bei der Tech Show 2024…

5 Tagen ago

Business GPT: Generative KI für den Unternehmenseinsatz

Nutzung einer unternehmenseigenen GPT-Umgebung für sicheren und datenschutzkonformen Zugriff.

5 Tagen ago

Alphabet übertrifft die Erwartungen im ersten Quartal

Der Umsatz steigt um 15 Prozent, der Nettogewinn um 57 Prozent. Im nachbörslichen Handel kassiert…

1 Woche ago

Microsoft steigert Umsatz und Gewinn im dritten Fiskalquartal

Aus 61,9 Milliarden Dollar generiert das Unternehmen einen Nettoprofit von 21,9 Milliarden Dollar. Das größte…

1 Woche ago