Deutschland kämpft um Europas Supercomputing-Krone

ZDNet: Sie hatten in einem früheren Gespräch anklingen lassen, dass der Vergleich Garching und Jülich dem von Äpfel und Birnen gleichkomme. Können Sie das näher erläutern?

Biardzki: Die beiden Systeme unterscheiden sich grundlegend in ihrer Architektur: Der mit 8192 Dual-Prozessorboards mit jeweils eigenen 512 MB RAM bestückte JUBL eignet sich hervorragend für extrem parallelisierbare Applikationen, bei denen ein Problem effizient auf die einzelnen Prozessoren und deren Speicher zerlegt werden kann. Die Software muss dafür jedoch vergleichsweise aufwändig optimiert werden, und leider ist nicht jeder Algorithmus für einen solchen Rechner geeignet.

Die SGI Altix hat in Phase 1 weniger Rechenleistung und weniger Prozessoren, verfügt jedoch im Vergleich über einen wesentlich größeren und durch die NUMA-Architektur in einem einheitlichen Adressraum zusammenhängenden Arbeitsspeicher (jeweils 1 TByte für 256 Prozessoren). Dabei können „normale“ Linux-Applikationen ausgeführt werden, so dass die Anwender des HLRB2 auf eine sehr breite Palette von – auch kommerziellen – Programmpaketen zurückgreifen können, die sie vielleicht schon von kleineren Systemen am LRZ kennen. Das verkleinert die Einstiegsschwelle zum Supercomputing und erleichtert gleichzeitig die Programmierung.

ZDNet: Welches Ziel hat sich Garching gesteckt: Kann man zur Nummer Eins in Europa aufsteigen?

Biardzki: Der Zusammenschluss der drei nationalen Höchstleistungsrechenzentren – John-von-Neumann-Institut für Computing (NIC), LRZ und Höchstleistungsrechenzentrum Stuttgart (HLRS) zum Gauss Centre for Supercomputing (GCS) bildet eines der größten und leistungsfähigsten Höchstleistungsrechenzentren in Europa. Dadurch wird die Position von Deutschland unter den Bewerberländern für europäische Petaflops-Höchstleistungsrechner natürlich gestärkt. Ein europäischer Petaflops-Rechner mit Standort in Jülich, Stuttgart oder Garching ist also in Zukunft durchaus denkbar.

Alle großen europäischen Höchstleistungsrechenzentren, also auch Jülich, Barcelona und das LRZ, kooperieren übrigens in gesamteuropäischen Grid-Computing-Projekten wie DEISA, um die vorhandene Rechenleistung zu bündeln, Ressourcen besser zu nutzen und auch neue Arten von verteiltem Supercomputing zu ermöglichen. Eine wichtige Rolle spielen auch die verteilte Datenhaltung und die Frage, wie man riesige Datenmengen effizient zwischen entfernten Rechenzentren übertragen kann. Das LRZ ist mit zahlreichen Mitarbeitern an mehreren solcher Grid-Projekte aktiv beteiligt und möchte so seinen Beitrag für die europäische HPC-Community leisten.

Themenseiten: IT-Business, Supercomputing, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Deutschland kämpft um Europas Supercomputing-Krone

Kommentar hinzufügen
  • Am 12. Februar 2007 um 12:48 von Darkwing

    4096 CPUs…
    …hoffentlich wird auch die GEZ-Gebühr dafür bezahlt.
    Dann kann die ARD Herrn Friedmann ein höheres Gehalt bezahlen, er kann sich Koks und Prostituierte davon kaufen und die Wirtschaft kommt endlich in Schwung! Juhu!

    Aber was für einen Energieverbrauch haben die Dinger? Klimakiller Supercomputer? Da wird es doch Zeit für eine neue Umweltsteuer auf PC…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *