Deutschland kämpft um Europas Supercomputing-Krone

ZDNet: Sie hatten in einem früheren Gespräch anklingen lassen, dass der Vergleich Garching und Jülich dem von Äpfel und Birnen gleichkomme. Können Sie das näher erläutern?

Biardzki: Die beiden Systeme unterscheiden sich grundlegend in ihrer Architektur: Der mit 8192 Dual-Prozessorboards mit jeweils eigenen 512 MB RAM bestückte JUBL eignet sich hervorragend für extrem parallelisierbare Applikationen, bei denen ein Problem effizient auf die einzelnen Prozessoren und deren Speicher zerlegt werden kann. Die Software muss dafür jedoch vergleichsweise aufwändig optimiert werden, und leider ist nicht jeder Algorithmus für einen solchen Rechner geeignet.

Die SGI Altix hat in Phase 1 weniger Rechenleistung und weniger Prozessoren, verfügt jedoch im Vergleich über einen wesentlich größeren und durch die NUMA-Architektur in einem einheitlichen Adressraum zusammenhängenden Arbeitsspeicher (jeweils 1 TByte für 256 Prozessoren). Dabei können „normale“ Linux-Applikationen ausgeführt werden, so dass die Anwender des HLRB2 auf eine sehr breite Palette von – auch kommerziellen – Programmpaketen zurückgreifen können, die sie vielleicht schon von kleineren Systemen am LRZ kennen. Das verkleinert die Einstiegsschwelle zum Supercomputing und erleichtert gleichzeitig die Programmierung.

ZDNet: Welches Ziel hat sich Garching gesteckt: Kann man zur Nummer Eins in Europa aufsteigen?

Biardzki: Der Zusammenschluss der drei nationalen Höchstleistungsrechenzentren – John-von-Neumann-Institut für Computing (NIC), LRZ und Höchstleistungsrechenzentrum Stuttgart (HLRS) zum Gauss Centre for Supercomputing (GCS) bildet eines der größten und leistungsfähigsten Höchstleistungsrechenzentren in Europa. Dadurch wird die Position von Deutschland unter den Bewerberländern für europäische Petaflops-Höchstleistungsrechner natürlich gestärkt. Ein europäischer Petaflops-Rechner mit Standort in Jülich, Stuttgart oder Garching ist also in Zukunft durchaus denkbar.

Alle großen europäischen Höchstleistungsrechenzentren, also auch Jülich, Barcelona und das LRZ, kooperieren übrigens in gesamteuropäischen Grid-Computing-Projekten wie DEISA, um die vorhandene Rechenleistung zu bündeln, Ressourcen besser zu nutzen und auch neue Arten von verteiltem Supercomputing zu ermöglichen. Eine wichtige Rolle spielen auch die verteilte Datenhaltung und die Frage, wie man riesige Datenmengen effizient zwischen entfernten Rechenzentren übertragen kann. Das LRZ ist mit zahlreichen Mitarbeitern an mehreren solcher Grid-Projekte aktiv beteiligt und möchte so seinen Beitrag für die europäische HPC-Community leisten.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Adobe schließt neun kritische Lücken in Reader und Acrobat

Das jüngste Update bringt insgesamt zwölf Fixes. Schadcode lässt sich unter Umständen ohne Interaktion mit…

2 Tagen ago

Fabrikautomatisierung: Siemens integriert SPS-Ebene

Eine softwarebasierte Workstation soll es Ingenieuren erlauben, sämtliche Steuerungen zentral zu verwalten. Pilotkunde ist Ford.

2 Tagen ago

Ebury-Botnet infiziert 400.000 Linux-Server weltweit

Kryptodiebstahl und finanzieller Gewinn sind laut ESET-Forschungsbericht die vorrangigen neuen Ziele.

3 Tagen ago

Sicherheitslücken in Überwachungskameras und Video-Babyphones

Schwachstellen aus der ThroughTek Kaylay-IoT-Plattform. Dringend Update-Status der IoT-Geräte prüfen.

3 Tagen ago

AWS investiert Milliarden in Cloud-Standort Brandenburg

Fast acht Milliarden Euro fließen in die deutsche Region der AWS European Sovereign Cloud. Das…

3 Tagen ago

DSL oder Kabel – Welcher Anschluss passt zu Ihnen?

Internet in den eigenen vier Wänden ist heutzutage nicht mehr wegzudenken. Denn egal, ob Homeoffice…

3 Tagen ago