Supercomputer: heimliche Verkaufsschlager in Industrie und Forschung

Supercomputer werkeln heutzutage überall im Hintergrund, etwa bei der Wettervorhersage, der Klimaforschung, in der Produktentwicklung, aber auch bei der Visualisierung von CT-Scans in der Medizin. So ist etwa die Wartedauer für ein CT-Scanbild von sechs Stunden auf unter eine Minute gesunken, sagte Intel-Produktmanager Kirk Skaugen kürzlich am Rande der 25. International Supercomputing Conference (ISC) im Congress Centrum Hamburg. Durch ihre parallele Architektur sind die Supercomputer wie dafür geschaffen, solche Visualisierungen im Handumdrehen zu erledigen, aber noch mehr, um alle Arten von Simulationen durchzurechnen.

Mit solchen Simulationen, wie sie im Design oder bei Crashtests notwendig sind, wollen Forscher und Ingenieure die Realität komplexer Vorgänge so exakt wie möglich abbilden, um sie immer besser zu verstehen und die neuesten Erkenntnisse im Dienste von Umwelt, Medizin oder Physik einzusetzen. So lassen sich etwa die Brennvorgänge in einem Kohlekraftwerk simulieren, um dessen Effizienz zu steigern und seinen Verbrauch zu senken.


Die Cray CX-1 ist eine Workstation mit Supercomputer-Ausstattung für vielfältige Zwecke und Nutzer (Bild: Cray).

„High Performance Computing durchdringt immer mehr Anwendungsbereiche und ist längst nicht mehr der Spitzenforschung vorbehalten“, erklärt Stephanie Kuehdorf, Leiterin des Supercomputing-Bereichs bei IBM Deutschland. Zahlreiche Fachabteilungen und Mittelständler setzen heute HPC-Lösungen für ihre Aufgabenstellungen wie Data Mining und Business Analytics ein. „Mit dem Aufkommen bezahlbarer x86-Cluster und Open-Source-Stacks auf Linux-Basis ist Supercomputing in ausgewählten Anwendungsbereichen auch für den Mittelstand erschwinglich geworden“, meint auch IBM-Sprecher Hans-Jürgen Rehm. Ein preisgünstiger Supercomputer wie die Cray CX-1 ist bereits ab 55.000 Dollar zu bekommen.

Sinkende Kosten

Preisgünstige Grafikprozessoren (GPUs) sind einer der Gründe, warum Hochleistungsrechner, etwa von Cray, HP oder IBM, inzwischen auch im Mittelstand Verwendung finden. So stellte auf der ISC auch Intel einen entsprechenden Coprozessor für diesen Markt vor. Die Grafikprozessoren der Tesla-20-Serie von Nvidia liefern laut Hersteller die gleiche Leistung wie die neueste Quadcore-CPU bei einem Zwanzigstel des Stromverbrauchs und einem Zehntel der Kosten – zumindest bei bestimmten Anwendungen.

Zudem ist Energieeffizienz heute angesichts drastisch gestiegener Energiepreise eine Grundvoraussetzung für ein modernes HPC-System. Das in dieser Disziplin beste System heißt QPACE, basiert auf IBMs Cell-Prozessor, und wurde in Deutschland entwickelt.

Page: 1 2

ZDNet.de Redaktion

Recent Posts

Podcast: „Die Zero Trust-Architektur ist gekommen, um zu bleiben“

Unternehmen greifen von überall aus auf die Cloud und Applikationen zu. Dementsprechend reicht das Burg-Prinzip…

3 Stunden ago

Google schließt weitere Zero-Day-Lücke in Chrome

Hacker nutzen eine jetzt gepatchte Schwachstelle im Google-Browser bereits aktiv aus. Die neue Chrome-Version stopft…

5 Stunden ago

Hacker greifen Zero-Day-Lücke in Windows mit Banking-Trojaner QakBot an

Microsoft bietet seit Anfang der Woche einen Patch für die Lücke. Kaspersky-Forscher gehen davon aus,…

6 Stunden ago

Adobe schließt neun kritische Lücken in Reader und Acrobat

Das jüngste Update bringt insgesamt zwölf Fixes. Schadcode lässt sich unter Umständen ohne Interaktion mit…

14 Stunden ago

Fabrikautomatisierung: Siemens integriert SPS-Ebene

Eine softwarebasierte Workstation soll es Ingenieuren erlauben, sämtliche Steuerungen zentral zu verwalten. Pilotkunde ist Ford.

15 Stunden ago

Ebury-Botnet infiziert 400.000 Linux-Server weltweit

Kryptodiebstahl und finanzieller Gewinn sind laut ESET-Forschungsbericht die vorrangigen neuen Ziele.

1 Tag ago