Supercomputer: heimliche Verkaufsschlager in Industrie und Forschung

Supercomputer werkeln heutzutage überall im Hintergrund, etwa bei der Wettervorhersage, der Klimaforschung, in der Produktentwicklung, aber auch bei der Visualisierung von CT-Scans in der Medizin. So ist etwa die Wartedauer für ein CT-Scanbild von sechs Stunden auf unter eine Minute gesunken, sagte Intel-Produktmanager Kirk Skaugen kürzlich am Rande der 25. International Supercomputing Conference (ISC) im Congress Centrum Hamburg. Durch ihre parallele Architektur sind die Supercomputer wie dafür geschaffen, solche Visualisierungen im Handumdrehen zu erledigen, aber noch mehr, um alle Arten von Simulationen durchzurechnen.

Mit solchen Simulationen, wie sie im Design oder bei Crashtests notwendig sind, wollen Forscher und Ingenieure die Realität komplexer Vorgänge so exakt wie möglich abbilden, um sie immer besser zu verstehen und die neuesten Erkenntnisse im Dienste von Umwelt, Medizin oder Physik einzusetzen. So lassen sich etwa die Brennvorgänge in einem Kohlekraftwerk simulieren, um dessen Effizienz zu steigern und seinen Verbrauch zu senken.


Die Cray CX-1 ist eine Workstation mit Supercomputer-Ausstattung für vielfältige Zwecke und Nutzer (Bild: Cray).

„High Performance Computing durchdringt immer mehr Anwendungsbereiche und ist längst nicht mehr der Spitzenforschung vorbehalten“, erklärt Stephanie Kuehdorf, Leiterin des Supercomputing-Bereichs bei IBM Deutschland. Zahlreiche Fachabteilungen und Mittelständler setzen heute HPC-Lösungen für ihre Aufgabenstellungen wie Data Mining und Business Analytics ein. „Mit dem Aufkommen bezahlbarer x86-Cluster und Open-Source-Stacks auf Linux-Basis ist Supercomputing in ausgewählten Anwendungsbereichen auch für den Mittelstand erschwinglich geworden“, meint auch IBM-Sprecher Hans-Jürgen Rehm. Ein preisgünstiger Supercomputer wie die Cray CX-1 ist bereits ab 55.000 Dollar zu bekommen.

Sinkende Kosten

Preisgünstige Grafikprozessoren (GPUs) sind einer der Gründe, warum Hochleistungsrechner, etwa von Cray, HP oder IBM, inzwischen auch im Mittelstand Verwendung finden. So stellte auf der ISC auch Intel einen entsprechenden Coprozessor für diesen Markt vor. Die Grafikprozessoren der Tesla-20-Serie von Nvidia liefern laut Hersteller die gleiche Leistung wie die neueste Quadcore-CPU bei einem Zwanzigstel des Stromverbrauchs und einem Zehntel der Kosten – zumindest bei bestimmten Anwendungen.

Zudem ist Energieeffizienz heute angesichts drastisch gestiegener Energiepreise eine Grundvoraussetzung für ein modernes HPC-System. Das in dieser Disziplin beste System heißt QPACE, basiert auf IBMs Cell-Prozessor, und wurde in Deutschland entwickelt.

Page: 1 2

ZDNet.de Redaktion

Recent Posts

Salesforce: Mit Einstein GPT zurück auf die Überholspur?

Salesforce forciert den Ausbau seiner Industry Clouds. Mit ihrem Prozesswissen könnten deutsche IT-Dienstleister davon profitieren.

17 Stunden ago

Neue Backdoor: Bedrohung durch Malvertising-Kampagne mit MadMxShell

Bisher unbekannter Bedrohungsakteur versucht über gefälschte IP Scanner Software-Domänen Zugriff auf IT-Umgebungen zu erlangen.

2 Tagen ago

BSI-Studie: Wie KI die Bedrohungslandschaft verändert

Der Bericht zeigt bereits nutzbare Angriffsanwendungen und bewertet die Risiken, die davon ausgehen.

3 Tagen ago

KI-Wandel: Welche Berufe sich am stärksten verändern

Deutsche sehen Finanzwesen und IT im Zentrum der KI-Transformation. Justiz und Militär hingegen werden deutlich…

3 Tagen ago

Wie ein Unternehmen, das Sie noch nicht kennen, eine Revolution in der Cloud-Speicherung anführt

Cubbit ist das weltweit erste Unternehmen, das Cloud-Objektspeicher anbietet. Es wurde 2016 gegründet und bedient…

3 Tagen ago

Dirty Stream: Microsoft entdeckt neuartige Angriffe auf Android-Apps

Unbefugte können Schadcode einschleusen und ausführen. Auslöser ist eine fehlerhafte Implementierung einer Android-Funktion.

3 Tagen ago