Supercomputing 2006: Deutschland in der Rezession

Integriert haben die Redmonder nicht nur Standardkomponenten wie Scheduler und Nodes, sondern auch ein MPI-Interface. Bereits vor zwei Jahren kündigte Microsoft den Einstieg ins HPC-Segment an, bisher allerdings ohne durchschlagenden Erfolg. Ab August trägt nun das Unternehmen dem weltweiten Trend zu Cluster Systemen Rechnung und offeriert den Produktbaustein Windows Compute Cluster Server 2003. Ein zentrales Management, die einheitliche Oberfläche sowie Supportleistungen sollen den Markt überzeugen. Laut Tromsdorf soll das integrierte Standard-System rund 450 Dollar kosten.

Microsoft visiert damit neue Kundensegmente nicht nur in den klassischen HPC-Segmenten wie Engineering und Manufacturing an, sondern auch im Bereich von Finanzdienstleistungen, etwa in der Simulation von Investitionsrisiken. Zahlreiche Referenzkunden aus dem Bankenbereich scheinen diesen Trend zu bestätigen. Einen kleinen Spalt ist die Türe sogar für Unternehmen offen, die selbst Applikationen entwickeln, auch unter Einbeziehung von Linux-Anwendungen.

Weiterhin propagiert im Umfeld der Supercomp wurde auch der Mythos des „kleinen Supercomputer für den Schreibtisch“. So ist der bereits auf der Cebit 2006 vorgestellte Typhoon Personal Supercomputer von Tyan jetzt auch in Deutschland auf dem Markt vertreten. Allerdings liegt die Rechenleistung mit 70 Milliarden Gleitkomma-Operation pro Sekunde nur im zeitlichen Vergleich zu früheren Systemen auf der Höhe der Zeit. Zudem ist der stolze Preis von rund 4000 Euro nur für ambitionierte Nutzer erschwinglich. Schließlich stellt sich die Frage, ob gemeinsam genutzte virtuelle Kapazitäten im professionellen Ambiente nicht die bessere Variante sind.

Zum Schluß aus deutscher Sicht noch eine tröstliche Nachricht: Im wissenschaftlichen Umfeld gibt es auch künftig einheimisches Innovationspotential zu bestaunen. So etwa im neuen Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften (BAdW) in München. Dieses soll schon bald über zwei neue Supercomputer verfügen, den sogenannten Bundes-Höchstleistungsrechner HLRB-II. Dabei handelt es sich um ein SGI-Altix-4700-System mit 6656 Igtanium2-Prozessorkernen, einem 40 TByte großen, einheitlich nutzbaren Arbeitsspeicher sowie 660 TByte Plattenspeicher. Schon im Herbst soll das System mit einer Leistung von 69 TF/s an den Start. Jülich, Stuttgart und München sind damit zumindest im internen Länderranking weiterhin ganz vorne positioniert.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Forscher entwickeln Exploits per GPT-4 aus Sicherheitswarnungen

Die Tests basieren auf tatsächlich existierenden Sicherheitslücken. GPT-4 erreicht eine Erfolgsquote von 87 Prozent. Alle…

1 Woche ago

HostPress für Agenturen und E-Commerce-Betreiber

Höchste Performance-Standards für Webseiten und ein persönlicher, kundenorientierter Premium Support.

1 Woche ago

V-NAND: Samsung steigert Bit-Dichte um 50 Prozent

Die neue V-NAND-Generation bietet die derzeit höchste verfügbare Bit-Dichte. Samsung steigert auch die Geschwindigkeit und…

1 Woche ago

Bericht: Google entwickelt App-Quarantäne für Android

Die Sicherheitsfunktion taucht in einer Beta eines kommenden Android-Updates auf. Die Quarantäne beendet unter anderem…

1 Woche ago

Kostenloser Kurs zum Ausbau von Low-Code-Programmierung

Die OutSystems Developer School hilft Entwicklern, in 2 Wochen komplexe reaktive Anwendungen mit der Low-Code-Plattform…

1 Woche ago

Cloudflare: DNS-basierte DDoS-Angriffe steigen im ersten Quartal um 80 Prozent

Das Jahr 2024 beginnt laut Cloudflare mit einem Paukenschlag. Die automatischen Systeme des Unternehmens wehren…

1 Woche ago