Supercomputing: Mooresches Gesetz verliert an Bedeutung

Was nach Auffassung von Resch deshalb immer mehr zählt, ist der konkrete Nutzwert über das rein wissenschaftliche Erkenntnisinteresse hinaus. Ein Beispiel: Der amerikanische Hersteller Orion Multisystems offeriert für den europäischen Markt eine Art Personal Supercomputer, basierend auf einer Cluster-Technologie, die mit 96 Prozessoren ausgestattet in der Flachversion bis einem Terabyte und in der Deskside-Variante bis zu 9,6 TB Speicher verfügt.

Innovative Seiteneinsteiger wie Orion könnten also durchaus in Nischenmärkte jenseits der Dominanz Big Blues vorstoßen, die bisher noch kaum auf der HPC-Landkarte verzeichnet sind. Was die konkrete Dimensionierung künftiger HPC-Systeme angeht, so sieht Horst Simon vom Computing Sciences am Lawrence Berkeley National Laboratory in Berkeley in den nächsten sieben Jahren „Petaflop-Systeme mit 100 000 Commodity-Prozessoren je 10 Gigaflops/s“ im Kommen.

Die Branche entwickelt sich aber trotz der weiter anhaltenden hardwarebasierten Leistungssteigerungen hin zu einem neuen Ökosystem, in dem das Mooresche Gesetz immer mehr an Bedeutung verliert: „Nach 50 Jahren des exponentiellen Wachstums stellt sich die Frage, wie die Branche in zehn Jahren mit einem Null-Wachstums-Szenario fertig wird“, beschwört Simon. An die Stelle bisheriger Hardware- Wachstumskonzepte sollen stärker kommunikationsorientierte Technologien treten.

Bevor jedoch ein neues mehr auf softwaretechnischen Entwicklungen basiertes Ökosystem in der Branche Fuß fasst, müssen die Branchengrößen zunächst einige akute und handfeste Probleme lösen. Vor allem der steigende Energieverbrauch in den High-Tech-Rechenzentren macht den Unternehmen zu schaffen, was Dave Turrek, Vizepräsident IBM Deep Computing, zu der süffisanten Aussage verleitete, dass bald schon jedes HPC-Rechenzentrum eine eigene Kraftwerksversorgung benötige.

Einerseits sei der Markt für HPC zwar durch die konstanten Notwendigkeiten an Geschwindigkeit und Speicherkapazität getrieben, so Turrek, andererseits treibe der rasant ansteigende Energieverbrauch die Kosten in die Höhe, wie Turrek am Beispiel des Google Data Center illustrierte, das soviel Strom verbrauche wie eine ganze Stadt.

Themenseiten: IT-Business, Supercomputing, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

2 Kommentare zu Supercomputing: Mooresches Gesetz verliert an Bedeutung

Kommentar hinzufügen
  • Am 4. Juli 2005 um 12:22 von MartinT

    Personal Supercomputer?!!
    Also mal ehrlich… wenn ich meinen heutigen Mittelklasse PC (AMD Athlon, 2.2GHz mit 3x256MB RAM 200 GB Festplatte und 128 MB GeForce3) mit meinem ersten Computer (C64 mit revolutionären 39kB nutzbarem Arbeisspeicher und 985 kHz Prozessorfrequenz) vergleiche denke ich, das wir für "personal Supercomputer" nicht die Hardware weiter optimieren müssen und uns 90 Prozessoren in den Keller Stellen müssen um dann damit doch nur "Pong" zu spielen…

    Man muß das aktuelle Design nur mal komplett überarbeiten und dann die vorhandene Hardware richtig nutzen. Ich habe Druckertreiber gesehen die waren so groß wie meine komplette Diskettensammlung damals…

  • Am 6. Juli 2005 um 18:07 von eifelbauer

    Zitat meines alten Informatiklehrers:
    "… aber Speicherplatz kostet ja heutzutage nix mehr"

    (Und das war 1995!)

    Andererseits musst du mal hochrechnen, was billiger ist: Die benötigte (Arbeits-) Zeit um einen perfekten, kompakten, (unwartbaren) … Code zu schreiben ODER die doppelte Menge an Rechenleistung und Speicher.

    Auf der anderen Seite: um nen Brief uaf meinem 286er zu schreiben reichte damals etwa das in MHz, was heute in GHz … naja, mit DER Aussage warte ich lieber noch 1-2 Jahre, dann Stimmts ;-)

    sanfte Grüße aus der Eifel,

    eifelbauer

    p.s.: Was waren dass noch für Zeiten, als man den Englischen Tastaturtreiber geladen hat, damit für "Indiana Jones" die fehlenden 3kB Hauptspeicher frei wurden… andererseits war es damals offensichtlich auch schon so, dasa gerade Spiele die Hardware am meisten forderten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *