Supercomputing: Mooresches Gesetz verliert an Bedeutung

ZDNet befragte Michael Resch, Direktor des Höchstleistungs-Rechenzentrums (HLRS) in Stuttgart, zur Zukunft des High Performance Computings und zur Bedeutung der Top-500-Liste:

ZDNet: Herr Resch, was waren denn für Sie und die übrigen Organisatoren die Highlights der diesjährigen Supercomputing?

Resch: Der zentrale Punkt war sicher die Diskussion über mögliche zukünftige Petaflopsysteme. Wo bisher immer optimistisch in erster Linie von Zeithorizonten die Rede war – und im Vordergrund die Frage stand, wann wir Petaflops erreichen – wurde nun erstmals offen diskutiert vor welchen Problemen wir in Wirklichkeit stehen. Das besonders Positive daran ist, dass mit dieser Diskussion auch erstmals begonnen wurde vom Supercomputing über die reine Rechenleistung hinaus zu diskutieren.

ZDNet: Rein hardwarebasierte Konzepte haben etwas von dem Glanz früherer Tage verloren, worin liegt denn Ihrer Meinung nach die Zukunft des High Performance Computing?

Resch: Die Zukunft des High Performance Computing liegt noch immer in der Qualität der Konzepte – das war seit Seymour Crays Zeiten so und das gilt auch noch heute. Das bezieht sich sowohl auf die Hardware als auch auf die Lösungen, die wir im High Performance Computing anbieten können. Die rein quantitativen Konzepte mit Leistungssteigerungen einzig aufgrund der enormen Anzahl von Prozessoren sind zwar ein notwendiger Weg um neue Erkenntnisse zu gewinnen, taugen aber auf Dauer nicht als Lösung für eine Ära des Petaflopscomputing. Wir brauchen qualitativ neue Hardwarekonzepte. Darüber hinaus müssen wir uns als Community aber auch für neue Nutzergruppen öffnen.

ZDNet: Sie wiesen in Ihrem Vortrag darauf hin, dass mehr User als bisher vom Supercomputing profitieren sollten, wie stellen Sie sich die konkrete Umsetzung des von Ihnen als „kontextzentriertes Computing“ beschriebenen Trend vor?

Resch: Konkret heißt das, dass wir von einem hardwarezentrierten Konzept Abschied nehmen müssen. Der Rechner kann nicht mehr im Mittelpunkt stehen, sondern ist nur noch eines von vielen Werkzeugen, das im Entwicklungsprozess eingesetzt wird. Diese Umsetzung bedeutet, dass wir stärker in Prozessketten und Arbeitsabläufen denken müssen. Es heißt aber vor allem, dass wir uns stärker mit unseren Benutzern auseinander setzen müssen. Das sind aber nicht einfach dieselben Gruppen wie bisher, sondern wir müssen Ärzte, Investmentbanker, Entwicklungsingenieure und andere als die eigentlichen Endkunden endlich ernst nehmen.

Themenseiten: IT-Business, Supercomputing, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

2 Kommentare zu Supercomputing: Mooresches Gesetz verliert an Bedeutung

Kommentar hinzufügen
  • Am 4. Juli 2005 um 12:22 von MartinT

    Personal Supercomputer?!!
    Also mal ehrlich… wenn ich meinen heutigen Mittelklasse PC (AMD Athlon, 2.2GHz mit 3x256MB RAM 200 GB Festplatte und 128 MB GeForce3) mit meinem ersten Computer (C64 mit revolutionären 39kB nutzbarem Arbeisspeicher und 985 kHz Prozessorfrequenz) vergleiche denke ich, das wir für "personal Supercomputer" nicht die Hardware weiter optimieren müssen und uns 90 Prozessoren in den Keller Stellen müssen um dann damit doch nur "Pong" zu spielen…

    Man muß das aktuelle Design nur mal komplett überarbeiten und dann die vorhandene Hardware richtig nutzen. Ich habe Druckertreiber gesehen die waren so groß wie meine komplette Diskettensammlung damals…

  • Am 6. Juli 2005 um 18:07 von eifelbauer

    Zitat meines alten Informatiklehrers:
    "… aber Speicherplatz kostet ja heutzutage nix mehr"

    (Und das war 1995!)

    Andererseits musst du mal hochrechnen, was billiger ist: Die benötigte (Arbeits-) Zeit um einen perfekten, kompakten, (unwartbaren) … Code zu schreiben ODER die doppelte Menge an Rechenleistung und Speicher.

    Auf der anderen Seite: um nen Brief uaf meinem 286er zu schreiben reichte damals etwa das in MHz, was heute in GHz … naja, mit DER Aussage warte ich lieber noch 1-2 Jahre, dann Stimmts ;-)

    sanfte Grüße aus der Eifel,

    eifelbauer

    p.s.: Was waren dass noch für Zeiten, als man den Englischen Tastaturtreiber geladen hat, damit für "Indiana Jones" die fehlenden 3kB Hauptspeicher frei wurden… andererseits war es damals offensichtlich auch schon so, dasa gerade Spiele die Hardware am meisten forderten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *