Supercomputing: Mooresches Gesetz verliert an Bedeutung

ZDNet: Mit welchen Problemen sind Sie denn konkret konfrontiert?

Resch: Am deutlichsten wird die Problematik der Liste am Beispiel unserer letzten Beschaffung. Wir haben uns für jenen Rechner entschieden, der unseren Nutzern die höchste Leistung liefert. Das war ein Vektorsystem. Damit rangieren wir auf Platz 27. Mit demselben Budget hätten wir durch Anschaffung eines PC-Clusters etwa Platz drei erreichen können. Für unsere Benutzer wäre dieser aber eine sinnlose Anschaffung gewesen. Als Direktor eines Zentrums sind sie hier im Zwiespalt zwischen Nutzer und Öffentlichkeit – die sich natürlich einen möglichst hohen Rang in den Top 500 wünscht.

ZDNet: Gibt es neue Konzepte?

Resch: Der in Deutschland entwickelte Benchmark IPACS sowie die neueren Arbeiten von Jack Dongarra, die unter dem Kürzel HPC Challenge (http://icl.cs.utk.edu/hpcc/) bekannt wurden, werden uns erheblich bessere Leistungszahlen liefern. Die Einfachheit der Top 500 Liste werden Sie aber nicht erreichen können. Aber auch hier kann man den Vergleich mit der Automobilwelt ziehen. Die Angabe der Pferdestärke reicht dort mittlerweile auch nicht mehr, um die Qualität eines Formel-1 Fahrzeuges zu beschreiben.

ZDNet: Welche Innovationen hält für uns die kommende Ära des Petaflop-Computing bereit?

Resch: Das ist schwer abzuschätzen. Die Community ist sich im Augenblick hauptsächlich darin einig, welche Probleme wir haben werden. Mit Sicherheit werden wir noch einige Schritte zum Ausbau der Parallelität sehen. IBM spricht von 100.000 Prozessoren und das wird noch gesteigert werden. Daneben werden wir eine Steigerung der Anzahl von Kernen auf einem Prozessor sehen. Zumindest acht solcher Kerne auf einer CPU halte ich für realistisch. Andererseits hat NEC auf der ISC in Heidelberg die Entwicklung von Speicherverbindungen basierend auf Glasfasertechnologie angekündigt. Damit würden wir wieder mehr Leistung für Einzelprozessoren bekommen.

Themenseiten: IT-Business, Supercomputing, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

2 Kommentare zu Supercomputing: Mooresches Gesetz verliert an Bedeutung

Kommentar hinzufügen
  • Am 4. Juli 2005 um 12:22 von MartinT

    Personal Supercomputer?!!
    Also mal ehrlich… wenn ich meinen heutigen Mittelklasse PC (AMD Athlon, 2.2GHz mit 3x256MB RAM 200 GB Festplatte und 128 MB GeForce3) mit meinem ersten Computer (C64 mit revolutionären 39kB nutzbarem Arbeisspeicher und 985 kHz Prozessorfrequenz) vergleiche denke ich, das wir für "personal Supercomputer" nicht die Hardware weiter optimieren müssen und uns 90 Prozessoren in den Keller Stellen müssen um dann damit doch nur "Pong" zu spielen…

    Man muß das aktuelle Design nur mal komplett überarbeiten und dann die vorhandene Hardware richtig nutzen. Ich habe Druckertreiber gesehen die waren so groß wie meine komplette Diskettensammlung damals…

  • Am 6. Juli 2005 um 18:07 von eifelbauer

    Zitat meines alten Informatiklehrers:
    "… aber Speicherplatz kostet ja heutzutage nix mehr"

    (Und das war 1995!)

    Andererseits musst du mal hochrechnen, was billiger ist: Die benötigte (Arbeits-) Zeit um einen perfekten, kompakten, (unwartbaren) … Code zu schreiben ODER die doppelte Menge an Rechenleistung und Speicher.

    Auf der anderen Seite: um nen Brief uaf meinem 286er zu schreiben reichte damals etwa das in MHz, was heute in GHz … naja, mit DER Aussage warte ich lieber noch 1-2 Jahre, dann Stimmts ;-)

    sanfte Grüße aus der Eifel,

    eifelbauer

    p.s.: Was waren dass noch für Zeiten, als man den Englischen Tastaturtreiber geladen hat, damit für "Indiana Jones" die fehlenden 3kB Hauptspeicher frei wurden… andererseits war es damals offensichtlich auch schon so, dasa gerade Spiele die Hardware am meisten forderten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *