Supercomputing: Mooresches Gesetz verliert an Bedeutung

ZDNet: In welchen Bereichen und für welche Anwendungen könnte HPC einen konkreten Nutzwert generieren?

Resch: Die Zahl der Bereiche ist nach wie vor sehr groß, da jeder Leistungssprung auch neue Horizonte für neue Anwendungen eröffnet. Ein großer Bereich ist die Medizin wo die Nutzbarkeit des Rechners von Operationsplanung – also biomechanischen Problemen – bis zur Genanalyse reicht. Wir sprechen hier in der Zwischenzeit von biologischen Systemen, die von der Zelle bis zum vollständigen Organismus simuliert werden können. Ein weiterer Bereich wird zunehmend in den TOP500 deutlich, wo wir immer mehr Banken finden. Finanzanalysen sind ein Markt, der interessant wird und für den heute auch die Leistung zur Verfügung steht. Daneben gibt es die traditionellen Bereiche, die weiter starken Bedarf an Rechnern haben.

ZDNet: Gilt dies auch für kleine und mittelständische Unternehmen?

Resch: Für die KMUs stellen Supercomputer schon heute einen konkreten Nutzwert zur Verfügung. Über unsere Public-Private-Partnership mit T-Systems und Porsche haben heute schone KMUS Zugang zu den Supercomputern in Stuttgart. Der Schlüssel zum Erfolg liegt hier in der Einfachheit des Zugangs. Grid-Konzepte sind hier hilfreich, müssen aber jenseits aller Modediskussionen um das heikle Thema Grid pragmatisch und problemorientiert vorangetrieben werden. Auch hier gilt: Der Kunde muss im Mittelpunkt stehen, wenn die Lösung akzeptiert werden soll.

ZDNet: Die Top-500-Liste und das Linpack-Benchmark sind durchaus umstrittene „Kennzahlen“. Wie „echt“ und aussagekräftig sind denn Ihrer Meinung nach die Resultate?

Resch: Die Top-500-Liste gerät natürlich zunehmend unter Druck. Die realen Anwendungsleistungen und die Werte der Liste klaffen mittlerweile so weit auseinander, dass sie für den Käufer kaum noch Aussagekraft haben. Insofern müssen sich die Autoren der Liste Gedanken machen. Andererseits reflektiert die Top-500-Liste Liste sehr gut die Trends der Zeit und ist noch immer die einzige weltweit genutzte Liste um Leistungen abschätzen zu können. Die Leistungszahlen der Liste sind eigentlich bedeutungslos. Die Liste selber ist aber von außerordentlich hohem Wert für die Community.

Themenseiten: IT-Business, Supercomputing, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

2 Kommentare zu Supercomputing: Mooresches Gesetz verliert an Bedeutung

Kommentar hinzufügen
  • Am 4. Juli 2005 um 12:22 von MartinT

    Personal Supercomputer?!!
    Also mal ehrlich… wenn ich meinen heutigen Mittelklasse PC (AMD Athlon, 2.2GHz mit 3x256MB RAM 200 GB Festplatte und 128 MB GeForce3) mit meinem ersten Computer (C64 mit revolutionären 39kB nutzbarem Arbeisspeicher und 985 kHz Prozessorfrequenz) vergleiche denke ich, das wir für "personal Supercomputer" nicht die Hardware weiter optimieren müssen und uns 90 Prozessoren in den Keller Stellen müssen um dann damit doch nur "Pong" zu spielen…

    Man muß das aktuelle Design nur mal komplett überarbeiten und dann die vorhandene Hardware richtig nutzen. Ich habe Druckertreiber gesehen die waren so groß wie meine komplette Diskettensammlung damals…

  • Am 6. Juli 2005 um 18:07 von eifelbauer

    Zitat meines alten Informatiklehrers:
    "… aber Speicherplatz kostet ja heutzutage nix mehr"

    (Und das war 1995!)

    Andererseits musst du mal hochrechnen, was billiger ist: Die benötigte (Arbeits-) Zeit um einen perfekten, kompakten, (unwartbaren) … Code zu schreiben ODER die doppelte Menge an Rechenleistung und Speicher.

    Auf der anderen Seite: um nen Brief uaf meinem 286er zu schreiben reichte damals etwa das in MHz, was heute in GHz … naja, mit DER Aussage warte ich lieber noch 1-2 Jahre, dann Stimmts ;-)

    sanfte Grüße aus der Eifel,

    eifelbauer

    p.s.: Was waren dass noch für Zeiten, als man den Englischen Tastaturtreiber geladen hat, damit für "Indiana Jones" die fehlenden 3kB Hauptspeicher frei wurden… andererseits war es damals offensichtlich auch schon so, dasa gerade Spiele die Hardware am meisten forderten.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *