Milliardengrab: Warum Intels Itanium gescheitert ist

Im April 2003 machte AMD dem Triumvirat aus Intel, HP und Microsoft einen Strich durch die Rechnung, indem es den ersten 64-Bit-Opteron auf den Markt brachte. Der beherrschte einen 64-Bit-Befehlssatz auf x86-Basis, konnte anders als der Itanium auch 32-Bit-Anwendungen flott abarbeiten und war darüber hinaus schneller und sparsamer als der Pentium 4.

Microsoft entschied sich, eine AMD64-Version von Windows XP und Windows 2003 herauszubringen. Über die Gründe kann man nur spekulieren. Möglicherweise fürchtete Microsoft kartellrechtliche Probleme, wenn nur Intel-Plattformen unterstützt werden. Dass Windows technisch nicht auf eine 64-Bit-Variante des x86-Befehlssatzes zu bringen sei, wohl aber auf die IA-64-Architektur des Itanium, hätte Microsoft niemand abgenommen.

Intel war nun gezwungen, mit der x86-Architektur nachzuziehen. Die Cash-Cow konnte man kaum AMD überlassen. So entstanden EM64T, Multi-Core-CPUs und die Core2-Architektur, mit der man AMD in der Leistung überholen konnte. Beim Speicherdurchsatz schließt allerdings erst die Nehalem-Architektur mit AMD auf.

Die Entwicklungen im x86-Bereich haben dazu geführt, dass der Itanium nicht mehr im High-Performance-Segment positionierbar ist. Deutlich preisweitere x86-Systeme bieten mehr Leistung. In der Top-500-Liste steht der schnellste Itanium-Rechner auf Platz 39. In den Top 10 befinden sich jedoch sieben Rechner mit x86-Architektur, zwei Rechner mit PowerPC-CPU und auf Platz 1 ein Rechner, der x86-Prozessoren mit IBMs Cell-Architektur kombiniert. Zudem brauchen Itanium-Rechner eine Menge Strom. In der Green-500-Liste, die die Top-500-Computer nach MFlops pro Watt sortiert, kann es der sparsamste Itanium-Rechner nur auf Platz 210 bringen.

Intel positioniert den Itanium heute über Ausfallsicherheit. Er soll in Systemen eingesetzt werden, die 99,999 Prozent Uptime und mehr bieten. Dafür sorgen neue Dual-Core-Itanium-Prozessoren mit dem Codenamen Montvale, die im Lockstep-Verfahren betrieben werden können. Dabei laufen beide Cores im „Gleichschritt“ und kontrollieren sich gegenseitig.

Doch auch, was Ausfallsicherheit angeht, hat sich die Welt verändert. Clustertechnologien erlauben es, den Ausfall eines einzelnen Rechners ohne Störung des Betriebs aufzufangen. Bei Datenbanken kommt es, anders als beispielsweise bei Webfarmen, zu einem kurzen Ausfall von ein bis zwei Sekunden. Das fängt jedoch eine gute Middleware vollständig ab.

Da auch x86-Server mit hervorragenden High-Availability-Eigenschaften ausgestattet sind, gibt es nur wenig Bedarf für Itanium-Systeme. Zudem scheinen Intel und HP Probleme bei der Weiterentwicklung des Itanium zu haben. Die nächste Itanium-Generation mit dem Codenamen Tukwila, die auch Quad-Core-CPUs beinhaltet, musste bereits mehrfach verschoben werden.

Hinzu kommt dass der Itanium auch unter den deterministischen CPUs nicht sonderlich gut dasteht. IBM hat sich mit der Power6-Architektur dafür entschieden, keine Out-of-Order-Execution oder Hyperthreading zu verwenden, und setzt auf statisches Scheduling. So erreicht IBM allerdings Taktfrequenzen von 5 GHz – im Labor sogar 6 GHz. Von derartigen Leistungen ist der Itanium weit entfernt.

Themenseiten: Intel, Plattform, Servers, Software, Storage, Storage & Server

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Milliardengrab: Warum Intels Itanium gescheitert ist

Kommentar hinzufügen
  • Am 7. Juli 2009 um 20:22 von Davidoff

    WindowsNT 3.1 und 16MB RAM
    Wie Sie auf "Microsoft sah sich allerdings genötigt, das Chicago-Projekt ins Leben zu rufen, das in Windows 95 mündete, um damals übliche Rechner mit bis zu 4 MByte Hauptspeicher zu unterstützen" ist mir schleierhaft, denn "Windows NT 3.1 benötigt mindestens 16 MByte" ist schlichtweg falsch, auch der Nach-Nachfolger WindowsNT 3.51 lief noch prima mit 8MB RAM. Und selbst das gute alte WindowsNT 4 begnügt sich in der Workstation-Variante mit lediglich 12MB, nur die Server-Version brauchte tatsächlich 16MB RAM. WindowsNT 4 kam aber erst Ende 1996 und damit geraume Zeit nach Windows95 raus.

    Der wahre Grund für Windows95 lag zum Einen in der damals noch hohen Verbreitung von DOS-Programmen (vor Allem Spiele), welche unter der DOS-Emulation von WindowsNT garnicht bzw. nur eingeschränkt funktionierten. Zudem erlaubte das die Aufspaltung des eigenen Portfolios in Consumer- (Windows95) und Business-Linie (WindowsNT).

    Davidoff

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *