Milliardengrab: Warum Intels Itanium gescheitert ist

Der Itanium muss als ein Projekt bezeichnet werden, das Intel und HP vor allem viel Geld gekostet hat. Schätzungen gehen von etwa 13 Milliarden Dollar bis zum Erscheinen des Merced ohne die Kosten für die Weiterentwicklung zum Tukwila aus. Die demgegenüber stehenden Verkaufserlöse kann man getrost vernachlässigen.

Was sich 1989 nach einem gesunden Konzept für parallele Ausführung von Code klang, erwies sich 2001, als der Itanium endlich auf den Markt kam, bereits als überholt. Performancevergleiche bestand der Merced nur mit dem damals aktuellen Pentium 4, nicht jedoch mit RISC-CPUs wie SPARC oder PowerPC.

Die EPIC-Architektur erwies sich als zu unflexibel. RISC- und CISC-CPU-Hersteller können durch Technologien wie Out-of-Order-Execution und Hyperthreading dafür sorgen, dass funktionale Einheiten, etwa Rechenwerke, optimal ausgenutzt werden. Außerdem kann ein und derselbe Binärcode je nach CPU-Modell anders ausgeführt werden, was es ermöglicht, dass Neuentwicklungen besser unterstützt werden.

Auch Intel und HP positionieren den Itanium heute nicht mehr als High-Performance-CPU, sondern versuchen, ihn als Hochverfügbarkeits-CPU zu platzieren. Dazu sind neuere Modelle mit Techniken wie dem Lockstep-Modus ausgestattet. Dabei läuft ein Dual-Core als virtueller Single-Core. Die beiden Cores überprüfen sich in diesem Modus gegenseitig auf Fehler. Die deterministische Befehlsausführung unterstützt solche Technologien.

Doch die Welt hat sich gewandelt. Ausfallsicherheit bedeutet heutzutage immer, dass ein ganzer Computer ausfallen kann, ohne dass ein Dienst ausfällt. Die Nachfrage nach teuren Itanium-Systemen hält sich stark in Grenzen. So darf es nicht verwundern, dass OEMs kaum noch Itanium-Systeme herstellen und HP zwischen 80 und 90 Prozent des Gesamtumsatzes mit Itanium-Prozessoren ausmacht. Der rührt vor allem von OpenVMS-Bestandskunden her, denen keine Alternative zur Verfügung steht.

Themenseiten: Intel, Plattform, Servers, Software, Storage, Storage & Server

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Milliardengrab: Warum Intels Itanium gescheitert ist

Kommentar hinzufügen
  • Am 7. Juli 2009 um 20:22 von Davidoff

    WindowsNT 3.1 und 16MB RAM
    Wie Sie auf "Microsoft sah sich allerdings genötigt, das Chicago-Projekt ins Leben zu rufen, das in Windows 95 mündete, um damals übliche Rechner mit bis zu 4 MByte Hauptspeicher zu unterstützen" ist mir schleierhaft, denn "Windows NT 3.1 benötigt mindestens 16 MByte" ist schlichtweg falsch, auch der Nach-Nachfolger WindowsNT 3.51 lief noch prima mit 8MB RAM. Und selbst das gute alte WindowsNT 4 begnügt sich in der Workstation-Variante mit lediglich 12MB, nur die Server-Version brauchte tatsächlich 16MB RAM. WindowsNT 4 kam aber erst Ende 1996 und damit geraume Zeit nach Windows95 raus.

    Der wahre Grund für Windows95 lag zum Einen in der damals noch hohen Verbreitung von DOS-Programmen (vor Allem Spiele), welche unter der DOS-Emulation von WindowsNT garnicht bzw. nur eingeschränkt funktionierten. Zudem erlaubte das die Aufspaltung des eigenen Portfolios in Consumer- (Windows95) und Business-Linie (WindowsNT).

    Davidoff

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *