Milliardengrab: Warum Intels Itanium gescheitert ist

Bereits beim Kompilieren von Software für den Itanium muss entschieden werden, welche Befehle gemeinsam ausgeführt werden. Inbesondere bei interaktiver Software spielt dabei jedoch das Nutzerverhalten eine Rolle. Eine CPU mit dynamischem Scheduling kann beispielsweise bei der Sprungvorhersage zählen, wie oft ein Sprung falsch vorhergesagt wurde, und ihre Heuristik anpassen. Je nach Nutzerverhalten lässt sich die Pipeline so dynamisch optimieren.

In diesem Umstand liegt viel Potenzial, mit Benchmarks nicht ganz ehrlich umzugehen. Bei einem definierten Benchmark, etwa SPECfp, ist von vornherein bekannt, wie sich das Programm verhält. So kann man durch immer neue Profiling-Läufe bessere Ergebnisse erzielen.

Obwohl man davon ausgehen darf, dass auch Intel und HP von 1989 bis zum Erscheinen des Itanium genug über VLIW und EPIC im Allgemeinen und den Itanium im Besonderen gelernt hatten, hielten sie an der Architektur fest und versuchten sie im High-End-Markt zu positionieren.

Das lag vor allem an zwei Dingen. Zum einen war der im November 2000 erschienene Pentium 4 alles andere als ein Performance-Wunder. Intel wollte unbedingt Gigahertz-Rekorde brechen und implementierte eine sehr tiefe Pipeline, um das zu erreichen. Zum anderen war die x86-Architektur auf 4 GByte Adressraum beschränkt, da sie damals noch  eine reine 32-Bit-Architektur war.

Intel, HP und Microsoft hatten damals die Idee, keine 64-Bit-Variante der x86-Architektur anzubieten. Microsoft unterstützte in dieser Zeit mit der Windows-Plattform nur noch x86-Prozessoren. Die RISC-Architekturen MIPS, PPC und Alpha wurden aufgegeben. Microsoft bot Intel und HP an, eine Windows-64-Bit-Version für den Itanium zu liefern. So konnte man Windows-Serverbetreibern, denen die Performance eines Pentium 4 zu gering war und 4 GByte RAM nicht ausreichte, teure Hard- und Software anbieten.

Themenseiten: Intel, Plattform, Servers, Software, Storage, Storage & Server

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Milliardengrab: Warum Intels Itanium gescheitert ist

Kommentar hinzufügen
  • Am 7. Juli 2009 um 20:22 von Davidoff

    WindowsNT 3.1 und 16MB RAM
    Wie Sie auf "Microsoft sah sich allerdings genötigt, das Chicago-Projekt ins Leben zu rufen, das in Windows 95 mündete, um damals übliche Rechner mit bis zu 4 MByte Hauptspeicher zu unterstützen" ist mir schleierhaft, denn "Windows NT 3.1 benötigt mindestens 16 MByte" ist schlichtweg falsch, auch der Nach-Nachfolger WindowsNT 3.51 lief noch prima mit 8MB RAM. Und selbst das gute alte WindowsNT 4 begnügt sich in der Workstation-Variante mit lediglich 12MB, nur die Server-Version brauchte tatsächlich 16MB RAM. WindowsNT 4 kam aber erst Ende 1996 und damit geraume Zeit nach Windows95 raus.

    Der wahre Grund für Windows95 lag zum Einen in der damals noch hohen Verbreitung von DOS-Programmen (vor Allem Spiele), welche unter der DOS-Emulation von WindowsNT garnicht bzw. nur eingeschränkt funktionierten. Zudem erlaubte das die Aufspaltung des eigenen Portfolios in Consumer- (Windows95) und Business-Linie (WindowsNT).

    Davidoff

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *