Milliardengrab: Warum Intels Itanium gescheitert ist

Nicht wirklich für die RISC-Idee begeistern ließ sich allerdings Microsoft: MS-DOS und OS/2 waren komplett in Assembler geschrieben. Auch viele Systemkomponenten von Windows 2.0 bestanden aus Assembler-Code. Chefentwickler Gordon Letwin ließ sich nicht einmal bei OS/2 dazu überreden, "Teufelswerk" wie einen C-Compiler zu benutzen. Bill Gates erkannte, dass möglicherweise das Ende der x86-Architektur gekommen war. und heuerte 1988 Dave Cutler an, der parallel zu Gordon Letwins Entwicklung an OS/2 2.0 ein neues Betriebssystem mit dem Codenamen NT entwickelte. Dieses neue System wurde komplett in C geschrieben und sollte als OS/2 3.0 auf den Markt kommen.

Da OS/2 3.0 erst für Mitte bis Ende der 90er Jahre geplant war, musste Microsoft noch lange mit der x86-Architektur leben. So bekniete Microsoft seinen Partner Intel, man möge die x86-Architektur weiterentwickeln, so dass sie den RISC-Systemen Paroli bieten kann. Intel hingegen war schon fleißig dabei, RISC-Prozessoren zu entwickeln und bestand nicht auf die Fortführung der x86-Architektur.

So stellte Intel 1988 mit der i960MC die erste kommerzielle superskalare RISC-CPU vor – wenn man erneut von der CDC 6600 aus dem Jahr 1965 absieht. Superskalare CPUs können nicht nur einen Befehl pro Takt ausführen, sondern gleich mehrere. Wegen der geringeren Komplexität von RISC-CPUs lässt sich dieses Prinzip dort leichter implementieren.

Ab 1990 interessierte sich Microsoft für superskalare x86-CPUs. In diesem Jahr kam Windows 3.0 auf den Markt. Man trennte sich in der Betriebssystementwicklung von IBM. IBM erhielt OS/2 2.0. Microsoft behielt OS/2 3.0, später Windows NT. Microsoft sah sich allerdings genötigt, das Chicago-Projekt ins Leben zu rufen, das in Windows 95 mündete, um damals übliche Rechner mit bis zu 4 MByte Hauptspeicher zu unterstützen. Windows NT 3.1 benötigt mindestens 16 MByte.

Da mit Windows 3.x und Windows 95 kein echtes präemptives Multitasking möglich war, konnte man die Geschwindigkeit vor allem durch Superskalarität steigern. So kann eine CPU mehrere Befehle gleichzeitig auszuführen, ohne dass Multithreading erforderlich ist. An SMP-Unterstützung war beim MS-DOS-basierten Windows 95 nicht zu denken.

Die erste superskalare CPU auf x86-Basis war der Pentium, der 1993 herauskam. Der Pentium konnte mehrere Befehle gleichzeitig ausführen, die direkt hintereinander standen, wenn sie nicht voneinander abhängig waren. Die superskalare Technologie wurde beim Pentium Pro wesentlich verbessert. Der Pentium Pro beherrschte Out-of-Order-Execution. Das ermöglichte eine wesentlich bessere Ausnutzung der superskalaren Technologie.

Nach 1996 wuchsen RISC- und CISC-Prozessoren wieder zusammen. Gemäß Moore’s Law wuchs die Zahl der Transistoren durch weitere Miniaturisierung der VLSI-Technologie bei Prozessorneuentwicklung exponentiell an. Der Befehlssatz eines Prozessors verlor an Bedeutung. Die Zahl der Transistoren, die man benötigt, um Befehle zu dekodieren und in eine Pipeline zu legen, macht bei einer CPU mit 150.000 Transistoren eine Menge aus. So viele Transistoren hatten die ersten RISC-CPUs in etwa. Eine heutige Nehalem-CPU hat über 730 Millionen Transistoren. Die Anzahl der Transistoren, die ein CISC-Prozessor zusätzlich zu einem RISC-Prozessor für die Befehlsdekodierung benötigt, fallen kaum noch ins Gewicht. Andere Faktoren, etwa Vektorisierung, Zahl der FPUs und ALUs, TLB, Cache-Hierarchie und Page Walk, bestimmen die Performance. Bei einer modernen CPU kann man nur noch historisch zwischen RISC und CISC unterscheiden.

Themenseiten: Intel, Plattform, Servers, Software, Storage, Storage & Server

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Milliardengrab: Warum Intels Itanium gescheitert ist

Kommentar hinzufügen
  • Am 7. Juli 2009 um 20:22 von Davidoff

    WindowsNT 3.1 und 16MB RAM
    Wie Sie auf "Microsoft sah sich allerdings genötigt, das Chicago-Projekt ins Leben zu rufen, das in Windows 95 mündete, um damals übliche Rechner mit bis zu 4 MByte Hauptspeicher zu unterstützen" ist mir schleierhaft, denn "Windows NT 3.1 benötigt mindestens 16 MByte" ist schlichtweg falsch, auch der Nach-Nachfolger WindowsNT 3.51 lief noch prima mit 8MB RAM. Und selbst das gute alte WindowsNT 4 begnügt sich in der Workstation-Variante mit lediglich 12MB, nur die Server-Version brauchte tatsächlich 16MB RAM. WindowsNT 4 kam aber erst Ende 1996 und damit geraume Zeit nach Windows95 raus.

    Der wahre Grund für Windows95 lag zum Einen in der damals noch hohen Verbreitung von DOS-Programmen (vor Allem Spiele), welche unter der DOS-Emulation von WindowsNT garnicht bzw. nur eingeschränkt funktionierten. Zudem erlaubte das die Aufspaltung des eigenen Portfolios in Consumer- (Windows95) und Business-Linie (WindowsNT).

    Davidoff

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *