Intels Server-Offensive

Der EV8 enthielt auch einen integrierten Rambus-Memory-Controller. Es bleibt zwar fraglich, ob genau darin die Zukunft liegt, doch was halten Sie ganz allgemein vom Konzept eines integrierten Controllers? Ist dies ein sinnvoller Ansatz?

Unter Umständen ja, doch kommt es dabei allein auf das richtige Timing an. Wir haben dieses Konzept natürlich bereits erwogen, es jedoch noch nicht umgesetzt, da die Entwicklung der Speichertechnologien schneller als die der Mikrokerne verläuft, so dass Probleme mit der Abstimmung entstehen können. Außerdem denke ich, dass einige Unternehmen der Branche sich mit diesem Problem auseinandersetzen werden – Unternehmen, die ein solches Konzept bereits verwirklicht haben. (AMD hat den Opteron mit einem integrierten Memory-Controller ausgestattet.)

Wir haben in diesem Punkt noch keine Entscheidung getroffen, denken aber selbstverständlich darüber nach. Wenn es nur um das Einsetzen eines Cache in einen Rohchip geht, sind wir bereit – auch für eine Multikern-Integration. Manche Anbieter haben dies bereits getan, weil es für sie der einzige Weg zu einer Performance-Steigerung war.

Wenn wir uns für dieses Konzept entscheiden, wird es dafür stichhaltige Gründe geben. Man darf nicht nur auf die Geschwindigkeit abzielen, sondern muss auch die Leistungsmerkmale des Prozesses im Auge behalten. Das EV8-Team beschäftigte sich mit einem Bauteil, das mit mehr als 200 Watt arbeiten sollte. Dies ist fast nicht mehr zweckmäßig. Wenn wir hier einsteigen sollten, wird ein solcher Leistungswert nicht vorkommen. Wir halten hier bestimmte Grenzwerte ein. Das macht natürlich sehr viel Arbeit.

Was halten Sie von der Afara-Technologie von Sun, also dem Multikern-/Multithread-Chip, den das Unternehmen eingeführt hat?

Nun ja, zu viel des Guten macht auch keinen Sinn. Ich habe dieses Projekt mit Neugier und Interesse verfolgt. Allerdings liegen derzeit die systembedingten Thread-Limits in einer Microsoft-Umgebung bei circa 64 und in einer Unix-Umgebung bei 128 oder 256. Die Schwierigkeit besteht also darin, mit der Anwendungsbranche zusammenzuarbeiten, um die jeweilige Richtung der Entwicklung festzulegen, so dass die entsprechenden Anwendungen für die jeweils verfügbaren Kapazitäten geschrieben werden können.

In gewissen Hinsicht genügt es in der Branche die Saat auszubringen und ein wenig zu gießen, um schließlich einen Baum wachsen zu sehen. Dies ist allerdings eine extrem komplexe Aufgabe. Wenn nun jemand das Leistungsvermögen von mehreren hundert Threads anzubieten hat, wird diese Aufgabe zu einem geradezu ehrfurchtgebietenden Unterfangen.

Wie stehen die Chancen für den Itanium? Er wurde für den Unix-Markt konzipiert, von dem Gartner sagt, dass er in diesem Jahr weniger als die Hälfte der Server-Umsätze und circa 18 Prozent der eingesetzten Geräte ausmachen werde. Dieser Markt schrumpft zusehends, was zum Teil auch auf Intels eigene 32-Bit-Chips zurückzuführen ist.

In diesem Bereich bietet sich uns die Gelegenheit zur Ausweitung unserer Marktanteile. Außerdem sind hier die Einnahmen aus Computing-Elementen, also Servern und Speichern, enorm groß. Auch wenn es sich um relativ kleine Stückzahlen handelt, geht es hier um mehrstellige Milliardenbeträge an Investitionen für Großgeräte.

Auch hier entstehen unzählige neue Technologien. Ich weiß zwar nicht wann, und vielleicht dauert es auch noch eine Weile, aber die Erfahrung lehrt, dass für neue Technologien irgendwann quer verknüpfte Anwendungsbereiche entstehen. So wird die Itanium-Prozessorfamilie eines Tages mit unserer IA-32-Serie kombinierbar sein und einen breiten Bereich dieses Segments abdecken. Wie Sie sehen, erweitern wir die Produktreichweite und schaffen mehr Überschneidungen.

Themenseiten: Servers, Storage, Storage & Server

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Intels Server-Offensive

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *