Categories: Unternehmen

AMD: Der richtige Weg für die kommenden 10 Jahre

Aktuell ist Weber für die Entwicklung einer Strategie verantwortlich, die dem Server-Geschäftsbereich von AMD einen Vorsprung vor dem Rivalen Intel verschaffen soll. Das Ziel der Strategie besteht im Wesentlichen darin, die PC- und Server-Prozessoren auf 64 Bit zu erweitern und somit die Leistungsfähigkeit von relativ preisgünstigen Servern zu steigern.

Die Idee scheint sich auszuzahlen, wobei sie in nicht geringem Maße von der Entscheidung des Unternehmens gefördert wurde, auf dem 64-Bit-Serverchip Opteron auch 32-Bit-Software ausführen zu können. Das Unternehmen, das bisher im Serverchip-Geschäft nicht besonders in Erscheinung getreten ist, konnte bis jetzt Abkommen mit IBM, Hewlett-Packard und Sun Microsystems schließen. Alle drei Unternehmen haben den Opteron-Chip in ihre Produktlinien aufgenommen. Weber sprach kürzlich mit CNET News.com über die Strategie und die Zukunft der 32- und 64-Bit-Chips.

CNET: War es schwierig, den früheren AMD-Chef Jerry Sanders von der Notwendigkeit des Wechsels zu 64 Bit zu überzeugen?

Weber: Eigentlich nicht. Jerry Sanders war schon immer ein Kämpfer und Visionär und hat den Wert der Strategie sofort erkannt. Er sah deutlich, dass Intel einen falschen Weg eingeschlagen hatte. Als er sich über die richtige Richtung im Klaren war, war er mit Leidenschaft dabei.

CNET: Also ist Kompatibilität bzw. die Fähigkeit, sowohl 32-Bit- als auch 64-Bit-Software ausführen zu können, der richtige Weg?

Weber: Genau. Die AMD64-Architektur ermöglicht es, die vorhandenen Programme mit einer sich stetig steigernden Performance auszuführen, wobei gleichzeitig der Weg für neue Programme eröffnet wird, ohne Kompromisse in Sachen Performance und Kapazität eingehen zu müssen. Auf diese Weise werden unnötige Störungen vermieden.

CNET: Dennoch dauerte es eine Zeit, das Produkt auf den Markt zu bringen.

Weber: Das ist schließlich bei allen Entwicklungen dieser Art der Fall. Man hat immer mehrere Eisen im Feuer. Mehrere Softwareprojekte mussten zur gleichen Zeit abgeschlossen werden. Es handelte sich dabei nicht nur um die Entwicklung der neuen Architektur des Befehlssatzes (AMD64), sondern auch um die Entwicklung von HyperTransport und integrierten Speicher-Controllern.

Gleichzeitig war die schwierige Auseinandersetzung zwischen DDR und Rambus zu bewältigen. Auch hierbei musste ein von Intel abweichender Weg beschritten werden, der sich letztlich als der richtige Weg erwiesen hat.

All diese Fragen mussten gleichzeitig geklärt werden. Simulatoren mussten entwickelt werden, damit die Nutzer von Microsoft- und Linux-Systemen ihre Betriebssysteme portieren konnten, bevor überhaupt die Hardware zur Verfügung stand. Gegen Ende 1999 wurde ein Team aus ungefähr 20 fähigen Leuten zusammengestellt, das an dem Problem arbeiten sollte.

Page: 1 2 3 4

ZDNet.de Redaktion

Recent Posts

Gefahren im Foxit PDF-Reader

Check Point warnt vor offener Schwachstelle, die derzeit von Hackern für Phishing ausgenutzt wird.

23 Stunden ago

Bitdefender entdeckt Sicherheitslücken in Überwachungskameras

Video-Babyphones sind ebenfalls betroffen. Cyberkriminelle nehmen vermehrt IoT-Hardware ins Visier.

23 Stunden ago

Top-Malware in Deutschland: CloudEye zurück an der Spitze

Der Downloader hat hierzulande im April einen Anteil von 18,58 Prozent. Im Bereich Ransomware ist…

23 Stunden ago

Podcast: „Die Zero Trust-Architektur ist gekommen, um zu bleiben“

Unternehmen greifen von überall aus auf die Cloud und Applikationen zu. Dementsprechend reicht das Burg-Prinzip…

2 Tagen ago

Google schließt weitere Zero-Day-Lücke in Chrome

Hacker nutzen eine jetzt gepatchte Schwachstelle im Google-Browser bereits aktiv aus. Die neue Chrome-Version stopft…

2 Tagen ago

Hacker greifen Zero-Day-Lücke in Windows mit Banking-Trojaner QakBot an

Microsoft bietet seit Anfang der Woche einen Patch für die Lücke. Kaspersky-Forscher gehen davon aus,…

2 Tagen ago