Virtualisierung mit Server-CPUs: Leistungsbremse inklusive

Insgesamt betrachtet bietet keine Virtualisierungstechnik in allen Bereichen eine gute Leistung. Eine Ausnahme bildet Intels EPT, das nur auf Nehalem-Prozessoren verfügbar ist. EPT steht damit für Servervirtualisierung – Stand heute – nicht zur Verfügung. Die RVI-Technologie von AMD zeigt dagegen Schwächen im durchaus nicht unrealistischen Benchmark memsweep. Datenbankserver müssen oft in größeren Speicherbereichen hin und her springen.

Darüber hinaus ist zu erwähnen, dass keine Hardwarevirtualisierungstechnologie im Prozessor das Problem des langsamen I/O in virtuellen Maschinen löst. Binary Translation kann die Exceptions für I/O-Befehle abfangen, doch der Emulationscode im Hypervisor benötigt auch seine Takte. Abhilfe schaffen nur Hardware-Devices, die von mehreren virtuellen Maschinen gleichzeitig über verschiedene I/O-Bereiche gesteuert werden können. Dies adressiert Intel mit seiner VT-d-Technologie, die aber nicht im Prozessor, sondern im Device selbst, etwa einer Netzwerkkarte, implementiert werden muss.

Geht man von heutigen Verhältnissen aus, so steht Intel bei der Servervirtualisierung nicht besonders gut da. EPT ist auf den aktuellen Core-2-Prozessoren nicht verfügbar, so dass es zwischen VT-x und Binary Translation abzuwägen gilt. Diese Entscheidung entfällt natürlich bei 64-Bit-Gastmaschinen. Binary Translation ist nicht möglich. Programme, die häufig Speicher anfordern und wieder freigeben, laufen zwangsläufig langsam.

Hinzu kommt Intels Speicherarchitektur mit externem Memory-Controller. Auf einem Dunnington-System mit 24 Cores müssen sich alle Cores die Speicherbandbreite teilen. Das ist zwar kein virtualisierungsspezifisches Problem, jedoch werden die Core-2-Prozessoren dadurch noch weiter ausgebremst. Da hilft auch nicht der große Level-3-Cache, der zudem nur im Spitzenmodell X7460 in voller Ausbaustufe vorhanden ist.

AMD ist besser aufgestellt. Die Speicherbandbreite skaliert mit der Anzahl der physikalischen Prozessoren. Virtualisierungssoftware ist heute in der Lage, die NUMA-Architektur von AMD-Prozessoren optimal zu nutzen. Ebenso verfügen AMD-Prozessoren bereits seit Ende 2007 mit der Markteinführung von Barcelona über Hardwarevirtualisierung der zweiten Generation. Die hat allerdings praxisrelevante Designschwächen, wie memsweep zeigt.

Wie Intels-Nehalem-Prozessoren für Server mit den Codenamen Gainestown und Beckton aussehen werden, ist im Detail noch nicht bekannt. Während ein Turbo-Modus mehr als fraglich erscheint, darf man jedoch von EPT mit VPIDs und Teilinvalidierung der TLB-Einträge ausgehen. Kombiniert man ein solches Nehalem-System mit VT-d-Technologie bei den I/O-Bausteinen, so erhält man eine Hardware, bei der der Leistungsverlust durch Vollvirtualisierung in einem erträglichen Rahmen bleibt. Alle heute verfügbaren Systeme, seien sie von AMD oder Intel, haben deutliche Unzulänglichkeiten.

Page: 1 2 3 4 5 6 7 8 9 10 11

ZDNet.de Redaktion

Recent Posts

DE-CIX Frankfurt bricht Schallmauer von 17 Terabit Datendurchsatz pro Sekunde

Neuer Datendurchsatz-Rekord an Europas größtem Internetknoten parallel zum Champions-League-Viertelfinale.

3 Wochen ago

Samsungs neuer LPDDR5X-DRAM erreicht 10,7 Gbit/s

Die neuen Chips bieten bis zu 25 Prozent mehr Leistung. Samsung steigert auch die Energieeffizienz…

3 Wochen ago

Cisco warnt vor massenhaften Brute-Force-Angriffen auf VPNs

Betroffen sind Lösungen von Cisco, Fortinet, SonicWall und anderen Anbietern. Die Hacker nehmen Konten mit…

3 Wochen ago

Cybersicherheit in KMUs: Es herrscht oft Aufholbedarf

Immer häufiger müssen sich Betriebe gegen Online-Gefahren wehren. Vor allem in KMUs werden oft noch…

3 Wochen ago

Chrome 124 schließt 23 Sicherheitslücken

Darunter ist ein weiterer Sandbox-Escape. Angreifer können unter Umständen aus der Ferne Schadcode einschleusen und…

3 Wochen ago

Plus 8 Prozent: Gartner hebt Prognose für IT-Ausgaben an

Sie steigt auf 8 Prozent Wachstum in diesem Jahr. Der Bereich IT-Services wächst in diesem…

3 Wochen ago