Virtualisierung mit Server-CPUs: Leistungsbremse inklusive

Insgesamt betrachtet bietet keine Virtualisierungstechnik in allen Bereichen eine gute Leistung. Eine Ausnahme bildet Intels EPT, das nur auf Nehalem-Prozessoren verfügbar ist. EPT steht damit für Servervirtualisierung – Stand heute – nicht zur Verfügung. Die RVI-Technologie von AMD zeigt dagegen Schwächen im durchaus nicht unrealistischen Benchmark memsweep. Datenbankserver müssen oft in größeren Speicherbereichen hin und her springen.

Darüber hinaus ist zu erwähnen, dass keine Hardwarevirtualisierungstechnologie im Prozessor das Problem des langsamen I/O in virtuellen Maschinen löst. Binary Translation kann die Exceptions für I/O-Befehle abfangen, doch der Emulationscode im Hypervisor benötigt auch seine Takte. Abhilfe schaffen nur Hardware-Devices, die von mehreren virtuellen Maschinen gleichzeitig über verschiedene I/O-Bereiche gesteuert werden können. Dies adressiert Intel mit seiner VT-d-Technologie, die aber nicht im Prozessor, sondern im Device selbst, etwa einer Netzwerkkarte, implementiert werden muss.

Geht man von heutigen Verhältnissen aus, so steht Intel bei der Servervirtualisierung nicht besonders gut da. EPT ist auf den aktuellen Core-2-Prozessoren nicht verfügbar, so dass es zwischen VT-x und Binary Translation abzuwägen gilt. Diese Entscheidung entfällt natürlich bei 64-Bit-Gastmaschinen. Binary Translation ist nicht möglich. Programme, die häufig Speicher anfordern und wieder freigeben, laufen zwangsläufig langsam.

Hinzu kommt Intels Speicherarchitektur mit externem Memory-Controller. Auf einem Dunnington-System mit 24 Cores müssen sich alle Cores die Speicherbandbreite teilen. Das ist zwar kein virtualisierungsspezifisches Problem, jedoch werden die Core-2-Prozessoren dadurch noch weiter ausgebremst. Da hilft auch nicht der große Level-3-Cache, der zudem nur im Spitzenmodell X7460 in voller Ausbaustufe vorhanden ist.

AMD ist besser aufgestellt. Die Speicherbandbreite skaliert mit der Anzahl der physikalischen Prozessoren. Virtualisierungssoftware ist heute in der Lage, die NUMA-Architektur von AMD-Prozessoren optimal zu nutzen. Ebenso verfügen AMD-Prozessoren bereits seit Ende 2007 mit der Markteinführung von Barcelona über Hardwarevirtualisierung der zweiten Generation. Die hat allerdings praxisrelevante Designschwächen, wie memsweep zeigt.

Wie Intels-Nehalem-Prozessoren für Server mit den Codenamen Gainestown und Beckton aussehen werden, ist im Detail noch nicht bekannt. Während ein Turbo-Modus mehr als fraglich erscheint, darf man jedoch von EPT mit VPIDs und Teilinvalidierung der TLB-Einträge ausgehen. Kombiniert man ein solches Nehalem-System mit VT-d-Technologie bei den I/O-Bausteinen, so erhält man eine Hardware, bei der der Leistungsverlust durch Vollvirtualisierung in einem erträglichen Rahmen bleibt. Alle heute verfügbaren Systeme, seien sie von AMD oder Intel, haben deutliche Unzulänglichkeiten.

Themenseiten: Anwendungsentwicklung, Betriebssystem, Nehalem, Prozessoren, Server, Servers, Shanghai, Software, Storage, Storage & Server, VMware

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Virtualisierung mit Server-CPUs: Leistungsbremse inklusive

Kommentar hinzufügen
  • Am 18. Dezember 2008 um 18:22 von ML

    Story comment
    A very interesting story

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *