Virtualisierung mit Server-CPUs: Leistungsbremse inklusive

VAX-Entwickler konnten damals einfach auf den neuen, aber langsamen Befehl verzichten. AMD und Intel machen es den Anwendern von Virtualisierungslösungen hingegen schwerer, wie weitere Benchmarks zeigen. Nutzt man die reine Softwarelösung Binary Translation, dann läuft memsweep gut, allerdings zeigen sich Schwächen beim Benchmark getppid.


Bild 4: getppid.c verursacht 10 Millionen Context-Switches.

Dieser Microbenchmark zeichnet sich dadurch aus, dass viele Aufrufe von Kernel-Funktionen vorgenommen werden. Das Ergebnis zeigt, dass in diesem Fall Binary Translation um ein Vielfaches langsamer ist als Hardwarevirtualisierung, die nahezu native Performance erreicht. Da getppid praktisch keine Anforderungen an den Hauptspeicher stellt, macht es keinen Unterschied, ob die erste Generation VT-x beziehungsweise AMD-V eingesetzt wird, oder ob man die zweite Generation EPT respektive RVI verwendet, die immer zusätzlich zur ersten Generation zum Einsatz kommt.


Bild 5: getppid zeigt, dass Kernel-Funktionen mit Softwarevirtualisierung langsam ausgeführt werden.


Bild 6: Auch getppid verhält sich in der 64-Bit-Version identisch zur 32-Bit-Variante.

Themenseiten: Anwendungsentwicklung, Betriebssystem, Nehalem, Prozessoren, Server, Servers, Shanghai, Software, Storage, Storage & Server, VMware

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

1 Kommentar zu Virtualisierung mit Server-CPUs: Leistungsbremse inklusive

Kommentar hinzufügen
  • Am 18. Dezember 2008 um 18:22 von ML

    Story comment
    A very interesting story

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *