Sechs Faktoren zur Abwägung von Virtualisierungsprojekten

Die größte Schwierigkeit beim Wechsel hin zu einer
Virtualisierungsinfrastruktur betrifft den Speicher.

Obwohl es Unternehmen weiterhin möglich sein wird, direkt
angeschlossene Massenspeicher als kleine Entwicklungs- und
Testumgebungen zu nutzen, wird dieser Ansatz umso ungeeigneter, je
größer eine virtualisierte Produktionsumgebung wird.

Dies gilt besonders bei solchen Unternehmen, die Programme wie
VMotion einsetzen möchten, durch das die Migration der Arbeitslasten
zwischen unterschiedlichen Hosts für eine höhere Verfügbarkeit
ermöglicht wird.

Stattdessen kann ein Wechsel zu Shared Storage erforderlich
werden, wobei die Storage-Attached Network (SAN)-Technologie in diesem
Zusammenhang am häufigsten verwendet wird. Eine solche Technologie ist
teuer aber wichtig, weil virtuelle Maschinen (VMs) als Disk-Images im
SAN gespeichert werden.

Zusätzlich muss jeder physikalische Server im Netzwerk das
Disk-Image jeder VM erkennen können, um zu wissen, wann und wo freie
Prozessorkapazität vorhanden ist, falls ein Problem mit einem Host
auftritt oder ein Rechner zu Wartungszwecken abgeschaltet werden muss.

Paul Mew, technischer Direktor des IT-Dienstanbieters Ramsac,
erklärt, dass es für eine Organisation mit einem erhöhten Risiko
einhergeht, die Anzahl ihrer Server von 10 auf 2 Geräte zu
konsolidieren, auf denen jeweils 5 VMs ausgeführt werden, wenn dann ein
Hardwarefehler auftritt.

„Da man statt zehn Pferden nur noch zwei im Rennen hat, muss man
versuchen, die Hälfte der eigenen Infrastruktur auf einmal zu reparieren
anstatt nur einen einzelnen Server“, sagt er.

Problematisch kann es auch dann werden, wenn man im Nachhinein
zum Finanzleiter gehen und aufgrund von mangelnder Vorausschau um mehr
Geld bitten muss, weil die IT-Abteilung mit der Virtualisierung der
Umgebung begonnen hat, aber die Kosten des Umstiegs auf oder der
Erweiterung von Shared Storage nicht berücksichtigt wurden.

Beim Kauf eines SAN ist es außerdem wichtig, die
Hardwarekompatiblitätslisten der Softwareanbieter zu überprüfen. Nicht
alle Komponenten der Anbieter von Speichergeräten sind für
virtualisierte Umgebungen zugelassen, was später zu Problemen führen
kann.

Leistungslast

Es ist ebenso wichtig, über die Größenbemessung der
Speicherinfrastruktur im Verhältnis zur Leistungslast nachzudenken. Nach
der Virtualisierung der Server laufen die Anwendungen bei einigen
Unternehmen eher langsamer. Dieser Geschwindigkeitsverlust kommt daher,
dass die physikalischen Laufwerke in einem SAN nur eine bestimmte Anzahl
E/A-Anfragen pro Sekunde verarbeiten können, VMs häufig aber so viele
Anfragen erzeugen, dass die Laufwerke nicht immer mithalten können.

Zur Umgehung dieses Problems können Tools zur Belastungsanalyse
und Planung wie Platespin von Novell verwendet werden. Mit ihrer Hilfe
wird ein Nutzungsprofil erstellt, wie vorhandene physikalische Server
Speicher, Laufwerke, Prozessoren und Netzwerkbandbreite verwenden. Damit
lässt sich abschätzen, welche Kapazität wahrscheinlich in einer
virtualisierten Umgebung erforderlich ist.

Doch eine solche Planung ist auch für das Speichervolumen
entscheidend – oder die Bereiche im SAN, in denen die Daten gespeichert
werden. Wenn mehrere VMs mit großer Last arbeiten und alle versuchen,
auf denselben Datenträger zuzugreifen, wird die Leistung unweigerlich
beeinträchtigt. Es ist daher notwendig, dass jeder Datenträger von einer
Mischung aus VMs mit hoher und leichter Last angesprochen wird, um ein
Gleichgewicht zu sichern.

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Sechs Faktoren zur Abwägung von Virtualisierungsprojekten

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *