Sechs Faktoren zur Abwägung von Virtualisierungsprojekten

Die größte Schwierigkeit beim Wechsel hin zu einer
Virtualisierungsinfrastruktur betrifft den Speicher.

Obwohl es Unternehmen weiterhin möglich sein wird, direkt
angeschlossene Massenspeicher als kleine Entwicklungs- und
Testumgebungen zu nutzen, wird dieser Ansatz umso ungeeigneter, je
größer eine virtualisierte Produktionsumgebung wird.

Dies gilt besonders bei solchen Unternehmen, die Programme wie
VMotion einsetzen möchten, durch das die Migration der Arbeitslasten
zwischen unterschiedlichen Hosts für eine höhere Verfügbarkeit
ermöglicht wird.

Stattdessen kann ein Wechsel zu Shared Storage erforderlich
werden, wobei die Storage-Attached Network (SAN)-Technologie in diesem
Zusammenhang am häufigsten verwendet wird. Eine solche Technologie ist
teuer aber wichtig, weil virtuelle Maschinen (VMs) als Disk-Images im
SAN gespeichert werden.

Zusätzlich muss jeder physikalische Server im Netzwerk das
Disk-Image jeder VM erkennen können, um zu wissen, wann und wo freie
Prozessorkapazität vorhanden ist, falls ein Problem mit einem Host
auftritt oder ein Rechner zu Wartungszwecken abgeschaltet werden muss.

Paul Mew, technischer Direktor des IT-Dienstanbieters Ramsac,
erklärt, dass es für eine Organisation mit einem erhöhten Risiko
einhergeht, die Anzahl ihrer Server von 10 auf 2 Geräte zu
konsolidieren, auf denen jeweils 5 VMs ausgeführt werden, wenn dann ein
Hardwarefehler auftritt.

„Da man statt zehn Pferden nur noch zwei im Rennen hat, muss man
versuchen, die Hälfte der eigenen Infrastruktur auf einmal zu reparieren
anstatt nur einen einzelnen Server“, sagt er.

Problematisch kann es auch dann werden, wenn man im Nachhinein
zum Finanzleiter gehen und aufgrund von mangelnder Vorausschau um mehr
Geld bitten muss, weil die IT-Abteilung mit der Virtualisierung der
Umgebung begonnen hat, aber die Kosten des Umstiegs auf oder der
Erweiterung von Shared Storage nicht berücksichtigt wurden.

Beim Kauf eines SAN ist es außerdem wichtig, die
Hardwarekompatiblitätslisten der Softwareanbieter zu überprüfen. Nicht
alle Komponenten der Anbieter von Speichergeräten sind für
virtualisierte Umgebungen zugelassen, was später zu Problemen führen
kann.

Leistungslast

Es ist ebenso wichtig, über die Größenbemessung der
Speicherinfrastruktur im Verhältnis zur Leistungslast nachzudenken. Nach
der Virtualisierung der Server laufen die Anwendungen bei einigen
Unternehmen eher langsamer. Dieser Geschwindigkeitsverlust kommt daher,
dass die physikalischen Laufwerke in einem SAN nur eine bestimmte Anzahl
E/A-Anfragen pro Sekunde verarbeiten können, VMs häufig aber so viele
Anfragen erzeugen, dass die Laufwerke nicht immer mithalten können.

Zur Umgehung dieses Problems können Tools zur Belastungsanalyse
und Planung wie Platespin von Novell verwendet werden. Mit ihrer Hilfe
wird ein Nutzungsprofil erstellt, wie vorhandene physikalische Server
Speicher, Laufwerke, Prozessoren und Netzwerkbandbreite verwenden. Damit
lässt sich abschätzen, welche Kapazität wahrscheinlich in einer
virtualisierten Umgebung erforderlich ist.

Doch eine solche Planung ist auch für das Speichervolumen
entscheidend – oder die Bereiche im SAN, in denen die Daten gespeichert
werden. Wenn mehrere VMs mit großer Last arbeiten und alle versuchen,
auf denselben Datenträger zuzugreifen, wird die Leistung unweigerlich
beeinträchtigt. Es ist daher notwendig, dass jeder Datenträger von einer
Mischung aus VMs mit hoher und leichter Last angesprochen wird, um ein
Gleichgewicht zu sichern.

Page: 1 2 3 4 5 6 7

ZDNet.de Redaktion

Recent Posts

EU-Datenschützer kritisieren Facebooks „Zustimmung oder Bezahlung“-Modell

Ohne eine kostenlose Alternative, die ohne Zustimmung zur Verarbeitung personenbezogener Daten zu Werbezwecken auskommt, ist…

1 Woche ago

Europol meldet Zerschlagung der Phishing-as-a-Service-Plattform LabHost

LabHost gilt als einer der größten Phishing-Dienstleister weltweit. Die Ermittler verhaften 37 Verdächtige, darunter der…

1 Woche ago

DE-CIX Frankfurt bricht Schallmauer von 17 Terabit Datendurchsatz pro Sekunde

Neuer Datendurchsatz-Rekord an Europas größtem Internetknoten parallel zum Champions-League-Viertelfinale.

1 Woche ago

Samsungs neuer LPDDR5X-DRAM erreicht 10,7 Gbit/s

Die neuen Chips bieten bis zu 25 Prozent mehr Leistung. Samsung steigert auch die Energieeffizienz…

1 Woche ago

Cisco warnt vor massenhaften Brute-Force-Angriffen auf VPNs

Betroffen sind Lösungen von Cisco, Fortinet, SonicWall und anderen Anbietern. Die Hacker nehmen Konten mit…

1 Woche ago

Cybersicherheit in KMUs: Es herrscht oft Aufholbedarf

Immer häufiger müssen sich Betriebe gegen Online-Gefahren wehren. Vor allem in KMUs werden oft noch…

1 Woche ago