Sechs Faktoren zur Abwägung von Virtualisierungsprojekten

Die
ersten Gedanken im Hinblick auf die Infrastruktur gehen dahin, ob die
Server der Organisationen überhaupt fähig sind, eine Virtualisierung zu
unterstützen oder ob sie durch neuere Anlagen ersetzt werden müssen.

Die x86-Prozessoren von Servern, die älter als drei oder vier
Jahre sind, werden weder die Virtualisierungserweiterungen von Intel
noch von AMD unterstützen, die dem Hypervisor erlauben würden, nicht
modifizierte Versionen der Host-Betriebssysteme ohne spürbaren
Leistungsaufwand auszuführen.

Nicht alle Prozessoren von Intel oder AMD unterstützen eine
solche Technologie: ein Faktor, der bei Neuanschaffungen stets
berücksichtigt werden sollte. Ältere Geräte können zudem über
E/A-Engpässe verfügen, die die Leistung wiederum negativ beeinflussen
können.

Wenn zusätzlich auch noch weitere Funktionalität eingeführt
werden soll, z. B. VMotion von VMware, womit die Migration der
Arbeitslast zwischen unterschiedlichen Hosts für eine bessere
Verfügbarkeit ermöglicht wird, müssen die Server mit Chipsätzen
desselben Herstellers arbeiten, oder die Technologie funktioniert nicht.

Einfluss auf die Bandbreite

Eine weitere Überlegung gilt dem Netzwerk. Die meisten
Virtualisierungsprojekte umfassen eine Zentralisierung der
IT-Infrastruktur zurück in das Rechenzentrum. Ein solcher Schritt kann
jedoch auch Auswirkungen auf die Bandbreite haben, insbesondere auf
WAN-Ebene, wenn entfernte Büros beteiligt sind.

Laut Adrian Polley, Chief Executive des IT-Dienstanbieters
Plan-Net, kann Virtualisierung auch aus Benutzersicht eine Veränderung
bedeuten. „Wenn Benutzer daran gewöhnt sind, über ein Gigabit
Ethernet-Netzwerk auf Anwendungen zuzugreifen und dann nur noch eine
100 Mb/s-Breitbandverbindung bekommen, werden sie den Unterschied
bemerken und nicht gerade glücklich darüber sein. Daher muss sorgfältig
geplant werden, wie man damit umgeht“, sagt er.

Eine Möglichkeit ist, eine WAN-Beschleunigungstechnologie für
einen schnelleren Datentransfer einzuführen, oder auch Thin
Client-Rechner einzusetzen, die für einen Betrieb über Netzwerke mit
niedriger Bandbreite ausgelegt sind.

„Bei der Planung von Systemen müssen Sie sich über die möglichen
Auswirkungen im Klaren sein, da sonst unter Umständen die gesamte
Infrastruktur geändert werden muss“, sagt Polley.

Page: 1 2 3 4 5 6 7

ZDNet.de Redaktion

Recent Posts

Chips bescheren Samsung deutlichen Gewinnzuwachs

Das operative Ergebnis wächst um fast 6 Billionen Won auf 6,64 Billionen Won. Die Gewinne…

5 Tagen ago

Chrome: Google verschiebt das Aus für Drittanbietercookies

Ab Werk blockiert Chrome Cookies von Dritten nun frühestens ab Anfang 2025. Unter anderem gibt…

6 Tagen ago

BAUMLINK: Wir sind Partner und Aussteller bei der Frankfurt Tech Show 2024

Die Vorfreude steigt, denn BAUMLINK wird als Partner und Aussteller bei der Tech Show 2024…

6 Tagen ago

Business GPT: Generative KI für den Unternehmenseinsatz

Nutzung einer unternehmenseigenen GPT-Umgebung für sicheren und datenschutzkonformen Zugriff.

6 Tagen ago

Alphabet übertrifft die Erwartungen im ersten Quartal

Der Umsatz steigt um 15 Prozent, der Nettogewinn um 57 Prozent. Im nachbörslichen Handel kassiert…

1 Woche ago

Microsoft steigert Umsatz und Gewinn im dritten Fiskalquartal

Aus 61,9 Milliarden Dollar generiert das Unternehmen einen Nettoprofit von 21,9 Milliarden Dollar. Das größte…

1 Woche ago