Virtualisierung verändert auch die Infrastruktur in Rechenzentren

Flache Hierarchien sind sicher keine hinreichende, aber doch eine notwendige Bedingung für Erfolg. Das gilt sowohl in der Unternehmensorganisation als auch in der IT-Infrastruktur, denn eine Reduzierung der Hierarchieebenen vermindert zwangsläufig die für Abstimmungen notwendigen Kommunikationsprozesse. Durch die geringeren Latenzzeiten werden die Entscheidungen beschleunigt und durch die kürzeren Wege wird die Qualität der Ergebnisse verbessert.

Flache Netzhierarchien sind überfällig. Durch Technologien wie Virtualisierung und durch die Architektur von Webanwendungen sind unter anderem die Lastspitzen nicht mehr so einfach wie früher abzuschätzen. Um hier auf der sicheren Seite zu sein, wird von den RZ-Verantwortlichen ständig die Zahl der Server und Speicher erhöht. Die Datenvolumina nehmen ohnehin kräftig zu. Bis jetzt liefen diese Entwicklungen, die nicht zuletzt auch durch IT-Dienstleistungskonzepte wie Cloud Computing, gefördert werden, auf den traditionellen Netzwerk-Infrastrukturen. Die Folge war eine immer größere Zahl von Hierarchieebenen und eine exponentiell ansteigende Kommunikationsinfrastruktur zur Steuerung dieses komplexen Gebildes.

„Bis zu 50 Prozent aller Ports in den heutigen Rechenzentren – und typischerweise gerade die teuersten – werden nicht benutzt, um Server oder Speicher mit Nutzern oder Nutzer mit anderen Nutzern zu verbinden, sondern sie dienen allein der Verbindung der Switches untereinander“, heißt es in einem White Paper des Netzwerkspezialisten Juniper (PDF). Entstanden seien dadurch komplexe Baumstrukturen für den Netzzugang, die Aggregation von Daten und die Verbindung der unterschiedlichen Ressourcen.

Letztlich sind solche komplexen Netze immens teuer und kaum noch sinnvoll zu managen. Dazu kommt ein hoher Energieverbrauch, der sich durch solche nicht mehr zeit- und funktionsgemäß dimensionierte Systeme ergibt.

Nanoelektronik für Network Fabrics

Die Lösung liegt wie auch anderswo in der IT in der Virtualisierung, mit der die heutige 3-Tier-Architektur abgeflacht und idealer Weise in eine eindimensionale Architektur verwandelt wird. Diese flache Architektur entsteht durch die Kombination mehrerer physischer 10-Gigabit-Switches zu einem logischen Super-Switch. Technologischer Vorreiter solcher „Network Fabrics“ war Juniper Networks mit seiner QFabric-Reihe. Mittlerweile sind viele andere gefolgt, so Cisco mit seinem FabricPath, Avaya mit Virtual Enterprise Network Architecture (VENA), Brocade mit dem Virtual Clustering Switch (VCS) und kürzlich auch Alcatel-Lucent mit der Mesh Architecture. Letztere kommt übrigens ganz ohne Core-Switch aus, indem sie direkte Server-Server-Verbindungen implementiert hat.

Mittlerweile wird die Daten-Aggregierung im Rechenzentrum noch weiter getrieben, indem die Network Fabrics mit Data Fabrics und Storage Fabrics zu sogenannten DataCenterBridging-Einheiten zusammengefasst werden. Diese werden zuweilen auch als Converged Enhanced Ethernet (CEE) bezeichnet.

Mit den Network Fabrics zieht eine neue Netzwerktechnologie in die Rechenzentren ein. Möglich wird das durch die immer kleineren Strukturen in der Mikroelektronik. Mittlerweile ist man im Größenbereich von 30 bis 40 Nanometern. Firmen wie Fulcrum und Broadcom bieten superschnelle Controller-Chips in 40-Nanometer-Technologie an, auf deren Basis 10-Gigabit-Switches gebaut werden können, die Latenzzeiten von einer Mikrosekunde aufweisen. In den Network Fabrics werden einerseits eigen entwickelte ASIC-Bausteine, andererseits aber auch immer mehr handelsübliche Controller-Entwicklungen wie der Trident-Chipsatz von Broadcom oder die FocalPoint Ethernet Switch Chips der Intel-Tochter Fulcrum eingesetzt.

Cloud-Computing als Nutznießer

Die Idee der Network- Fabrics beziehungsweise des DataCenterBridging (DCB) stellt die gesamte bisherige Switching-Technologie zur Disposition. Die positiven Folgen sind eine deutliche Verminderung des Energieverbrauchs und weniger Kosten. Was nun tatsächlich in Euro und Cent eingespart werden kann, hängt sicher vom Einzelfall ab. Verlässliche Zahlen liegen hier erst vor, wenn die Umsetzung in den Rechenzentren auf breiter Front begonnen hat. So viel kann man aber schon sagen: die neue IT-Rechenzentrums-Infrastruktur macht Cloud-Computing-Angebote erheblich einfacher und sicherer und zuweilen wohl auch erst möglich. Und ein letzter Punkt ist auch sehr wichtig: wo die gesamte RZ-Infrastruktur zur Disposition gestellt ist, da muss auch die IT-Sicherheitslage neu diskutiert werden.

ZDNet.de Redaktion

Recent Posts

Gefahren im Foxit PDF-Reader

Check Point warnt vor offener Schwachstelle, die derzeit von Hackern für Phishing ausgenutzt wird.

2 Tagen ago

Bitdefender entdeckt Sicherheitslücken in Überwachungskameras

Video-Babyphones sind ebenfalls betroffen. Cyberkriminelle nehmen vermehrt IoT-Hardware ins Visier.

2 Tagen ago

Top-Malware in Deutschland: CloudEye zurück an der Spitze

Der Downloader hat hierzulande im April einen Anteil von 18,58 Prozent. Im Bereich Ransomware ist…

2 Tagen ago

Podcast: „Die Zero Trust-Architektur ist gekommen, um zu bleiben“

Unternehmen greifen von überall aus auf die Cloud und Applikationen zu. Dementsprechend reicht das Burg-Prinzip…

2 Tagen ago

Google schließt weitere Zero-Day-Lücke in Chrome

Hacker nutzen eine jetzt gepatchte Schwachstelle im Google-Browser bereits aktiv aus. Die neue Chrome-Version stopft…

2 Tagen ago

Hacker greifen Zero-Day-Lücke in Windows mit Banking-Trojaner QakBot an

Microsoft bietet seit Anfang der Woche einen Patch für die Lücke. Kaspersky-Forscher gehen davon aus,…

2 Tagen ago