Virtualisierung verändert auch die Infrastruktur in Rechenzentren

Flache Hierarchien sind sicher keine hinreichende, aber doch eine notwendige Bedingung für Erfolg. Das gilt sowohl in der Unternehmensorganisation als auch in der IT-Infrastruktur, denn eine Reduzierung der Hierarchieebenen vermindert zwangsläufig die für Abstimmungen notwendigen Kommunikationsprozesse. Durch die geringeren Latenzzeiten werden die Entscheidungen beschleunigt und durch die kürzeren Wege wird die Qualität der Ergebnisse verbessert.

Flache Netzhierarchien sind überfällig. Durch Technologien wie Virtualisierung und durch die Architektur von Webanwendungen sind unter anderem die Lastspitzen nicht mehr so einfach wie früher abzuschätzen. Um hier auf der sicheren Seite zu sein, wird von den RZ-Verantwortlichen ständig die Zahl der Server und Speicher erhöht. Die Datenvolumina nehmen ohnehin kräftig zu. Bis jetzt liefen diese Entwicklungen, die nicht zuletzt auch durch IT-Dienstleistungskonzepte wie Cloud Computing, gefördert werden, auf den traditionellen Netzwerk-Infrastrukturen. Die Folge war eine immer größere Zahl von Hierarchieebenen und eine exponentiell ansteigende Kommunikationsinfrastruktur zur Steuerung dieses komplexen Gebildes.

„Bis zu 50 Prozent aller Ports in den heutigen Rechenzentren – und typischerweise gerade die teuersten – werden nicht benutzt, um Server oder Speicher mit Nutzern oder Nutzer mit anderen Nutzern zu verbinden, sondern sie dienen allein der Verbindung der Switches untereinander“, heißt es in einem White Paper des Netzwerkspezialisten Juniper (PDF). Entstanden seien dadurch komplexe Baumstrukturen für den Netzzugang, die Aggregation von Daten und die Verbindung der unterschiedlichen Ressourcen.

Letztlich sind solche komplexen Netze immens teuer und kaum noch sinnvoll zu managen. Dazu kommt ein hoher Energieverbrauch, der sich durch solche nicht mehr zeit- und funktionsgemäß dimensionierte Systeme ergibt.

Nanoelektronik für Network Fabrics

Die Lösung liegt wie auch anderswo in der IT in der Virtualisierung, mit der die heutige 3-Tier-Architektur abgeflacht und idealer Weise in eine eindimensionale Architektur verwandelt wird. Diese flache Architektur entsteht durch die Kombination mehrerer physischer 10-Gigabit-Switches zu einem logischen Super-Switch. Technologischer Vorreiter solcher „Network Fabrics“ war Juniper Networks mit seiner QFabric-Reihe. Mittlerweile sind viele andere gefolgt, so Cisco mit seinem FabricPath, Avaya mit Virtual Enterprise Network Architecture (VENA), Brocade mit dem Virtual Clustering Switch (VCS) und kürzlich auch Alcatel-Lucent mit der Mesh Architecture. Letztere kommt übrigens ganz ohne Core-Switch aus, indem sie direkte Server-Server-Verbindungen implementiert hat.

Mittlerweile wird die Daten-Aggregierung im Rechenzentrum noch weiter getrieben, indem die Network Fabrics mit Data Fabrics und Storage Fabrics zu sogenannten DataCenterBridging-Einheiten zusammengefasst werden. Diese werden zuweilen auch als Converged Enhanced Ethernet (CEE) bezeichnet.

Mit den Network Fabrics zieht eine neue Netzwerktechnologie in die Rechenzentren ein. Möglich wird das durch die immer kleineren Strukturen in der Mikroelektronik. Mittlerweile ist man im Größenbereich von 30 bis 40 Nanometern. Firmen wie Fulcrum und Broadcom bieten superschnelle Controller-Chips in 40-Nanometer-Technologie an, auf deren Basis 10-Gigabit-Switches gebaut werden können, die Latenzzeiten von einer Mikrosekunde aufweisen. In den Network Fabrics werden einerseits eigen entwickelte ASIC-Bausteine, andererseits aber auch immer mehr handelsübliche Controller-Entwicklungen wie der Trident-Chipsatz von Broadcom oder die FocalPoint Ethernet Switch Chips der Intel-Tochter Fulcrum eingesetzt.

Cloud-Computing als Nutznießer

Die Idee der Network- Fabrics beziehungsweise des DataCenterBridging (DCB) stellt die gesamte bisherige Switching-Technologie zur Disposition. Die positiven Folgen sind eine deutliche Verminderung des Energieverbrauchs und weniger Kosten. Was nun tatsächlich in Euro und Cent eingespart werden kann, hängt sicher vom Einzelfall ab. Verlässliche Zahlen liegen hier erst vor, wenn die Umsetzung in den Rechenzentren auf breiter Front begonnen hat. So viel kann man aber schon sagen: die neue IT-Rechenzentrums-Infrastruktur macht Cloud-Computing-Angebote erheblich einfacher und sicherer und zuweilen wohl auch erst möglich. Und ein letzter Punkt ist auch sehr wichtig: wo die gesamte RZ-Infrastruktur zur Disposition gestellt ist, da muss auch die IT-Sicherheitslage neu diskutiert werden.

ZDNet.de Redaktion

Recent Posts

Salesforce: Mit Einstein GPT zurück auf die Überholspur?

Salesforce forciert den Ausbau seiner Industry Clouds. Mit ihrem Prozesswissen könnten deutsche IT-Dienstleister davon profitieren.

8 Stunden ago

Neue Backdoor: Bedrohung durch Malvertising-Kampagne mit MadMxShell

Bisher unbekannter Bedrohungsakteur versucht über gefälschte IP Scanner Software-Domänen Zugriff auf IT-Umgebungen zu erlangen.

2 Tagen ago

BSI-Studie: Wie KI die Bedrohungslandschaft verändert

Der Bericht zeigt bereits nutzbare Angriffsanwendungen und bewertet die Risiken, die davon ausgehen.

2 Tagen ago

KI-Wandel: Welche Berufe sich am stärksten verändern

Deutsche sehen Finanzwesen und IT im Zentrum der KI-Transformation. Justiz und Militär hingegen werden deutlich…

2 Tagen ago

Wie ein Unternehmen, das Sie noch nicht kennen, eine Revolution in der Cloud-Speicherung anführt

Cubbit ist das weltweit erste Unternehmen, das Cloud-Objektspeicher anbietet. Es wurde 2016 gegründet und bedient…

3 Tagen ago

Dirty Stream: Microsoft entdeckt neuartige Angriffe auf Android-Apps

Unbefugte können Schadcode einschleusen und ausführen. Auslöser ist eine fehlerhafte Implementierung einer Android-Funktion.

3 Tagen ago