Wie sich Big Data und SDN gegenseitig unterstützen

Der Wunsch vieler Unternehmen, datenzentrische Geschäftsmodelle zumindest zu erproben oder projektbezogen einzuführen und somit Big Data in irgendeiner Form zu nutzen, setzt eine IT-Infrastruktur voraus, die den damit einhergehenden Anforderungen auch gerecht werden kann. Der Beitrag eines SDN (Software-defined Network) erweist sich dabei als besonders wertvoll: Damit ist es möglich, mit dem Datenverkehr flexibler umzugehen, ihn laufend neu zu gestalten und einigen Ärger zu vermeiden, indem immer die bestmögliche Netzwerkperformance garantiert wird. Umgekehrt trägt Big Data in Kombination mit Analytics seinen Teil zum Funktionieren und Erfolg von SDN und „on demand“-Angeboten der Telekommunikationsunternehmen bei.

Die Nutzung von Big Data in Unternehmen und öffentlichen Einrichtungen, darunter auch Universitäten und Forschungsinstituten, nimmt kontinuierlich zu. IDC prognostiziert für 2020 einen Umsatz von über 200 Milliarden Dollar für Big Data & Business Analytics (BDA). 2016 lag der von den Marktforschern ermittelte, weltweite Umsatz in dem Segment bei gut 130,1 Milliarden Dollar.

Cisco hat festgestellt, dass zwar immer mehr Unternehmen sich über die Vorteile der Analyse ihrer Daten klar werden, aber gleichzeitig darauf hingewiesen, dass sie sich dabei stark auf diverse Anwendungen in der Cloud verlassen und dabei von diesen auch bereits in hohem Grade abhängig sind. Um das sich daraus ergebende Problem zu erkennen, muss man kein Netzwerkexperte sein: Das öffentliche Internet droht schnell an seine Grenzen zu stoßen.

Big-Data-Konzepte zu nutzen, etwa in Form einer Apache-Hadoop-Plattform, bringt enorme Anforderungen an das Netzwerk mit sich. Denn in aller Regel hat die Verarbeitung einer Aufgabe in Hadoop einen direkten Einfluss auf eine für das Geschäft wichtige Anwendung. Oder anders gesagt: Die Analyse umfangreicher Datenbestände lohnt sich oft nur, wenn sie dazu dient, anwendbare Erkenntnisse daraus unmittelbar oder zumindest nach sehr kurzer Zeit nutzen zu können.

Whitepaper

SAP S/4HANA trifft ECM: Was Sie für eine erfolgreiche Migrationsstrategie beachten sollten

Ceyoniq beleutet in diesem Whitepaper anhand von sechs Thesen die wichtigsten Aspekte zum Thema und gibt Tipps für eine erfolgreiche Migrationsstrategie.

Niemand will auf die Frage nach dem günstigsten Flug von A nach B über C, die Frage, ob das Verhalten eines mobilen Clients im Netzwerk gerade der normalen Nutzung entspricht oder verdächtig ist oder die Frage, ob es möglich ist, von einem mit Radiowerbung beworbenen Aktionsprodukt die voraussichtlich benötige Anzahl in den Filialen vorrätig zu haben, bis morgen warten.

Die Antwort soll am besten sofort, mindestens aber innerhalb einer Minute zur Verfügung stehen. Denn schließlich erscheint sie dem Nutzer nicht komplizierter als die Anfrage bei einer Web-Suche – dass anders als bei der, nicht eine im Vorfeld erstellte Liste ausgegeben wird, sondern komplexe, möglicherweise so nur einmal überhaupt erforderliche Abfragen und Berechnungen im Hintergrund ablaufen, spielt für die Anwender dabei keine Rolle.

Im Falle von Hadoop ist es zum Beispiel unumgänglich, über Werkzeuge zu verfügen, die eine Performance-Analyse ermöglichen und bei der Fehlerbehebung helfen, um etwa Datenkonflikte oder Datenstaus zu beseitigen oder Probleme mit der virtualisierten Infrastruktur, etwa die virtuellen Ports zu konfigurieren oder die Namen der Netzwerkknoten und deren Rolle zu verwalten.

Big Data setzt Kontrolle über den Datenverkehr voraus

Außerdem ist eine umfassende Kontrolle über den Datenverkehr auf den primären und sekundären Verbindungen erforderlich, damit das HDFS (Hadoop Distributed File System) funktioniert. Damit das wirtschaftlich möglich ist, wird wiederum eine dynamische und intelligente Zuweisung der Bandbreite vorausgesetzt. Und auch dabei muss es möglich sein, die bei der Zusammenführung der Ergebnisse des Analyseprozesses möglicherweise auftretenden Flaschenhälse zu identifizieren und zu beheben.

Wer ein Big-Data-Projekt auf Basis eines SDN angehen will, muss also sicher sein, dass er über eine zuverlässige Netzwerkinfrastruktur mit hohen Bandbreiten verfügt. Dazu kommt als zusätzliche Anforderung dann noch, dass sich Probleme damit unmittelbar beheben lassen die Administratoren jederzeit den Datenfluss optimieren und an die sich wechselnden Anforderungen anpassen können.

Das Colt IQ Network in Europa (Screnshot: ZDNet.de)

Solche Netzwerke in Eigenregie aufzubauen ist teuer, aufwändig und langwierig. Außerdem stellt sich für die meisten Firmen wahrscheinlich die Frage, ob sie sich damit überhaupt auseinandersetzen sollten, wenn der Netzbetrieb nicht ihr Kerngeschäft ist. Dann bietet es sich an, auf einen Dienstleister zu setzen, der sich gezielt nur darum kümmert.

Einer davon ist Colt Technology Services mit seinem IQ Network. Darüber lassen sich bis Bandbreiten bis zu 100 GBit/s einrichten, wodurch sich die Risiken in Bezug auf mangelnde Bandbreite schon einmal minimieren. Neben Unternehmen aus dem Finanzwesen, insbesondere solchen, die Konformität zu Regelwerken wie MiFID II oder FRTB nachweisen müssen, profitieren davon auch Firmen, die bei der Nutzung der Daten verteilter Objekte im Rahmen von IoT-Projekten mit Big-Data-Komponenten bereits weit fortgeschritten sind, oder die diesbezüglich ambitionierte Pläne haben.

Die Netzbetreiber arbeiten aber auch daran, Vorteile von SDN auf aus ihrer Sicht weniger komplexe und fordernde Infrastrukturen anzuwenden. Dazu gehören etwa Ethernet-Verbindungen zwischen Rechenzentren und zu Public-Cloud-Services bei Azure (Microsoft) und AWS (Amazon), also dorthin, wo die Verarbeitung von Big Data rasch zunimmt. Auch hier bieten Netzwerkservices, die „on demand“ abgerufen oder umkonfiguriert werden können, viel Flexibilität und enorme Vorteile

Der Beitrag von Big Data zu SDN

Umgekehrt spielen bei der Konzeption des Backbone für die Telekommunikationsdienste Predictive Analytics und die Auswertung von Metadaten, die mithilfe von Big Data gewonnen werden, eine immer größere Rolle. Sie helfen den Betreibern in einem bisher nicht gekannten Umfang bei der Anpassung und Steuerung ihrer Dienste.

Insbesondere hilft Big Data bei SDN den Traffic zu steuern, die Kommunikation zwischen den einzelnen Services und den Schichten von Services zu optimieren. Aber auch für Cyber-Security oder die Vernetzung von Rechenzentren – sei es innerhalb eines SDN oder über mehrere SDN hinweg – ist Big Data als Hilfsinstrument unverzichtbar.

Alle SDN-Plattformen bauen auf NFV (Network functions virtualization) auf. Die sind dafür gedacht, bislang von Menschen getroffene und umgesetzte Entscheidungen zu automatisieren und damit auch zu beschleunigen. Damit das nach Wunsch funktioniert, wird in großem Umfang auf APIs – programmierbare Schnittstellen – zurückgegriffen.

Der Grundgedanke dabei ist es, durch die Nutzung von Big Data zunächst einmal umfassende Daten über einmal getroffene Entscheidungen und deren Auswirkungen zu sammeln um Feedback-Schleifen zu entwickeln, die dann der Verbesserung der Plattform dienen. Dabei fließen auch Informationen darüber ein, welche Anforderungen die Kunden an die Konnektivität haben und wie sich diese bestmöglich erfüllen lassen.

Das ist schon keine Zukunftsmusik mehr: Kunden können sich bereits jetzt beim Service-Portal anmelden und Kapazitäten selbst an die Anforderungen unerwarteter Ereignisse anpassen. Wobei das nicht nur eine Bestellung im klassischen Sinne ist, sondern die Bereitstellung der gewünschten Kapazitäten innerhalb von Minuten erfolgen kann.

In einem SDN kann der Rückgriff auf Big Data und Data Analytics aber auch zu neuen Geschäfts- und Nutzungsmodellen führen. Unternehmen sind an flexibleren und weniger kostspieligen WAN- Services interessiert. Sie wollen nicht unbedingt eine bestimmte Kapazität für ein oder gar zwei Jahre buchen, wenn sie die zum Beispiel nur einmal im Monat oder während weniger Tage im Jahr benötigen.

In SDN-Umgebungen werden Dienste, die diesen Bedarf erfüllen, nahezu von selbst entstehen. Die Netzbetreiber können dazu auf Daten zurückgreifen, die sie über die Nutzung der Infrastruktur im laufenden Betrieb erhalten. Das können etwa Daten über die Bandbreite, die Performance und die Einhaltung von SLAs oder Charakteristiken der Anwendungen und die Einschätzung der Servicequalität durch den Nutzer sein. Damit ist dann der Weg frei, weg von einer mehr oder weniger umfangreichen aber fixen Preisliste hin zu adaptiv gestalteten.

Weitere Informationen zum Thema

Peter Marwan

Für ZDNet veröffentlicht Peter immer wieder Beiträge zum Thema IT Business.

Recent Posts

Windows 10: Microsoft erlaubt Umgehung von Update-Sperren

Der Oktober-Patchday bringt eine neue Gruppenrichtlinie. Mit ihr lassen sich die Sperren generell abschalten. In…

22 Stunden ago

Mozilla testet Seitenisolierung für Firefox

Der Browser führt künftig alle Tabs in einem eigenen Prozess aus. Das verbessert die Sicherheit…

23 Stunden ago

Intel erfüllt die Erwartungen im dritten Quartal

Umsatz und Gewinn schrumpfen jedoch im Vergleich zum Vorjahreszeitraum. Vor allem die Data Center Group…

24 Stunden ago

Huawei stellt Mate 40 Pro

Das neue Flaggschiff-Smartphone basiert auf dem hauseigenen Kirin-9000-Prozessor. Im Benchmark hängt dieser Qualcomms Snapdragon 865…

1 Tag ago

Hacker kontrollieren Windows-Trojaner per Telegram-Channel

T-RAT erhält per Telegram 98 unterschiedliche Befehle. Sie erlauben es der Malware, umfangreiche Daten zu…

1 Tag ago

WordPress verteilt Zwangs-Update für unsicheres Plug-in

Betroffen ist die Erweiterung Loginizer. Ein Angreifer kann unter Umständen eine WordPress-Website vollständig kompromittieren. Die…

2 Tagen ago