Container haben sich in jüngster Zeit für viele IT-Abteilungen zum Mittel der Wahl entwickelt. Container sind von Natur aus dynamisch, flexibel und lassen sich schnell erstellen und ausführen. Die Infrastruktur ist dabei entscheidend für die Frage, ob sich diese Vorteile tatsächlich in der Praxis realisieren lassen. In den meisten Fällen wird diese Infrastruktur Ressourcen in verschiedenen Public Clouds mit denen im eigenen Rechenzentrum kombinieren. Unternehmen müssen dabei darauf achten, die Kapazitäten zwischen den privaten und öffentlichen Teilen dieser hybriden Umgebung auszubalancieren, wenn sie ein auch nur annähernd nahtloses Erlebnis erzielen wollen.
Heute sieht die Realität so aus, dass die meisten Unternehmen erhebliche Investitionen in die umgebungsspezifische Automatisierung ihrer großen containerisierten Umgebungen tätigen. Zudem führen geografisch unterschiedliche Container-Locations zu Unterschieden in den Netzwerkfunktionen (einschließlich Leistung) und Sicherheitskonfigurationen (z. B. Virtual Private Cloud (VPC-Einstellungen)). Jeder, der versucht, eine dynamische Containerumgebung für Anwendungen in hybriden Clouds aufzubauen, muss solche Anpassungen einplanen.
Es gibt zwei wesentliche Ansätze diese nicht vermeidbare Variabilität zu adressieren:
Die Übernahme von Upstream-Standards, die sich großer Zustimmung der Community erfreuen, wie das Container Storage Interface (CSI) für die Speicherung. Es kann jedoch lange dauern, bis sich ein entsprechender Community-Konsens für eine gewünschte Funktion gefunden hat. Das führt dazu, dass Benutzer entweder häufige Anpassungen akzeptieren oder zu proprietären Erweiterungen greifen.
Die Festlegung auf eine einzige Container-Laufzeitumgebung, die mit minimalen Investitionen in allen genutzten Umgebungen wie AWS EKS oder Google Anthos gut ausgeführt werden kann. Diese Variante ist allerdings kostspielig und bindet das Unternehmen stark an den Anbieter der Laufzeitumgebung, Stichwort „Vendor Lock-in“.
Für Unternehmen ist wichtig, die allgemeinen Vor- und Nachteile von in der Public Cloud gehosteten Ressourcen im Vergleich zu den private Clouds im eigenen Rechenzentrum zu berücksichtigen. Public-Cloud-Dienste, insbesondere PaaS-Angebote, geben die Kontrolle (und das Risiko) vom Benutzer an den Cloud-Anbieter ab, was sich die Anbieter sehr gut bezahlen lassen (auch wenn die anfänglichen eher geringen Kosten im Allgemeinen niedriger sind als beim Aufbau einer Infrastruktur im eigenen Rechenzentrum). Ressourcen im eigenen Rechenzentrum erfordern Investitionen in den Betrieb und die Wartung, aber die Kosten sind aufgrund der Skalierungseffekte im Allgemeinen deutlich geringer.
Es stimmt, dass Container „stateless“ konzipiert sind. Es wäre aber ein Trugschluss anzunehmen, dass ihr Einsatz im Unternehmen darum keine entsprechend leistungsfähige Storage-Infrastruktur benötigt. Typische Unternehmensanwendungen erfordern fast immer, dass ihr Zustand irgendwo gespeichert ist, auch wenn sie in einem Container laufen. Unternehmen sollten diesen Aspekt nicht unterschätzen, denn die große Flexibilität, die der Einsatz von Containern bietet, kann zu einer sehr großen Anzahl von Containern führen, die Zugriff auf den Speicher benötigen. Ein Unternehmen, das über eine Speicherlösung verfügt, die dafür nicht ausgelegt ist, kann unter starker Belastung, Engpässen und langsamen Ladezeit von Anwendungen und hohen Antwortzeiten leiden. Daher benötigen Container Speicherlösungen, die auf intelligente Weise die Nutzung der Speichermedien optimieren und eine außergewöhnlich hohe Performance und Zuverlässigkeit bieten.
Eine Speicherlösung, die den Einsatz von Containern optimal unterstützt, muss zudem umfassende Automatisierungsfunktionen bieten, die den Entwicklern die nötige Unabhängigkeit bei der Zuweisung, Nutzung und Löschung von Umgebungen sowie einen einfachen Datenzugriff und Datenaustausch zwischen Containern ermöglichen. Herkömmliche Speicherlösungen sind oft Schicht für Schicht aufgebaut und die API unterstützt die Integration nicht vollständig, was eine spezifische Entwicklung erfordert, die nicht immer eine Lösung bietet und alles andere als einfach ist. Ein einfacher Datenzugriff und die Integration von Containern in das Storage System z.B. über CSI sind entscheidend, um die Vorteile von Containern zu nutzen.
Damit Container ihr Versprechen einer extrem flexiblen IT halten können, muss die zugrundeliegende Infrastruktur, das eigene Rechenzentrum ebenso wie die Cloud, für eine optimale Unterstützung sorgen. Das gilt für das Netzwerk ebenso wie für Sicherheitseinstellungen und nicht zuletzt für die eingesetzte Speichertechnologie. Gerade für die steigende Zahl von Anwendungen auf Basis von Microservices, die auf möglichst geringe Latenzzeiten angewiesen sind, ist eine hochleistungsfähige Speicherinfrastruktur, die auf beste Skalierbarkeit ausgelegt ist, unabdingbar.
Die digitale Welt verlangt immer mehr nach Lösungen, die nicht nur effizient und schnell sind,…
Es erlaubt das Einschleusen und Ausführen von beliebigem Code. Dem Entdecker der Chrome-Lücke zahlt Google…
Schwachstellen betreffen Linux-Umgebungen und können zur Ausführung von schädlichem Code führen.
Während der US-Markt um 5,6 Prozent wächst, bricht der Absatz in China um 10 Prozent…
Mit der wachsenden Verbreitung digitaler Technologien haben auch die Bedrohungen im Internet in den letzten…
Von fünf Zero-Day-Lücken werden zwei bereits von Hackern eingesetzt. Insgesamt bringt der Oktober-Patchday Fixes für…