Wie Prozessautomatisierung bevorstehende Budgetkürzungen auffangen kann

Kaum ein Tag vergeht, an dem nicht Meldungen über IT-Incidents bekannt werden, die die Vertraulichkeit und Integrität von Kundendaten sowie die generelle Verfügbarkeit von Daten und Anwendungen beeinträchtigen oder gar negative Auswirkungen auf den Ruf einer Marke oder die Bilanz eines Unternehmens haben. Datenverstöße, Anwendungsfehler, Ausfälle von Websites, Rechenzentren oder Netzwerken und Verzögerung von Diensten treten mit alarmierender Regelmäßigkeit auf. Im Rahmen einer Umfrage von PagerDuty Anfang dieses Jahres gaben 65 Prozent der IT-Fach- und Führungskräfte an, ihr Unternehmen sei jeden Monat mit einem „großen Technologieproblem“ konfrontiert, 44 Prozent gaben an, das sei gar jede Woche der Fall.

Der finanzielle Schaden dieser Incidents ist beachtlich: 10 Prozent derer, die einen Incident beklagten, müssen nach Angaben des Uptime-Instituts einen Schaden von 1 Million Dollar oder mehr verbuchen. Und Datenverluste oder -verletzungen im Zuge von Cyberattacken sind noch kostenintensiver.

Weshalb haben IT-Vorfälle eine so starke Auswirkung auf Unternehmen? Im Zuge der Digitalisierung setzten Unternehmen bereits verstärkt auf Technologie, da die Infrastruktur zu Code wird und Service als Software bereitgestellt wird. Dies hat zwar zu mehr Business-Agilität geführt, bedeutet jedoch auch, dass Probleme innerhalb des Datenökosystems direkte Auswirkungen auf das operative Geschäft oder die Kundenbeziehungen und -transaktionen haben.

Pandemie beschleunigt Digitalisierung

Diese Zusammenhänge traten während der letzten Wochen und Monate noch deutlicher zutage. Parallel dazu stieg die Erkenntnis, dass die Digitalisierung und damit auch die Automatisierung von Anwendungen und Prozessen zukünftig einen weitaus höheren Stellenwert einnehmen muss, denn sie sind ausschlaggebend für den Geschäftserfolg und die Agilität eines Unternehmens. Gleichzeitig wurde klar, wie anfällig Unternehmen für IT-Incidents tatsächlich sind. Viele reagierten zunächst mit der Einführung von Systemen, die eine Zusammenarbeit auch dezentral ermöglichte: Home-Offices mussten in großer Zahl eingerichtet werden, das E-Learning und die Online-Medizin sollten reibungslos funktionieren und der Einzelhandel sah sich gezwungen, die E-Commerce-Dienste möglichst schnell zu verstärken, um die gestiegene Nachfrage und den damit verbundenen beispiellosen Anstieg des Datenverkehrs zu bewältigen.

Die wirtschaftlichen Folgen der Pandemie werden nun immer offensichtlicher, weshalb die Analystenhäuser Gartner und IDC starke Einsparungen bei den IT-Ausgaben prognostizieren. Diese plötzlichen Budgetkürzungen bedeuten für IT-Abteilungen, dass sie zukünftig mit weniger Personal-Ressourcen auskommen müssen.

Dabei stehen vor allem jene Mitarbeiter, die für das zuverlässige Funktionieren der Systeme zuständig sind, vor großen Herausforderungen. Denn die einwandfreie Funktion einer Anwendung im Zuge eines Swipe oder Clicks ist auf die Zuverlässigkeit eines komplexen IT-Ökosystems angewiesen, das aus Millionen von Codezeilen besteht und zudem mehrere Softwareanwendungen, Hybrid- und Multi-Cloud-Technologien, modernste IT-Infrastrukturen, Sicherheitsanwendungen und Vieles mehr umfasst.

Jetzt muss jedoch befürchtet werden, dass IT-Manager nur noch dann Ressourcen für IT-Projekte bereitstellen, wenn diese zur Verbesserung der betrieblichen Effizienz und zur Kostensenkung beitragen. Gleichzeitig planen 74 Prozent der Unternehmen einen Teil ihrer Mitarbeiter dauerhaft im Homeoffice ein, andere hingegen werden die Mitarbeiterzahl im nächsten halben Jahr voraussichtlich um bis zu 20 Prozent reduzieren.

Diese strukturellen Veränderungen bedeuten demnach, dass zukünftig zum einen weniger IT-Administratoren zur Verfügung stehen, um Systeme zu überwachen, zu warten und wiederherzustellen. Zum anderen müssen Mitarbeiter, die vorher in geschäftskritischen Systemen zentral zusammen arbeiteten, wie z.B. in den Bereichen DevOps, Sicherheit, Compliance, Regulierung und dem operativen Geschäft, zusätzlich neue Herausforderungen meistern, die durch die dezentralen und virtuellen Arbeitsplätze im Hinblick auf Kommunikation, Zusammenarbeit, Verfügbarkeit und Reaktionszeit entstehen.

Zudem verändert sich mit der kontinuierlichen Entwicklung des Technologie-Stacks auch die Zuständigkeit für das Response Management: Verantwortlich sind Teams und Personen, die sich über alle verfügbaren Technologielösungen und Unternehmensbereiche hinweg erstrecken und zudem dezentral verteilt sind. Dies erfordert ein flexibleres System und damit einen Ansatz, der aus isolierten Silos, Strukturen und Prozessen ausbricht und agil ist.

Die aktuelle Situation hat demnach ausreichend Potenzial, um sich zu einem ernsten Problem für Unternehmen zu entwickeln. Schließlich verfügen viele über ein komplexes Technologie-Ökosystem, das hohe Aufmerksamkeit und permanente Wachsamkeit erfordert – und das bei Reaktionszeiten innerhalb von wenigen Minuten oder Sekunden. Darüber hinaus müssen Krisenteams über ein hohes Maß an Koordinations-, Kommunikations- und Reaktionsfähigkeit verfügen, denn bei plötzlich auftretenden Remote-Eingriffen wird es wichtig, durch mehrere Kommunikationsmodi in Verbindung zu bleiben.

Die Chance liegt in einem höheren Automatisierungsgrad

Glücklicherweise geschieht diese Entwicklung vor dem Hintergrund einer bereits seit längerem in Angriff genommenen Verlagerung hin zu den Technologien und Praktiken von DevOps und der Anwendung von Maschinenintelligenz mit AIOps. Das daraus resultierende Gesamtpaket – eine Kombination aus intelligenter und automatisierter Reaktion auf Ereignisse/Incidents – bietet gute Chancen, die zu erwartenden Probleme besser in den Griff zu bekommen.

Ein guter Zeitpunkt also, den täglichen Aufwand im Bereich Sicherheit zu automatisieren. Ausgereifte Orchestrierungs-Plattformen, die Incidents präventiv in Echtzeit identifizieren, helfen den Teams, auch extrem hohe Anforderungen an das Response Management zu bewältigen. Dabei ist die Grundlage für ein intelligentes Response Management ein genau definierter Aktionsplan, der klar festlegt, wer, wann und wie auf Incidents reagieren muss. Der Plan sollte eine einheitliche und konsequente Serie von Arbeitsabläufen und Regeln definieren, die im Fall der Fälle abgearbeitet werden. Umfragen zeigen, dass diejenigen, die einen dokumentierten Response-Plan zur Bewältigung schwerwiegender IT-Incidents entwickelt hatten, viel besser vorbereitet waren und damit der ungeplante Arbeitsaufwand für Verstöße, Ausfälle und Systemverzögerungen um 16 Prozent reduziert wurde. In vielen Fällen konnten durch ein verbessertes Management sowie durch Konfigurationsprozesse sogar Ausfälle und Incidents ganz verhindert werden.

Laut einer aktuellen Studie von IBM setze bislang allerdings nur rund ein Viertel der Unternehmen auf einen konkreten Incident-Response-Plan. Demnach sind die meisten völlig unzureichend geschützt. Im Umkehrschluss heißt das, dass 75 Prozent spontan, inkonsistent und ohne Maßnahmenplan handeln. Die Studie zeigt auch, dass dort, wo eine Fülle von Sicherheits-Tools eingesetzt werden, Attacken schlechter entdeckt und langsamer behoben werden, als in Unternehmen, die mit einer übersichtlichen Anzahl an Tools operieren.

IT-Kontrolle impliziert Kontrolle über Unternehmensprozesse

Mit Standard-Workflows lassen sich bestimmte Bereiche wie Datenerfassung, Priorisierung, Konsolidierung von Vorfällen und die Zuweisung von Abhilfemaßnahmen sicher angehen.

Was Orchestrierungsplattformen zudem bieten können, ist eine anschauliche und detaillierte Visualisierung aller Ereignisse innerhalb eines IT-Ökosystems. Daraus lassen sich eindeutige Erkenntnisse in Echtzeit gewinnen. Und weil die Digitalisierung so immanent wichtig und geschäftsentscheidend geworden ist, ist damit nicht nur die Kontrolle über sämtliche IT-Vorgänge im Unternehmen gesichert, sondern auch über das gesamte Geschäft. Der Vorteil: Bei Bedarf kann schnell und zielgerichtet reagiert werden, denn Handlungsfähigkeit erhöht die Überlebensfähigkeit.

Das Geheimnis eines intelligenten Response Management ist also letztlich gar keines. Im Kern geht es um das Sammeln und Analysieren von Maschinendaten, damit Incidents in Echtzeit erkannt werden, automatische Benachrichtigungen und Warnmeldungen aktiviert und Analysen langfristig unterstützt werden.

Denn bei Digital Operations gibt es keinen Mangel an Daten – ganz im Gegenteil. Werden diese Daten jedoch nicht korrekt verwaltet, dann kann dies zur gefürchteten „Paralyse durch Analyse“ führen – genauer gesagt zu einer Flut von Warnmeldungen, Benachrichtigungen oder Fehlalarmen. Diese Daten dienen als Planungsgrundlage, zudem bieten sie die Möglichkeit, die verantwortlichen Personen zu benachrichtigen sowie Tools und Teams in komplexen Umgebungen zu koordinieren.

Fazit: Die Digitalisierung rückt die Technologie bereits seit Jahren in den Fokus der Unternehmen. Doch die aktuelle Pandemie-Situation und der Einbruch der weltweiten Wirtschaft hat neue Herausforderungen geschaffen: Es gilt mehr denn je sicherzustellen, dass die Technologie effizient und ohne Unterbrechung funktioniert. Eine Kombination aus intelligentem Response Management und Automatisierung kann die Belastung für eben jene IT-Teams verringern, von denen nun schlagartig erwartet wird, dass sie mit weniger Ressourcen mehr Effizienz erreichen, während gleichzeitig die Widerstandsfähigkeit von Unternehmen verbessert und der Kunde geschützt werden soll. Die Automatisierung von Aufgaben und die Orchestrierung von Prozessen sind heute gut investierte Projekte, um unter dem Druck plötzlicher Budgetkürzungen Einsparpotenziale zu realisieren.

Steve Barrett, Vice President EMEA bei PagerDuty (Bild: PagerDuty)

Steve Barrett ist Vice President EMEA bei PagerDuty und baut mit seinem Team das Europa-Geschäft weiter aus. Er verfügt über mehr als 20 Jahre Führungserfahrung im Bereich Enterprise Software und hatte bereits die Teamleitung in mehreren aufstrebenden Unternehmen inne. Vor seiner Tätigkeit bei PagerDuty war Steve Barrett Vice President bei Salesforce Commerce Cloud UK, davor verantwortete er den Direkt- und Channel-Vertrieb für Dell EMC und Bottomline Technologies.





ANZEIGE

Netzwerksicherheit und Netzwerkmonitoring in der neuen Normalität

Die Gigamon Visibility Platform ist der Katalysator für die schnelle und optimierte Bereitstellung des Datenverkehrs für Sicherheitstools, Netzwerkperformance- und Applikationsperformance-Monitoring. Erfahren Sie in diesem Webinar, wie Sie mit Gigamon-Lösungen die Effizienz ihrer Sicherheitsarchitektur steigern und Kosten einsparen können.

Kai Schmerer

Kai ist seit 2000 Mitglied der ZDNet-Redaktion, wo er zunächst den Bereich TechExpert leitete und 2005 zum Stellvertretenden Chefredakteur befördert wurde. Als Chefredakteur von ZDNet.de ist er seit 2008 tätig.

Recent Posts

Soundcore Life Q30: Kopfhörer mit Geräuschunterdrückung ausprobiert

Der Soundcore Life Q30 bietet für knapp 80 Euro 40-mm-Treiber mit Seidenmembranen. Die aktualisierte Soundcore-App…

54 Minuten ago

OpenStack Foundation wird zur Open Infrastructure Foundation

Die OpenStack Foundation erweitert ihren Fokus von der OpenStack Infrastructure as a Service (IaaS) Cloud…

6 Stunden ago

Facebook stellt M2-M100 vor

Facebook AI stellt M2M-100 vor, ein mehrsprachiges maschinelles Übersetzungsmodell (MMT), das beliebige Worte in 100…

6 Stunden ago

Microsoft installiert ungefragt Office

Microsoft hat mit einem Bug zu kämpfen: Windows 10 installiert verschiedene Office-Anwendungen in Form von…

9 Stunden ago

Gartner sieht „Internet of Behaviors“ am Horizont

Das Internet der Verhaltensweisen „Internet of Behaviors“ (IoB), Gesamterfahrungen, überall Operationen, Automatisierung und KI-Engineering gehören…

10 Stunden ago

Windows 10: DoH bei Build 20236 aktivieren

Die Verschlüsselung von DNS-Anfragen unterstützt Windows 10 in aktuellen Insider-Builds aus dem Kanal Developer. Die…

23 Stunden ago