Was hinter IBMs Initiative „Smarter Computing“ steckt

Der Kampf um Unternehmenskunden mit Rechenzentren hat sich nach der wirtschaftlichen Erholung deutlich verstärkt. Vor diesem Hintergrund werben die großen Player wie IBM, HP, Oracle, Cisco oder Dell mit neuen Kampagnen um diese Klientel.

Es geht um lukrative Aufträge, denn die Nachfrage nach Rechenkapazität steigt unaufhörlich, erklärte IBM auf der CeBIT. In den letzten drei Jahren sei die Menge digitaler Daten jährlich um über 60 Prozent gewachsen. Auch das Volumen der zu verwaltenden virtuellen Bilder nahm pro Jahr um mehr als 40 Prozent und die Verbreitung von Cloud Computing um über 30 Prozent zu. Doch gleichzeitig werden IT-Budgets noch immer als Mittel zur Kostensenkung betrachtet. So schrumpften die weltweiten IT-Budgets im selben Zeitraum durchschnittlich um 1,3 Prozent.

Um diesen IT-Widerspruch aufzulösen, verfolgen Anbieter wie IBM einen neuen Ansatz. Big Blue bezeichnet seinen nun offiziell als „Smarter Computing“. Vorläufer war ein „Dynamic Infrastructure“ genanntes Programm. Hauptkonkurrent Hewlett-Packard nannte seinen Ansatz früher „Adaptive Computing“ und vermarktet ihn heute als „Converged“.

Unterm Strich geht es dabei um effizientere und innovative Geschäftsprozesse in der IT. Sie sollen es ermöglichen, dass mehr Daten, mehr Workloads und mehr Leistung pro investiertem Geldbetrag verarbeitet werden können – und das in Bezug auf die Parameter Arbeitsaufwand, Stellfläche, Energiebedarf und Technologie. Eine innovative IT, so IBM-Manager Marc Fischer in Hannover, verwandelt Informationen mit Hilfe neuer Technologien in intelligente Services, welche für die Erschließung neuer Umsatzmöglichkeiten und Geschäftsmodelle sorgen sollen.

Rechenzentren sind heute virtuell

Vor dem Aufkommen geografisch verteilter Systeme (Distributed Systems) wurde die gesamte IT, damals noch EDV genannt, durch eine Handvoll hochspezialisierter technischer Experten zentral gemanagt (Mainframes). Doch in den letzten 30 Jahren hat sich die IT demokratisiert: Einzelne Nutzer konnten immer freier über IT-Technologien verfügen, die immer einfacher anzuwenden waren. Das wiederum führte dazu, dass mit der Zeit vielerorts jeder Anwender oder zumindest jede Abteilung über eigene IT-Ressourcen verfügte, um Anwendungen zu entwickeln, zu nutzen sowie Daten und Services zu verwalten. SaaS-Angebote setzen diese Entwicklung im Internet fort und beschleunigen sie noch.

Ein unkontrollierter Wildwuchs war die Folge – sowohl bei den Anwendungen als auch bei der Konfiguration der Geräte und dem Gerätepark selbst. Das Ergebnis: Die IT wurde zu kostspielig – sowohl in der Anschaffung, als auch bei Implementierung und Verwaltung. Nach vorne blickende IT-Entscheider setzen daher auf eine Strategie, bei der das Rechenzentrum der Zukunft kein realer, sondern ein virtueller Ort ist.

Rechenzentren werden so zu Systemen auf Basis intelligenter Architekturen, mit denen sich digitale Ressourcen und Geschäftsprozesse eines Unternehmens integrieren und automatisieren lassen – von der Überwachung der Server, Speicher und PCs bis zur Verwaltung mobiler Endgeräte, Fahrzeugflotten und Sicherheitssysteme in Gebäuden. Alle großen Anbieter bemühen sich, diesen Trend zu bedienen. Sie setzen dabei zum großen Teil auf virtualisierte Server oder sogenannte Private Clouds – was am Ende meistens auf das selbe hinausläuft. Die Kehrseite der Medaille: Passen Kunden nicht auf, büßen sie durch die mit dem Trend hin zu umfassenden Angeboten einhergehenden Konsolidierung auf der Anbieterseite Flexibilität und Wahlfreiheit ein.

Der technologische Standpunkt von IBM

IBM nannte auf der Messe in Hannover das das „University of Pittsburgh Medical Center“ als Beispiel für einen Kunden, der das Programm „Smarter Computing“ schon heute nutzt. In den letzten fünf Jahren verdoppelte das Universitätsklinikum seine IT-Kapazitäten und hielt gleichzeitig die Kosten gering. Frei gewordene Flächen wurden für neue Krankenhausräume genutzt. Dank des neuen Ansatzes konnte das Center jetzt in die Entwicklung des „papierarmen Krankenhauses“ sowie in modernste Technik für „smarte Krankenzimmer“ investieren. Der Dokumentationsaufwand für die Krankenpflege wurde mehr als halbiert, die Qualität der Patientenpflege erhöht.

Heterogenität und Komplexität lassen sich nicht vermeiden. Die unterschiedlichen Datenquellen, Datenbanken und Laufzeitumgebungen sowie die Vielzahl von Servern, Betriebssystemen und Altanwendungen werden nicht einfach über Nacht verschwinden.

Doch mit Hilfe eines Ansatzes wie „Smarter Computing“ könnten diese Unternehmen ihre Daten und Systeme durch standardisierte Einsatzverfahren für jede Art von Workloads integrieren. Gleichzeitig verbinden und vereinheitlichen sie verteilte Systeme und sorgen für Konsistenz bei der Implementierung. Durch den Einsatz von Software, Algorithmen und Entscheidungskriterien lassen sich kritische Prozesse und Services automatisieren, um so manuelle Eingriffe zu minimieren.

ZDNet.de Redaktion

Recent Posts

Gefahren im Foxit PDF-Reader

Check Point warnt vor offener Schwachstelle, die derzeit von Hackern für Phishing ausgenutzt wird.

2 Tagen ago

Bitdefender entdeckt Sicherheitslücken in Überwachungskameras

Video-Babyphones sind ebenfalls betroffen. Cyberkriminelle nehmen vermehrt IoT-Hardware ins Visier.

2 Tagen ago

Top-Malware in Deutschland: CloudEye zurück an der Spitze

Der Downloader hat hierzulande im April einen Anteil von 18,58 Prozent. Im Bereich Ransomware ist…

2 Tagen ago

Podcast: „Die Zero Trust-Architektur ist gekommen, um zu bleiben“

Unternehmen greifen von überall aus auf die Cloud und Applikationen zu. Dementsprechend reicht das Burg-Prinzip…

3 Tagen ago

Google schließt weitere Zero-Day-Lücke in Chrome

Hacker nutzen eine jetzt gepatchte Schwachstelle im Google-Browser bereits aktiv aus. Die neue Chrome-Version stopft…

3 Tagen ago

Hacker greifen Zero-Day-Lücke in Windows mit Banking-Trojaner QakBot an

Microsoft bietet seit Anfang der Woche einen Patch für die Lücke. Kaspersky-Forscher gehen davon aus,…

3 Tagen ago