Autonome Computer

Die Idee des "autonomen Computing" erregt weiterhin große Aufmerksamkeit. Kann das Versprechen von sich selbst verwaltenden IT-Systemen je erfüllt werden und, wenn ja, wie wird sich dies auf die Geschäftswelt auswirken?

Das autonome Nervensystem des Menschen ist für viele wichtige Körperfunktionen wie das Atmen oder den regelmäßigen Herzschlag zuständig. Ganz ohne den Einfluss des Bewusstseins steuert es Bereiche, die für das Überleben notwendig sind.

IBM Research Vice President Dr. Paul Horn machte sich dieses Konzept bereits zu Ende des Jahres 2001 zu eigen, als er IBMs Autonomic Computing Manifest veröffentlichte, in dem ein Computing-Ansatz definiert wurde, der auf dem Aufbau eines im Grunde autonomen Nervensystems für die Informationstechnologie beruhte. Horn argumentierte dahingehend, dass IT-Systeme in der Lage sein sollten, sich selbst zu überwachen und zu verwalten, anstatt ständig von Administratoren überwacht werden zu müssen. Wofür lässt sich diese ganze Rechenleistung noch einsetzen?

Seit dieser Zeit hat IBM verbissen an seiner Vision festgehalten, autonome Technologien in seine Produkte zu integrieren, und auch viele andere Hersteller haben das Konzept gelobt. Der Begriff des autonomen Computing scheint also zu überdauern, aber bietet dieser Ansatz auch echten Nutzen?

Die Definition von ‚autonom‘
In seinem Fragenkatalog bezüglich des autonomen Computing, definiert IBM das Konzept wie folgt: „Autonomes Computing ist ein Ansatz, selbst verwaltete Computersysteme zu erreichen, die ein Minimum an menschlichem Eingreifen erfordern.“

Aber warum wollen wir kein menschliches Eingreifen? Weil es Geld kostet. „Obgleich die Kosten für Informationstechnologie weiterhin sinken, steigen die Gesamtkosten für die Verwaltung der IT-Infrastruktur weiterhin an“, so Ric Telford, Director of Autonomic Computing Architecture bei IBM. In anderen Worten: es ist heutzutage billiger, Technologie zu kaufen, je mehr man aber davon hat, umso schwieriger ist es, dies alles zu kontrollieren und umso mehr Leute muss man einstellen, die dies erledigen. „Mit der Komplexität heutiger Systeme kann man kein on-demand-Business unterhalten“, so Telford. „Komplexität erhöht die im Zusammenhang mit einer IT-Infrastruktur benötigte Menge an Verwaltung.

Vierzig Prozent der gesamten IT-Kosten, müssen heute für Personal und Administration aufgewendet werden“, fügte er hinzu. „Zumindest ein Drittel davon ist an administrative Aufgaben und die grundlegende Verwaltung der Infrastruktur gerichtet. Das ultimative Ziel des autonomen Computing ist es, die Verwaltung und Steuerung der IT-Infrastruktur durch die Geschäftsprozesse selbst zu ermöglichen.“

Zum Teil ist dieser Wandel auf die Tatsache zurückzuführen, dass die Komplexität von Systemen schnell über das hinauswachsen kann, was ein Individuum zu verstehen fähig ist. „Einfache Dinge, wie fehlender Speicherplatz auf Festplatten, sollten leicht auszumachen sein; gibt es aber so viele Komponenten zu überwachen, dass man einen Mitarbeiter bräuchte, der nichts anderes tut“, so Graham Ridgway, CEO des Software-Herstellers Touchpaper. „Die Anzahl der zu überwachenden Parameter führt dazu, dass man entweder ein automatisiertes, auf Regeln basierendes System benötigt oder aber eine Armee von Experten.“

Obwohl sich die Bezeichnung ‚autonom‘ durchgesetzt hat, weisen IBMs Rivalen gern darauf hin, dass die Vision nicht mehr ganz frisch ist. „Dies ist ein Name für etwas, das die Leute schon seit einer ganzen Zeit machen“, so Andy Cooper, Marketing Manager for Information Management Solutions bei Computer Associates (CA). „Wir arbeiten schon seit etwa fünf Jahren auf dieses Ziel hin.“ Die Vision des autonomen Computing hat auch viele Elemente mit HPs auf Utilities konzentrierte Sicht des universellen Datenzentrums gemeinsam.

Auch die Idee, Systeme zu bauen, die auf eine gewisse Weise biologische Funktionen des Menschen emulieren, gibt es nicht ausschließlich bei IBM. Auch bei Microsoft, wo man sich populäre Visionen gerne zu eigen macht, hat man sich in die Diskussion über das Konzept eingeschaltet. „Die Service-Komponenten und selbst die Systeme selbst müssen mehr Eigenschaften aufweisen, die sich selbst organisieren und heilen können und damit näher an die biologischen Metaphern herankommen. Ohne das wird man nur schwerlich glauben können, dass die Menschen in der Lage sein werden, mit der Menge an Rechenleistung, die sie in ihrem täglichen Leben umgibt, Schritt zu halten“, so Craig Mundie, Microsoft Chief Technical Officer for Advanced Strategies and Policies auf einer Sicherheitskonferenz im letzten Jahr.

IBM legt heute weniger Nachdruck auf die biologischen Ursprünge der Vision des autonomen Computing und verwendet das Konzept auf effektive Weise als Kurzformel für eine Reihe selbst-verwaltender und selbst-heilender Technologien. „Ich würde dies nicht als bewussten Wandel bezeichnen“, erklärte Telford. „Nach einer gewissen Zeit, wenn man das Gefühl hat, dass die Botschaft verstanden wurde, ist es nicht mehr so wichtig, sich mit der Herkunft einer Idee auseinander zu setzen, vielmehr tritt ihre zukünftige Entwicklung in den Vordergrund.“

Ungeachtet dieses Arguments „bin ich der Meinung, dass [die Biowissenschaft] mit Sicherheit ein Bereich ist, in den man einsteigen sollte“, so Telford. „Ein Teil der Initiative besteht darin, sich auf die Zusammenarbeit mit Universitäten und Akademien zu konzentrieren – es ist schließlich keine von IBM bestimmte Initiative. Wir wollen sie vorantreiben, aber wir wollen, dass die guten Ideen von vielen Beteiligten stammen. Dies ist ein großes Gebiet für den potenziellen Fortschritt der neuen Technologien.“

Themenseiten: IT-Business, Technologien

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Autonome Computer

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *