Mainframes: Anpassung statt Auslese

Seit eineinhalb Jahrzehnten hört man den Abgesang auf die Großrechner. Obwohl viele der Argumente immer noch gelten, erwiesen sich die oft als Saurier diskreditierten Systeme jedoch als unerwartet anpassungsfähig. Bisher wenigstens.

Die meisten schon Anfang der 90er Jahre gegen Großrechner vorgebrachten Argumente scheinen tatsächlich auch heute noch Gültigkeit zu besitzen: Sie kosten Millionen, sind proprietär, nur von teuren Fachleuten zu warten und kommen nicht mit modernen Client-Server-Anwendungen zurecht. Im kurz darauf anbrechenden Internet-Zeitalter kam noch das Argument hinzu, dass die Systeme nicht für die volatilen Nutzerzahlen im Web ausgelegt waren.

Umgekehrt erhielten sich aber auch die Vorzüge: In Sachen Massendurchsatz, Auslastung, Zuverlässigkeit und Sicherheit sind Großrechner nach wie vor unübertroffen. Dennoch: Schon 1996 bewies der IT-Konzern Hewlett-Packard durch das Abschalten seines letzten Mainframes, dass es auch ohne geht.

Zu diesem Zeitpunkt liefen bei IBM die Rettungsversuche bereits auf Hochtouren. Von den Kunden nahezu unbemerkt blieb eine Öffnung der Betriebssystem-Schnittstellen, die sogar so weit ging, dass das OS/390-Betriebssystem bei den Standardisierungsgremien als Unix-Derivat durchging.

Erfolgreicher war schon der gegen Microsofts fette Clients gerichtete Vorstoß für schlanke Network Computer (NCs), die als modernes Front-End für Server-Systeme (darunter Mainframes) hätten durchgehen können – wenn das Konzept nicht an mangelnder Bandbreite, Applikationsmangel sowie am Microsoft-Marketing für Lean-Windows-Clients (dank Citrix-Technik) aus dem Licht der Öffentlichkeit verschwunden wäre.

Mit der folgenden eBusiness-Kampagne gelang es IBM zwar, einen Begriff branchenweit zu etablieren, nicht aber, seine Mainframes als Internet-Maschinen zu empfehlen. Erst als das Unternehmen seine Systeme für das Open-Source-Betriebssystem Linux öffnete, wuchs die Reputation der Großrechner wieder.

All diese Bemühungen konnten nichts gegen den Siegeszug der x86-Architektur für Client-Server- und Web-Umgebungen ausrichten. Moderne Anwendungen entstanden seither an PC-Workstations. Die IT-Infrastruktur standardisierte sich auf dieser Plattform, insbesondere bei den vielen Startups der Internet-Welle, aber auch bei den wachsenden Mittelständlern. Das kontinuierliche Zukaufen von preiswerten Windows- und Linux-Servern galt bald rasch als weniger riskanter Wachstumspfad als der Einstieg in die teure RISC– und Mainframe-Welt.

Großrechner dagegen wurden im Rahmen der anhaltenden Rechenzentrums-Konsolidierung fast nur noch als Sammelbecken für proprietäre Anwendungen gesehen. Die Folge: Die Mainframes wurden zwar größer, aber weniger. Neukunden findet IBM dafür so gut wie keine mehr. Das Know-how für diese Architektur geht verloren.

Themenseiten: Analysen & Kommentare, IT-Business

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen Lesen Sie ZDNet-Artikel in Google Currents ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Mainframes: Anpassung statt Auslese

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *