Großrechner als Überlebenskünstler

Totgesagte leben länger. Aber halbtot ist noch nicht wirklich am Leben. ZDNet-Kolumnist Hermann Gfaller wirft einen genauen Blick auf die Chancen für Großrechensysteme.

Totgesagte leben länger. Das gilt nicht zuletzt für die guten alte Mainframes, die es nahezu seit Beginn des Computerzeitalters gibt. In den 90er Jahren galten sie als hoffnungslos überholt. Erst in den vergangenen Jahren hat IBM die Rechner mit Hilfe des Open-Source-Betriebssystems Linux wieder positiv in die Schlagzeilen gebracht. Mit der Realität aber hat Mainframe-Linux nur wenig zu tun. Das Mainframe-Geschäft lebt vor allem von Altlasten der Anwender.

Schon Ende der 80er Jahre zeigte die Reputation der zentralen Datenverarbeitung deutliche Risse. EDV-Spezialisten galten als arrogante Priester einer unverständlichen Religion, der die Anwenderunternehmen mit Geld und Unterwürfigkeit zu dienen hatten. Die Hersteller, allen voran die IBM diktierten Preise, Upgrade-Rhythmen und banden die Kunden scheinbar auf ewig an sich. Alternativen gab es kaum. Die Anbieter so genannter Mittlerer Datentechnik (Digital Equipment, Nixdorf und Co.) waren zwar preisgünstiger, ahmten aber die Lock-in-Strategien der Mainframer nach. Der Begriff „proprietär“ wurde zum Schimpfwort insbesondere für die Systeme der IBM.

Doch Ende der 80er Jahre erhielten die Emanzipationsbestrebungen der Anwender Nahrung aus mehreren Quellen. Branchen-Primus Big Blue bekam immer mehr Probleme mit der Vielzahl der hauseigenen Techniken. Die Koordinierung von Neuentwicklungen gestaltete sich immer komplexer, Wartung und Verbesserung immer teurer. Dadurch wurde bei Big Blue die Innovation gebremst, während um den Konzern herum der Markt für PCs und Unix explodierte.

Wo immer möglich, ersetzten Anwender – oft an der DV-Abteilung vorbei – die dummen grünen Terminals durch (Windows-)PCs. Gefahr für den Mainframe entstand allerdings erst, als das Client-Server-Architekturkonzept die Möglichkeit schuf, die bislang hauptsächlich für Büroarbeiten genutzten Desktop-Systeme in die Business-IT einzubinden. Die enge (Master-Slave)-Kopplung an den Zentralrechner wurde durch die weit lockerere Zusammenarbeit zwischen PC-Clients und Server-Systemen abgelöst, die zu Beginn üblicherweise unter Unix liefen. Die noch recht neuen RISC-Prozessoren der Server versprachen gewaltige Leistungssteigerungen zu Preisen, die weit unter denen von Mainframe-Chips lagen. Anbieter wichtiger Software (Datenbanken, Transaktionssysteme, betriebswirtschaftliche Software) setzten auf Unix – auch, um sich aus der Abhängigkeit der großen Hersteller zu befreien.

So wurde der PC-Boom um einen für Unix-Systeme ergänzt. Zu den ersten Opfern gehörte die Mittlere Datentechnik, doch schon Mitte der 90er Jahre meldeten immer mehr Rechenzentren stolz, sie seien Mainframe-frei. In Fachzeitschriften galten Großrechner mittlerweile als Altlasten, als zum Aussterben verurteilte Saurier. Niemand wollte mehr neue Anwendungen dafür schreiben. In dieser Zeit begann Big Blue zu schrumpfen. Zeitweilig waren die Verluste des Konzern größer als der Umsatz des nächst größeren Mitbewerbers, damals Digital Equipment. Doch schon mitten in der Krise deutete sich eine zaghafte Trendwende an. Die allgemeine Dezentralisierung hatte zu einem immer schwerer zu durchdringendem PC- und Server-Dschungel geführt. Man fing an, für eine umfassende Server- und RZ-Konsolidierung auf Mainframes zurückzugreifen – ein Trend, der auch heute noch anhält.

Themenseiten: Analysen & Kommentare, IT-Business, Supercomputing

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Großrechner als Überlebenskünstler

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *