50. Geburtstag des „Stretch“-Supercomputers

IBM feiert dieser Tage den 50. Geburtstag des „Stretch„-Supercomputers. Er habe die Computerindustrie durch Technologien grundlegend verändert, die heute in Laptops, iPods und Supercomputern verwendet werden. Da ist viel Wahres dran – das echte Potenzial des Rechners wurde jedoch erst spät erkannt.

Die Geschichte des Stretch-Rechners begann im April 1955, als IBM dem University of California Radiation Laboratory (UCRL) ein Angebot unterbreitete. Scheinbar konnte IBM aber nicht so schnell liefern, wie es die Wissenschaftler erwarteten. Der Konzern schlug als Ausgleich eine wesentlich leistungsfähigere Maschine vor. Das UCRL lies sich darauf jedoch nicht ein.

Daraufhin suchte IBM einen anderen Abnehmer für den geplanten Superrechner. Der zweite anvisierte Kunde, die NSA, hatte nicht vor, früher als 1957 einen Rechner anzuschaffen. IBM musste sich also weiter umtun: Im August 1955 lief das Supercomputer-Projekt unter dem Namen „Stretch“ an. Der Name war Programm: Es sollte die Grenzen des Rechnerdesigns ausdehnen.

Erste Designstudien wurden entworfen, als sich das Los Alamos Scientific Laboratory (LASL) kurz darauf interessiert gezeigt hatte. Versprochen wurde ein Rechner, der „100 bis 200 mal schneller ist als der 704„. Offiziell gestartet wurde „Project Stretch“ aber erst im Januar 1956.

Stephen W. Dunwell war der führende Kopf des Projektes. Mit dem ausgegebenen Ziel – mehr als hundertfach bessere Leistungsfähigkeit gegenüber dem 704 – hatte er sich und IBM jedoch selbst unter Druck gesetzt. Denn die Logikschaltkreise wurden lediglich um den Faktor zehn bis zwanzig schneller, die Memory-Performance sogar nur um den Faktor sechs. Also mussten substanzielle Verbesserungen der Architektur her.

Diese wurden auch erreicht. Dazu zählen etwa Interrupts, Memory Error Detection and Correction, Memory Interleaving, Multiprogramming, Pipelining und Memory Protection. Memory Interleaving teilt den Hauptspeicher zur Steigerung der Bandbreite in kleine Pakete auf. Multiprogrammierung ermöglicht es Computern, mehr als eine Aufgabe gleichzeitig zu bearbeiten. Pipelining erlaubt durch das Hintereinanderreihen von Instruktionen eine unterbrechungsfreie Bearbeitung von Rechenoperationen. Memory Protection verhindert den unauthorisierten Hauptspeicherzugriff und gewährleistet damit die Systemsicherheit. Besonders folgenreich war jedoch die Einführung des 8-Bit-Bytes, das die Datenstandardgröße geworden ist und jeweils ein Zeichen repräsentiert.

IBMs auch als „7030 Data Processing System“ verkaufter „Stretch“-Rechner im Einsatz (Bild: IBM)

Page: 1 2 3

ZDNet.de Redaktion

Recent Posts

KI erkennt Emotionen in echten Sportsituationen

Forschende des KIT haben ein Modell zur Emotionsanalyse entwickelt, das affektive Zustände ähnlich genau wie…

47 Minuten ago

Ermittlern gelingt weiterer Schlag gegen Ransomware-Gruppe LockBit

Sie decken die Identität des Kopfs der Gruppe auf. Britische Behörden fahnden mit einem Foto…

1 Tag ago

Apple stellt neuen Mobilprozessor M4 vor

Er treibt das neue iPad Pro mit OLED-Display an. Apple verspricht eine deutliche Leistungssteigerung gegenüber…

2 Tagen ago

Cyberabwehr: Mindestens zwei kritische Vorfälle pro Tag

Davon entfällt ein Viertel auf staatliche Einrichtungen und 12 Prozent auf Industrieunternehmen.

2 Tagen ago

Tunnelvision: Exploit umgeht VPN-Verschlüsselung

Forscher umgehen die Verschlüsselung und erhalten Zugriff auf VPN-Datenverkehr im Klartext. Für ihren Angriff benötigen…

2 Tagen ago

Online-Banking: 42 Prozent kehren Filialen den Rücken

Weitere 40 Prozent der Deutschen erledigen ihre Geldgeschäfte überwiegend online und gehen nur noch selten…

2 Tagen ago