HPE „The Machine“ jetzt mit 160 Terabyte Arbeitsspeicher

Der zweite Prototyp von HPEs Big-Data-Rechner "The Machine" soll damit das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig bearbeiten können. Laut HPE-Chefin Meg Whitman "verstecken sich der nächste große wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien hinter den Datenbergen, die wir täglich produzieren". Diese soll "The Machine" finden.

Hewlett Packard Enterprise (HPE) präsentiert den zweiten Prototyp seiner auf einem einheitlichen Arbeitsspeicher basierenden Big-Data-Computer „The Machine“. Die neue Ausbaustufe verfügt über 160 TByte Arbeitsspeicher und ist laut HPE in der Lage, das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig zu bearbeiten – etwa 160 Millionen Bücher. Es sei bisher nicht möglich gewesenen, ganze Datensätze dieser Größe in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.

ANZEIGE

Aktuelle Studie zur Dokumentensicherheit in deutschen Büros

Eine aktuelle Statista-Umfrage (im Auftrag von KYOCERA Document Solutions) hat ergeben: Der deutsche Mittelstand hat Nachholbedarf beim Thema Dokumentensicherheit. Mehr als die Hälfte der befragten Mitarbeiter hat Zugriff auf Dokumente, die nicht für sie bestimmt sind. Weitere Infos und Tipps zur Optimierung erhalten Sie im gratis E-Book.

Des Weiteren bietet der zweite Prototyp über 40 physische Rechnerknoten, die mit einem Hochleistungs-Fabric-Protokoll miteinander verbunden sind. Als Betriebssystem kommt ein optimiertes Linux, das auf ThunderX2 läuft, der ARMv8-SoC-Architektur der zweiten Generation von Cavium. „The Macine“ kann außerdem auf photonische Kommunikationsverbindungen, darunter das neue X1 Photonics Module, zurückgreifen, damit die Softwareprogrammierungswerkzeuge die Vorteile des immensen nicht-flüchtigen Arbeitsspeichers voll ausschöpfen können.

Firmenchefin Meg Whitman sieht in der enormen Rechenkapazität große Vorteile: „Der nächste große wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien verstecken sich in Sichtweite hinter den Datenbergen, die wir jeden Tag erzeugen. Um dieses Versprechen wahr werden zu lassen, können wir uns nicht auf die Technologien der Vergangenheit verlassen. Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde.“

Hewlett Packard Enterprise (HPE) hatte den ersten Protoytpen seiner seit mehreren Jahren in Vorbereitung befindlichen Computing-Architektur „The Machine“ dieses Jahr auch auf der CeBIT ausgestellt. Elemente aus der neuen Architektur sollen bereits 2018 und 2019 für HPE-Produkte verwendet werden. Mit der weltweit ersten Arbeitsspeicher-zentrische Computer-Architektur will der Hersteller die seit rund 60 Jahren gebräuchlichen Rechnerarchitekturen ablösen.

HPE "The Machine" (Screenshot: ZDNet.de)Diese sind nach Ansicht von HPE nämlich nicht geeignet, die künftigen Aufgaben, die durch Cloud Computing und das Internet der Dinge (IoT) sowie mobile Netzwerke und Machine-to-Machine-Computing auf sie zukommen, noch zufriedenstellend zu lösen.

Bei „The Machine“ kommunizieren dagegen auf bestimmte Arbeitslasten spezialisierte Prozessoren über optische Verbindungen mit einem universellen Speicher. Die Trennung von Hauptspeicher und Massenspeicher wird somit aufgehoben. Für den neuen Speicher setzt HPE auf Memristoren.

Byte-adressierbaren nichtflüchtigen Speicher plant HPE dagegen 2018 oder 2019 vorzustellen. Er soll die Vorteile von DRAM bei der Leistung und die Vorteile von traditionellem Speicher in Bezug Kapazität und Beständigkeit in sich vereinen. Ein Schritt auf dem Weg dahin ist HPE Persistent Memory. Es wurde im Frühjahr eingeführt und steht als Option für die HPE-Server ProLiant DL360 und DL380 Gen9 zur Verfügung. Sie sind vor allem darauf ausgelegt, Workloads für Datenbanken und Analytics-Anwendungen zu unterstützen und sollen dazu beitragen, Flaschenhälse bei traditionellen Storage-Umgebungen zu eliminieren.

Die für „The Machine“ entwickelten optischen Technologien sollen mit den für 2017 angekündigten HPE-Synergy-Systemen auf dem Markt eingeführt werden. Ab 2018 soll die Photonik-Technologie von „The Machine“ in weiteren Produktlinien, auch in einigen aus dem HPE-Storage-Portfolio, integriert werden. Das Unternehmen plant anschließend dann auch Fabric Attached Storage-Produkte auf den Markt zu bringen, die auf dem vom kürzlich gegründeten Gen-Z-Konsortium entwickelten Hochleistungs-Interconnect-Protokoll basieren. Neben HPE gehören dort zum Beispiel auch IBM, DellEMC, Lenovo, Huawei und Cray sowie ARM, Micron, SK Hynx und Samsung zu den Mitgliedern.

Damit bei der Markteinführung der neuen Rechnersysteme mit „Memory-Driven Computing“ auch Software zur Verfügung steht, die davon profitieren kann, arbeitet HPE seit 2016 mit Hortonworks zusammen, die mit Apache Sparks über eine In-Memory-Datenbank-Engine verfügen. Seit Juni 2016 steht außerdem Code auf Github zur Verfügung, um Programmierer an die Memory-Driven-Architecture heranzuführen. 2017 soll der Code in vorhandene Systeme integrieren werden und dann die Grundlage für künftige Analytics-Anwendungen bilden.

Themenseiten: Big Data, HPE, HPE / Intel Just Right IT

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen Lesen Sie ZDNet-Artikel in Google Currents ZDNet-App für iOS

Artikel empfehlen: