Categories: CloudRechenzentrum

OpenHPC: Linux Foundation beginnt Initiative für High Performance Computing

Die Linux Foundation hat mit dem OpenHPC Collaborative Project eine Initiative gestartet, die zur beschleunigten Entwicklung eines Open-Source-Frameworks für Höchstleistungsrechner beitragen soll.

Das Projekt setzt sich aus Upstream-Projekt-Komponenten, Tools und Interconnects zusammen, die dann die Basis für einen Software-Stack bilden sollen. Eine Sammlung von validierten und integrierten HPC-Komponenten (High Performance Computing) soll indes einen Referenz-HPC-Software-Stack für Entwickler bringen. OpenHPC ist für verschiedene Einsatzzwecke vorgesehen und erlaubt neben vielfältigen Konfigurationen auch eine hohe Skalierbarkeit der Komponenten.

Firmen wie Altair, Atos, Cray, Dell, Fujitsu, HPE, Intel, Lenovo, NEC, Suse sowie weitere Anbieter werden sich daran beteiligen. Aber auch Forschungszentren wie das Barcelona Supercomputing Center sowie die beiden deutschen Einrichtungen Jülich und Münchner Leibniz Supercomputing Centre arbeiten an dem Projekt mit. Hinzu kommen das Lawrence Berkeley National Laboratory, Los Alamos National Laboratory und das Oak Ridge National Laboratory.

Auch das Forschungszentrum Jülich beteiligt sich an dem OpenHPC-Projekt (Bild: IBM).

Die Linux Foundation verspricht sich dadurch ein stabiles Umfeld für Tests und Validierungen, Continous Integration, Source Control, Bug Tracking, Collaboration Tools sowie Nutzer- und Entwickler-Foren. Letztendlich sollen damit die Kosten für die Implementierung und den Betrieb einer Supercomputer-Installation sinken. Laut Linux Foundation wird somit ein robuster und vielseitiger Open Source Software Stack entstehen, da Community-Mitglieder aus verschiedenen Bereichen Tests und Validierungen durchführen können.

Weiterhin würden über dieses Framework Gruppen von Komponenten und Software entwickelt, die kontinuierlich darauf getestet werden, die bestmögliche Leistung zu liefern. Derzeit konzentriert sich das Projekt auf Tests von CentOS 7.1 und Extra Packages for Enterprise Linux Repository (EPEL).

Zudem seien HPC-Projekte insbesondere im universitären Umfeld mit sehr speziellen Anforderungen verbunden. „Mit besonderen Bedürfnissen und besonderen Anforderungen an die parallele Runtime, bleibt Software eine der größten Herausforderungen für die Verbreitung von HPC“, heißt es in einer Mitteilung der Linux Foundation. Ein Problem sei, dass HPC-Systeme sehr speziell und mehr oder weniger einzigartig sind, daher müssten Anwendungen nicht selten auch eigens an die Supercomputer angepasst werden, auf welchen sie dann laufen sollen.

„Der OpenHPC Software Stack wird den Aufwand, Standard-HPC-Komponenten für unsere HPC-Systeme zu bauen und zu testen, deutlich reduzieren. Daher werden wir diesen kollaborativen und offenen Ansatz sehr stark unterstützen“, erklärt Herbert Huber, Chef der HPC-Abteilung des Leibniz Rechenzentrums.

Dass diese Initiative im Dunstkreis der Linux Foundation entsteht, kommt wenig überraschend. Die Liste Top500.org führt lediglich sechs Supercomputer, die nicht mit Linux als Betriebssystem laufen – diese sechs Systeme verwenden nämlich Unix.

Darüber hinaus plant die Initiative, Abstraktions-Schnittstellen zwischen Schlüssel-Komponenten zu identifizieren und zu entwickeln, um die Modularität und Austauschbarkeit weiter zu verbessern. Genau wie unter Linux werden auch hier die Entwicklungsergebnisse frei zugänglich sein.

„Der Einsatz von Open-Source-Software ist ein zentraler Bestandteil von HPC, aber der Mangel einer vereinheitlichten Community – über die wichtigsten Stakeholder wie den akademischen Einrichtungen, den Unternehmen für das Workload Management, Software und Hardware-Hersteller hinweg – hat für eine Duplizierung des Aufwands gesorgt und damit die Eintrittsbarrieren höher gelegt“, kommentiert Jim Zemlin, Executive Director der Linux Foundation.

„OpenHPC wird daher als neutrales Forum die Entwicklung eines Open Source Frameworks ermöglichen, das ein mannigfaltiges Set von Cluster-Umgebungen ermöglicht“, wie Zenmlin weiter ausführt.

[mit Material von Martin Schindler, silicon.de]

Tipp: Wie gut kennen Sie sich mit Open-Source aus? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de

Rainer Schneider

Seit September 2013 ist Rainer hauptsächlich für ITespresso im Einsatz, schreibt aber gerne auch mal hintergründige Artikel für ZDNet und springt ebenso gerne für silicon ein. Er interessiert sich insbesondere für die Themen IT-Security und Mobile. Sein beständiges Ziel ist es, die komplexe IT-Welt so durchsichtig und verständlich wie möglich abzubilden.

Recent Posts

Künstliche Intelligenz fasst Telefonate zusammen

Die App satellite wird künftig Telefongespräche in Echtzeit datenschutzkonform mit Hilfe von KI zusammenfassen.

26 Minuten ago

MDM-Spezialist Semarchy stellt Data-Intelligence-Lösung vor

Als Erweiterung von Master-Data-Management ermöglicht es die Lösung, den Werdegang von Daten verstehen und sie…

2 Stunden ago

Apple stopft 15 Sicherheitslöcher in iOS und iPadOS

Sie erlauben unter anderem das Einschleusen von Schadcode. In älteren iPhones und iPads mit OS-Version…

2 Stunden ago

Hochleistungs-NAS-Speicher für KI-Daten

Neuer Speicher für KI von Huawei mit integrierter Ransomware-Erkennungs-Engine und deutlich geringerem Energiekonsum.

3 Stunden ago

Abo für Facebook: Verbraucherzentrale NRW klagt erneut gegen Meta

Diesmal geht es um das neue Abomodell für Facebook und Instagram. Die Verbraucherschützer klagen auf…

16 Stunden ago

Jedes zweite Gerät mit Redline-Infostealer infiziert

Infostealer-Infektionen haben laut Kaspersky-Studie zwischen 2020 und 2023 um mehr als das sechsfache zugenommen.

21 Stunden ago