Tesla P100: Nvidia stellt GPU-Beschleuniger für High Performance Computing vor

Ein Tesla-P100-Knoten soll die Leistung von 32 CPU-basierten Knoten erreichen. Nvidia zufolge ist der Beschleuniger im PCIe-Standardformat zu aktuellen GPU-beschleunigten Servern kompatibel. Bei Single-Precision-Berechnungen erreicht er eine Leistung von 9,3 Teraflops.

Nvidia hat einen neuen GPU-Beschleuniger für PCIe-Server angekündigt. Der Tesla P100 soll Anwendungen für High Performance Computing im Vergleich zu herkömmlichen CPU-basierten Rechenknoten um das mehr als 30-Fache beschleunigen. Nvidia verspricht zudem, dass die Anschaffungskosten um bis zu 70 Prozent sinken, da ein einzelner „Superknoten“ mit acht Tesla P100 den Durchsatz von mehr als 32 CPU-basierten Rechenknoten erreichen soll.

Nvidia Tesla P100 (Bild: Nvidia)Den Beschleuniger bietet Nvidia im PCIe-Standardformat an. Somit ist es er nach Herstellerangaben mit aktuellen GPU-beschleunigten Servern kompatibel. Er ist vor allem für rechenintensive Anwendungen wie künstliche Intelligenz und Deep Learning sowie für High-Performance-Computing-Rechenzentren gedacht.

„Tesla P100-Beschleuniger bieten neue Ebenen an Leistung und Effizienz, um einige der wichtigsten Rechenherausforderungen unserer Zeit meistern zu können“, wird Thomas Schulthess, Professor für Computational Physics an der ETH Zürich und Direktor des Swiss National Supercomputing Center, in einer Pressemitteilung zitiert. „Das Upgrade von 4.500 GPU-beschleunigten Rechenknoten in Piz Daint zu den Tesla P100-GPUs wird die Leistung des Systems mehr als verdoppeln und Durchbrüche in den unterschiedlichsten Bereichen wie Kosmologie, Materialwissenschaften, Seismologie und Klimawissenschaften ermöglichen.“

Die Leistung des Beschleunigers gibt Nvidia mit 4,7 Teraflops bei Double-Precision-Berechnungen und 9,3 Teraflops bei Single-Precision-Berechnungen an. Die Speicherbandbreite erhöht sich gegenüber der Maxwell-Architektur um 720 GByte pro Sekunde. Nvidia erreicht dies durch ein neues Memory-Design namens Chip on Wafer on Substrate (CoWoS).

ANZEIGE

So lassen sich Risiken bei der Planung eines SAP S/4HANA-Projektes vermeiden

Ziel dieses Ratgebers ist es, SAP-Nutzern, die sich mit SAP S/4HANA auseinandersetzen, Denkanstöße zu liefern, wie sie Projektrisiken bei der Planung Ihres SAP S/4HANA-Projektes vermeiden können.

Die neu entwickelte Page Migration Engine soll indes paralleles Programmieren vereinfachen. Entwickler sollen sich künftig auf die Leistungsoptimierung konzentrieren, da die Technik die Verwaltung von Datenbewegungen übernimmt. Sie erlaubt es zudem, Anwendungen mit der Unterstützung von virtuellem Memory-Paging über die physische Memory-Grenze der GPU hinaus zu betreiben. Eine weitere Neuerung, die Nvidia als vereinte Memory-Technologie bezeichnet, gibt Entwicklern einen vollständigen Überblick über den gesamten Memory-Speicher eines Knotens.

Der Tesla P100 GPU-Beschleuniger soll ab dem vierten Quartal erhältlich sein. Unter anderem wollen die Serverhersteller Cray, Dell, Hewlett Packard Enterprise, IBM und SGI ihn in ihre Produkte integrieren.

Tipp: Wie gut kennen Sie die Chefs der IT-Firmen? Testen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.

Themenseiten: GPU, Grafikchips, Nvidia, Rechenzentrum, Server

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Tesla P100: Nvidia stellt GPU-Beschleuniger für High Performance Computing vor

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *