Categories: CloudRechenzentrum

Nvidia stellt GPU-Beschleuniger für maschinelles Lernen vor

Nvidia hat eine Hyperscale-Beschleuniger-Reihe angekündigt, die maschinelles Lernen und die Entwicklung Künstlicher Intelligenz (KI) in Rechenzentren vorantreiben soll. Sie umfasst zwei Modelle: Die leistungsstarke GPU-Beschleuniger-Karte Tesla M40 ist zum Trainieren von Deep-Neuralnetzen konzipiert. Die eher auf niedrigen Stromverbrauch ausgelegte Tesla M4 ist hingegen für den Aufbau solcher Netzwerke im Rechenzentrum gedacht. Als Ergänzung für die Hardware bietet Nvidia auch eine Suite GPU-beschleunigter Bibliotheken an.

Nvidia-CEO Jen-Hsun Huang bei der Vorstellung der GPU-Beschleuniger für maschinelles Lernen (Bild: James Martin/ CNET).„Das KI-Rennen hat begonnen“, sagte Nvidia-CEO Jen-Hsun Huang bei der Vorstellung der neuen Produkte. „Maschinelles Lernen ist ohne Frage eine der wichtigsten Entwicklungen im Computing-Bereich insgesamt, bei PCs, dem Internet und bei Cloud Computing.“ Zugleich bezeichnete er maschinelles Lernen als „die große Rechenherausforderung unserer Generation“. „Wir haben die Tesla-Hyperscale-Beschleuniger-Serie geschaffen, um maschinelles Lernen um den Faktor 10 zu beschleunigen. Die Zeit- und Kosteneinsparungen in Rechenzentren werden signifikant sein.“

Die neue Hard- und Software wurde Nvida zufolge dafür entworfen, die zunehmende Zahl an Webanwendungen zu beschleunigen, die KI-Funktionalitäten integrieren. Diese setzten maschinelles Lernen beispielsweise dazu ein, Sprach- und Gesichtserkennung zu verbessern sowie Objekte und Szenen in Videos oder Fotos automatisch zu identifizieren, um sie für spätere Suchanfragen mittels Tags zu kennzeichnen. Auf maschinellem Lernen und KI aufbauende Dienste können zudem den individuellen Geschmack und die Interessen des Nutzers berücksichtigen, Terminpläne organisieren oder relevante Nachrichten bereitstellen.

Durch solche Services steigen die Arbeitslasten in Rechenzentren deutlich an. Um Deep-Neuralnetze zu trainieren und Neuerungen in sie einzupflegen, während zugleich Milliarden Nutzeranfragen möglichst verzögerungsfrei zu beantworten sind, wird eine sehr hohe Rechenleistung benötigt. Für diese Anforderungen sind Nvidias neue Beschleunigerkarten gedacht.

Die Tesla M40 ist zum Trainieren von Deep-Neuralnetzen konzipiert (Bild: Nvidia).Für den auf 24/7-Betrieb ausgelegten GPU-Beschleuniger Tesla M40 verspricht der Hersteller reduzierte Trainingszeiten um den Faktor 8 im Vergleich zu CPUs. Ein typisches Training des bekannten Neuralnetzwerkmodells AlexNet soll beispielsweise nur noch 1,2 statt 10 Tage dauern. Zudem soll Unterstützung für GPUDirect schnelles Multi-node-Training von neuronalen Netzen erlauben.

Der für Hyperscale-Umgebungen konzipierte Tesla M4 im Low-Profile-PCIe-Design eignet sich Nvidia zufolge nicht nur für maschinellem Lernen, etwa um Schlussfolgerungen zu beschleunigen, sondern auch für Videotranskodierung sowie Bild- und Videoverarbeitung. Gegenüber einer CPU soll er bis zu fünf zusätzliche Videostreams gleichzeitig transkodieren, analysieren und optimieren können. Zugleich bietet er bei diesen Aufgaben mit einer Leistungsaufnahme zwischen 50 und 75 Watt laut Hersteller eine zehnmal bessere Energieeffizienz.

Die ergänzende Hyperscale-Software-Suite umfasst Werkzeuge für Entwickler und Rechenzentrumsmanager. Ein Bestandteil ist der Algorithmus cuDNN zur Verarbeitung von Deep-Faltungs-Neuralnetzen, die für KI-Anwendungen eingesetzt werden. Zur GPU-Beschleunigung von Videotranskodierung und -verarbeitung ist Multimediasoftware FFmpeg enthalten. Nvidia GPU REST Engine erleichtert das Erstellen und Einrichten von Internetdiensten mit hohen Datendurchsätzen und niedrigen Latenzen. Es erlaubt etwa dynamische Größenanpassungen von Bildern, Beschleunigung von Sucheingaben und Bildklassifizierungen.

Nvidias Supercomputing-Modul Jetson TX1 (Bild: Nvidia)Die Tesla-M40-GPU sowie die Hyperscale Suite sollen noch dieses Jahr verfügbar werden. Der Start des Modells Tesla M4 ist für das erste Quartal 2016 geplant.

Ergänzend hat Nvidia auch noch ein kreditkartengroßes Supercomputing-Modul namens Jetson TX1 vorgestellt, das bei einem Verbrauch von unter 10 Watt eine Teraflops-Leistung liefern soll. Es ist beispielsweise für den Einsatz in intelligenten Überwachungsdrohnen gedacht. Ein Entwicklerkit für Jetson wird sich in den USA ab Mittwoch, den 12. November, für 599 Euro bestellen lassen. Die Auslieferung erfolgt ab 16. November. In den nächsten Wochen soll es auch in anderen Ländern verfügbar werden. Eine Endnutzerversion des Moduls will Nvidia Anfang 2016 weltweit auf den Markt bringen. Sie wird bei einer Abnahmemenge von mindestens 1000 Stück 299 Dollar kosten.

[mit Material von Rachel King, ZDNet.com]

ZDNet.de Redaktion

Recent Posts

Gefahren im Foxit PDF-Reader

Check Point warnt vor offener Schwachstelle, die derzeit von Hackern für Phishing ausgenutzt wird.

21 Stunden ago

Bitdefender entdeckt Sicherheitslücken in Überwachungskameras

Video-Babyphones sind ebenfalls betroffen. Cyberkriminelle nehmen vermehrt IoT-Hardware ins Visier.

21 Stunden ago

Top-Malware in Deutschland: CloudEye zurück an der Spitze

Der Downloader hat hierzulande im April einen Anteil von 18,58 Prozent. Im Bereich Ransomware ist…

21 Stunden ago

Podcast: „Die Zero Trust-Architektur ist gekommen, um zu bleiben“

Unternehmen greifen von überall aus auf die Cloud und Applikationen zu. Dementsprechend reicht das Burg-Prinzip…

2 Tagen ago

Google schließt weitere Zero-Day-Lücke in Chrome

Hacker nutzen eine jetzt gepatchte Schwachstelle im Google-Browser bereits aktiv aus. Die neue Chrome-Version stopft…

2 Tagen ago

Hacker greifen Zero-Day-Lücke in Windows mit Banking-Trojaner QakBot an

Microsoft bietet seit Anfang der Woche einen Patch für die Lücke. Kaspersky-Forscher gehen davon aus,…

2 Tagen ago