I/O: Google zeigt Beschleunigerchip für Maschinelles Lernen

Die in seinen Rechenzentren eingesetzte Tensor Processing Unit (TPU) kommt mit weniger Transistoren pro Rechenoperation aus als andere Chips. Sie liefert Google zufolge eine zehnmal besser optimierte Leistung pro Watt für Maschinenlernen. Nutzer erhielten so mehr intelligente Ergebnisse in kürzerer Zeit.

Abseits von der Vorstellung neuer Software und neuen Produkten hat Google auf seiner Entwicklerkonferenz I/O in Mountain View auch einen Einblick in die Technik seiner Rechenzentren gewährt. So zeigte es einen selbstentwickelten Beschleunigerchip für Maschinelles Lernen, den es seit über einem Jahr einsetzt. Die sogenannte Tensor Processing Unit oder kurz TPU ist für sein Machine-Learning-System TensorFlow optimiert.

Googles Tensor Processing Unit ist für Maschinenlernen optimiert (Bild: Google).Wie Google-CEO Sundar Pichai in seiner Keynote erklärte, habe man aufgrund der „unglaublich hohen Rechenaufwands“ für Maschinelles Lernen mit der Entwicklung des Chips begonnen. Die TPU liefere eine bis zu zehnmal besser optimierte Leistung pro Watt für Maschinenlernen. „Das entspricht in etwa einem Techniksprung von sieben Jahren in die Zukunft (drei Generationen des Mooreschen Gesetzes)“, schreibt der zuständige Hardware-Ingenieur Norm Jouppi in einem Blogbeitrag.

Weil der Chip ausschließlich auf Maschinenlernen zugeschnitten ist, werden an ihn nicht so hohe Anforderungen an die Rechengenauigkeit gestellt wie bei anderen Prozessoren. Dadurch kann er Rechenoperationen mit weniger Transistoren ausführen. Das wiederum erlaubt letztlich mehr Rechenoperationen pro Sekunde sowie ausgefeiltere und leistungsfähigere Maschinenlernmodelle, die schneller eingesetzt werden können. Unterm Strich erhalten Nutzer damit mehr intelligente Ergebnisse in kürzerer Zeit.

Eine Platine mit dem Chip passt in einen herkömmlichen Festplattenschacht in Googles Rechenzentrums-Racks. Der Internetkonzern setzt die TPUs beispielsweise für RankBrain und Street View ein, um bessere Suchergebnisse beziehungsweise eine höhere Genauigkeit bei Maps und Navigation zu erzielen. Auch das KI-Programm AlphaGo, das ein Duell mit einem der weltweit stärksten Spieler des chinesischen Brettspiels mit 4:1 für sich entschied, wurde auf TPUs berechnet.

ANZEIGE

Die Cloud forciert Innovationen

Ohne Cloud-Technologie sähe der Alltag heute ganz anders aus. Dropbox, Facebook, Google und Musikdienste gäbe es nicht. Erst Cloud-Technologien haben diese Services ermöglicht und treiben heute Innovationen schneller denn je voran.

„Wir innovieren bis hinunter zu Halbleitern, um einzigartige Möglichkeiten für Unternehmen zu schaffen“, sagte Greg DeMichelle, leitender Produktmanager für Googles Cloud Platform, bei einer Präsentation am Rande der I/O-Konferenz. Dieses Leistungsniveau könne Firmen dabei helfen, „die Bruchstücke an Informationen zu finden, die den Unterschied zwischen einem Geschäftswachstum von 10 Prozent und einem von 50 oder 60 Prozent ausmachen.“

Google-CEO Pichai fasste es in seiner Keynote etwas nüchterner zusammen: „Wenn Sie Google Cloud Plattform nutzen, erhalten sie nicht nur Zugang zu großartiger Software, die wir intern nutzen, sondern auch zu spezialisierter Hardware, die wir intern entwickelt haben.“

[mit Material von Stephanie Condon, ZDNet.com]

Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.

Themenseiten: Google, Google I/O, Künstliche Intelligenz, Prozessoren

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu I/O: Google zeigt Beschleunigerchip für Maschinelles Lernen

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *