Google stellt zweite Generation seiner AI-Plattform vor

Die neuen Cloud TPUs sollen nicht nur Google-Produkte verbessern. Unternehmen und Drittentwickler können sie über die Google Compute Engine nutzen. Mit AutoML will der Internetkonzern beweisen, das neuronale Netze selbst wieder neuronale Netze schaffen können.

Google hat seine nächste Generation von Spezial-Chips für maschinelles Lernen angekündigt, ein Teilgebiet künstlicher Intelligenz (Artificial Intelligence, AI). Die Cloud TPUs (Tensor Processing Units) sollen die schnellere und effizientere Abarbeitung von Algorithmen für maschinelles Lernen erlauben. Sie sollen nicht nur Googles eigene Dienste beflügeln, sondern über die Google Compute Engine auch für Unternehmen und unabhängige Entwickler verfügbar werden.

„Es ist uns wichtig, diese Fortschritte allen zugute kommen zu lassen – nicht nur den Nutzern von Google-Produkten“, versichert CEO Sundar Pichai in einem Blogeintrag. Zu erwarten seien große Durchbrüche bei komplexen gesellschaftlichen Problemen, wenn Wissenschaftler und Ingenieure über leistungsfähigere Werkzeuge für Computing und Forschung verfügen. „Aber heute gibt es noch zu viele Barrieren, die dem entgegenstehen.“

Tensor-Processing-Unit--Board (Bild: Google)Tensor-Processing-Unit–Board (Bild: Google)

AI könnte beispielsweise zugänglicher werden durch die vereinfachte Schaffung von Maschinenlernen-Modellen, die als neuronale Netze bezeichnet werden. Heute sei das Entwerfen eines neuronalen Netzes extrem zeitintensiv und bedürfe großer Expertise. Der Internetkonzern will nun mit AutoML als neuer Herangehensweise zeigen, dass neuronale Netze ihrerseits neuronale Netze konzipieren können. Er hofft, dass AutoML mit Fähigkeiten aufwartet, über die heute nur wenige Hochschulabsolventen verfügen. In drei bis fünf Jahren soll es Hunderttausenden von Entwicklern ermöglichen, neuronale Netze für ihre speziellen Anforderungen zu schaffen.

Als Hardware-Grundlage kommt die Tensor Processing Unit in Googles Rechenzentren zur Beschleunigung von maschinellem Lernen zum Einsatz. Leistungsdaten der Spezial-Chips enthüllte Google erst im letzten Monat. Schon die erste TPU-Generation sorgte demnach für einen gewaltigen Leistungssprung bei Anwendungen mit trainierten neuronalen Netzen.

Die für künstliche Intelligenz optimierten Chips stehen heute hinter beantworteten Suchanfragen und unterstützen Dienste wie die Bildersuche, Google Photos und die Google-Cloud-Vision-API. Sie sollen auch erhebliche qualitative Verbesserungen von Google Translate im letzten Jahr ermöglicht haben. Nicht zuletzt hätten sie beim Sieg von Googles KI-Programm AlphaGo gegen den weltweit besten Spieler des klassischen asiatischen Brettspiels Go geholfen.

Google-Chef Sundar Pichai sieht in diesem Zusammenhang einen neuen Übergang im Computing – die Verlagerung von „Mobile first“ zu „AI first“. „Wie schon bei früheren Veränderungen zwingt uns das, unsere Produkte von Grund auf neu zu denken für eine Welt, die eine natürlichere, nahtlosere Interaktion mit Technologie ermöglichen“, schreibt er. Beispielhaft verweist er dabei auf die „sehende“ Kamera dank Google Lens sowie das per Sprache bedienbare und antwortende Smartphone.

ANZEIGE

So lassen sich Risiken bei der Planung eines SAP S/4HANA-Projektes vermeiden

Ziel dieses Ratgebers ist es, SAP-Nutzern, die sich mit SAP S/4HANA auseinandersetzen, Denkanstöße zu liefern, wie sie Projektrisiken bei der Planung Ihres SAP S/4HANA-Projektes vermeiden können.

Themenseiten: Forschung, Google, Künstliche Intelligenz, Mobile, Prozessoren

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Google stellt zweite Generation seiner AI-Plattform vor

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *