AWS kündigt KI-Chip und neue Dienste für maschinelles Lernen an

Der selbst entwickelte Chip Inferentia kann laut AWS die Kosten für KI-Anwendungen reduzieren. Neue KI-Dienste sollen Intelligenz in Apps bringen, ohne ML-Erfahrungen vorauszusetzen. Der Machine-Learning Service Amazon SageMaker erhält neue Funktionalitäten.

Amazons Cloudsparte entwickelt einen eigenen Spezial-Prozessor für maschinelles Lernen. Amazon Web Services (AWS) verspricht drastisch reduzierte Kosten für Anwendungen der künstlichen Intelligenz durch seinen maßgeschneiderten Chip AWS Inferentia, der gegen Ende 2019 zu erwarten ist. Wie bei anderen AWS-Diensten werden die Kunden entsprechend ihrer jeweiligen Nutzung bezahlen können.

Amazon Web Services (Bild: Amazon)

AWS folgt mit Inferentia dem Vorbild Googles, das schon seit 2015 seine für künstliche Intelligenz optimierte Tensor Processing Unit (TPU) zur Beschleunigung von maschinellem Lernen einsetzt und im letzten Jahr bereits ihre zweite Generation als Cloud TPUs vorstellte. Auch die Cloudsparte des E-Commerce-Riesen Alibaba, laut Gartner der größte Anbieter von Public-Cloud-Diensten in China, hat einen eigenen KI-Chip angekündigt.

Während Googles TPU-Chips mit Nvidia beim Trainieren von Machine-Learning-Modellen konkurrieren, konzentriert sich AWS mit Inferentia auf Inferenz, also das Schlussfolgern neuer Aussagen aus einer Wissensbasis. Laut AWS können Kunden Inferentia mit der von Google geschaffenen KI-Software TensorFlow wie auch mit anderen KI-Frameworks nutzen. Der selbstentwickelte Chip für ML-Inferenzen liefert AWS zufolge Hunderte von Teraflops pro Chip und Tausende von Teraflops pro Amazon-EC2-Instanz.

Auf seiner Technologiekonferenz re:Invent 2018 in Las Vegas hat AWS außerdem 13 neue Machine-Learning-Dienste und -Funktionalitäten angekündigt. Das ab sofort verfügbare Amazon Elastic Inference soll Entwicklern helfen, die Kosten für Inferenz um bis 75 Prozent zu reduzieren im Vergleich zur Verwendung einer dedizierten GPU-Instanz. Ebenfalls sofort verfügbar ist ein AWS-optimiertes TensorFlow-Framework für schnellere ML-Trainings.

In der nächsten Woche werden neue GPU-Instanzen der Amazon Elastic Compute Cloud (EC2) verfügbar. AWS bezeichnet sie als die leistungsfähigsten in der Cloud verfügbaren Instanzen, mit denen Entwickler Modelle mit mehr Daten in kürzerer Zeit trainieren können.

Neue Funktionalitäten kommen für Amazon SageMaker, einer vollständig verwalteten Plattform für das Erstellen, Trainieren und Bereitstellen von Machine-Learning-Modellen. Amazon SageMaker Ground Truth soll das Labeling von ML-Trainingsdaten vereinfachen. Der AWS Marketplace for Machine Learning umfasst Algorithmen und Modelle, die auf SageMaker bereitgestellt und von Entwicklern verwendet werden können. Als erster Cloudservice für Reinforcement Learning (RL) kommt Amazon SageMaker RL. Mit Hilfe von SageMaker-trainierten RL-Modellen soll AWS DeepRacer fahren, ein autonomes Rennauto im Maßstab 1:18. Amazon SageMaker Neo ist ein neuer Compiler für Deep-Learning-Modelle, der Kunden nach einmaligem Training von Modellen eine Ausführung mit bis zu doppelter Leistungssteigerung erlauben soll.

Neue KI-Dienste sollen außerdem Intelligenz in Apps bringen, ohne Erfahrungen in maschinellem Lernen vorauszusetzen. Amazon Textract liest gescannte Dokumente, um Text und Daten zu extrahieren. Amazon Comprehend Medical erkennt die Inhalte medizinischer Texte mit Natural Language Processing (NLP). Amazon Personalize generiert in Echtzeit personalisierte Empfehlungen und Suchergebnisse.

Themenseiten: AWS, Amazon, Cloud-Computing, KI, Prozessoren

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

ZDNet für mobile Geräte
ZDNet-App für Android herunterladen ZDNet-App für iOS

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu AWS kündigt KI-Chip und neue Dienste für maschinelles Lernen an

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *