Facebook macht Code für schnelleres Maschinelles Lernen quelloffen

Besonders preist es eine Eigenentwicklung für Nvidia-GPUs: Facebook spricht von einer Steigerung um Faktor 23,5 gegenüber der bisher schnellsten frei verfügbaren Lösung. Die Quelltexte ergänzen das Torch-Projekt.

Facebook hat ergänzenden Quellcode für ein Projekt zu Künstlicher Intelligenz namens Torch angekündigt. Es macht mehrere Module und Programme etwa zu Verarbeitung natürlicher Sprache und Spracherkennung verfügbar. Als besonders wichtig beschreibt es einen Code, der schnelleres Lernen durch Convolutional Neural Networks (ConvNets) ermöglicht.

(Bild: Facebook)

Solche ConvNets bilden biologische Prozesse künstlich durch eine überlappende Anordnung von Neuronen nach. Sie gelten als derzeit beste Methode für Objekt- und Gesichtserkennung, wenn der Code – wie bei Facebook der Fall – auf Grafikprozessoren zurückgreifen kann. Facebook nutzt dafür Nvidias CUDA. Zu seinen Quelltexten zählen auch Container, die parallelen Zugriff auf mehrere CPUs und somit auch paralleles Training ermöglichen.

„Weil verkürzte Trainingszeit dieser Modelle schnellere Forschung und Entwicklung bedeutet, haben wir beträchtlichen Aufwand in die Verbesserung von GPU-Convolution-Schichten gesteckt“, heißt es in Facebooks Ankündigung. „Diese Arbeit hat sich in bemerkenswerten Ergebnissen niedergeschlagen, nämlich einer Beschleunigung um Faktor 23,5 gegenüber dem schnellsten frei verfügbaren Code. Soweit uns bekannt, ist unser Code schneller als jeder öffentlich verfügbare Code fürs Training beliebter Architekturen, etwa typische tiefe ConvNets für Objekterkennung mit ImageNet-Datensätzen.“

Facebooks Ankündigung enthält weiterführende Hinweise zu vielen Details der Techniken. Offenkundig ist, dass nun auch andere Firmen seine schnellen Verfahren für Maschinelles Lernen nutzen können. Torch kommt etwa auch bei AMD, Google, Intel, Nvidia und Twitter zum Einsatz.

Offenlegung von Quelltexten eigener Software ist bei Facebook nicht ungewöhnlich. Im Dezember 2013 hatte es angekündigt, sein Engagement in diesem Feld noch systematisch auszubauen. Auch das Design seiner Server, Racks und anderer Rechenzentrumsausstattung ist Open Source.

Facebooks Forschung zur Künstlicher Intelligenz wird von Professor Yann LeCun von der New York University geleitet – einem weltweit anerkannten Fachmann auf diesem Gebiet. Seine AI Group verteilt sich auf drei Orte: die Zentrale im kalifornischen Menlo Park, eine Niederlassung in der Nähe des Instituts von LeCun in New York City und eine in der englischen Hauptstadt London.

Auch Google hat 2014 ein Labor für Künstliche Intelligenz eröffnet, das offiziell Quantum Artificial Intelligence Lab heißt. Es beschäftigt sich vor allem mit der Frage, ob ein Quantencomputer Probleme lösen können wird, an denen traditionelle Computer scheitern. Google hat auch den Technikpionier und Futuristen Ray Kurzweil eingestellt, der sich als Director of Engineering mit Maschinenlernen und Sprachverarbeitung beschäftigt.

[mit Material von Larry Dignan, ZDNet.com]

Tipp: Sind Sie ein Facebook-Experte? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.

Themenseiten: Anwendungsentwicklung, Facebook, Open Source, Suchmaschine

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Facebook macht Code für schnelleres Maschinelles Lernen quelloffen

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *