Facebook hat ergänzenden Quellcode für ein Projekt zu Künstlicher Intelligenz namens Torch angekündigt. Es macht mehrere Module und Programme etwa zu Verarbeitung natürlicher Sprache und Spracherkennung verfügbar. Als besonders wichtig beschreibt es einen Code, der schnelleres Lernen durch Convolutional Neural Networks (ConvNets) ermöglicht.
Solche ConvNets bilden biologische Prozesse künstlich durch eine überlappende Anordnung von Neuronen nach. Sie gelten als derzeit beste Methode für Objekt- und Gesichtserkennung, wenn der Code – wie bei Facebook der Fall – auf Grafikprozessoren zurückgreifen kann. Facebook nutzt dafür Nvidias CUDA. Zu seinen Quelltexten zählen auch Container, die parallelen Zugriff auf mehrere CPUs und somit auch paralleles Training ermöglichen.
„Weil verkürzte Trainingszeit dieser Modelle schnellere Forschung und Entwicklung bedeutet, haben wir beträchtlichen Aufwand in die Verbesserung von GPU-Convolution-Schichten gesteckt“, heißt es in Facebooks Ankündigung. „Diese Arbeit hat sich in bemerkenswerten Ergebnissen niedergeschlagen, nämlich einer Beschleunigung um Faktor 23,5 gegenüber dem schnellsten frei verfügbaren Code. Soweit uns bekannt, ist unser Code schneller als jeder öffentlich verfügbare Code fürs Training beliebter Architekturen, etwa typische tiefe ConvNets für Objekterkennung mit ImageNet-Datensätzen.“
Facebooks Ankündigung enthält weiterführende Hinweise zu vielen Details der Techniken. Offenkundig ist, dass nun auch andere Firmen seine schnellen Verfahren für Maschinelles Lernen nutzen können. Torch kommt etwa auch bei AMD, Google, Intel, Nvidia und Twitter zum Einsatz.
Offenlegung von Quelltexten eigener Software ist bei Facebook nicht ungewöhnlich. Im Dezember 2013 hatte es angekündigt, sein Engagement in diesem Feld noch systematisch auszubauen. Auch das Design seiner Server, Racks und anderer Rechenzentrumsausstattung ist Open Source.
Facebooks Forschung zur Künstlicher Intelligenz wird von Professor Yann LeCun von der New York University geleitet – einem weltweit anerkannten Fachmann auf diesem Gebiet. Seine AI Group verteilt sich auf drei Orte: die Zentrale im kalifornischen Menlo Park, eine Niederlassung in der Nähe des Instituts von LeCun in New York City und eine in der englischen Hauptstadt London.
Auch Google hat 2014 ein Labor für Künstliche Intelligenz eröffnet, das offiziell Quantum Artificial Intelligence Lab heißt. Es beschäftigt sich vor allem mit der Frage, ob ein Quantencomputer Probleme lösen können wird, an denen traditionelle Computer scheitern. Google hat auch den Technikpionier und Futuristen Ray Kurzweil eingestellt, der sich als Director of Engineering mit Maschinenlernen und Sprachverarbeitung beschäftigt.
[mit Material von Larry Dignan, ZDNet.com]
Tipp: Sind Sie ein Facebook-Experte? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Zwei Use-after-free-Bugs stecken in Picture In Picture und der WebGPU-Implementierung Dawn. Betroffen sind Chrome für…
Die durchschnittliche Lösegeldzahlung liegt bei 2,5 Millionen Dollar. Acht Prozent der Befragten zählten 2023 mehr…
Eine neue Analyse der EU-Kommission sieht vor allem eine hohe Verbreitung von iPadOS bei Business-Nutzern.…
Das operative Ergebnis wächst um fast 6 Billionen Won auf 6,64 Billionen Won. Die Gewinne…
Ab Werk blockiert Chrome Cookies von Dritten nun frühestens ab Anfang 2025. Unter anderem gibt…
Die Vorfreude steigt, denn BAUMLINK wird als Partner und Aussteller bei der Tech Show 2024…