Facebook hat ergänzenden Quellcode für ein Projekt zu Künstlicher Intelligenz namens Torch angekündigt. Es macht mehrere Module und Programme etwa zu Verarbeitung natürlicher Sprache und Spracherkennung verfügbar. Als besonders wichtig beschreibt es einen Code, der schnelleres Lernen durch Convolutional Neural Networks (ConvNets) ermöglicht.
Solche ConvNets bilden biologische Prozesse künstlich durch eine überlappende Anordnung von Neuronen nach. Sie gelten als derzeit beste Methode für Objekt- und Gesichtserkennung, wenn der Code – wie bei Facebook der Fall – auf Grafikprozessoren zurückgreifen kann. Facebook nutzt dafür Nvidias CUDA. Zu seinen Quelltexten zählen auch Container, die parallelen Zugriff auf mehrere CPUs und somit auch paralleles Training ermöglichen.
„Weil verkürzte Trainingszeit dieser Modelle schnellere Forschung und Entwicklung bedeutet, haben wir beträchtlichen Aufwand in die Verbesserung von GPU-Convolution-Schichten gesteckt“, heißt es in Facebooks Ankündigung. „Diese Arbeit hat sich in bemerkenswerten Ergebnissen niedergeschlagen, nämlich einer Beschleunigung um Faktor 23,5 gegenüber dem schnellsten frei verfügbaren Code. Soweit uns bekannt, ist unser Code schneller als jeder öffentlich verfügbare Code fürs Training beliebter Architekturen, etwa typische tiefe ConvNets für Objekterkennung mit ImageNet-Datensätzen.“
Facebooks Ankündigung enthält weiterführende Hinweise zu vielen Details der Techniken. Offenkundig ist, dass nun auch andere Firmen seine schnellen Verfahren für Maschinelles Lernen nutzen können. Torch kommt etwa auch bei AMD, Google, Intel, Nvidia und Twitter zum Einsatz.
Offenlegung von Quelltexten eigener Software ist bei Facebook nicht ungewöhnlich. Im Dezember 2013 hatte es angekündigt, sein Engagement in diesem Feld noch systematisch auszubauen. Auch das Design seiner Server, Racks und anderer Rechenzentrumsausstattung ist Open Source.
Facebooks Forschung zur Künstlicher Intelligenz wird von Professor Yann LeCun von der New York University geleitet – einem weltweit anerkannten Fachmann auf diesem Gebiet. Seine AI Group verteilt sich auf drei Orte: die Zentrale im kalifornischen Menlo Park, eine Niederlassung in der Nähe des Instituts von LeCun in New York City und eine in der englischen Hauptstadt London.
Auch Google hat 2014 ein Labor für Künstliche Intelligenz eröffnet, das offiziell Quantum Artificial Intelligence Lab heißt. Es beschäftigt sich vor allem mit der Frage, ob ein Quantencomputer Probleme lösen können wird, an denen traditionelle Computer scheitern. Google hat auch den Technikpionier und Futuristen Ray Kurzweil eingestellt, der sich als Director of Engineering mit Maschinenlernen und Sprachverarbeitung beschäftigt.
[mit Material von Larry Dignan, ZDNet.com]
Tipp: Sind Sie ein Facebook-Experte? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.
Recall hilft beim Auffinden von beliebigen Dateien und Inhalten. Die neue Funktion führt Microsoft zusammen…
Es tritt auch unter Windows Server auf. Seit Installation der April-Patches treten Fehlermeldungen bei VPN-Verbindungen…
Das neue Release soll es allen Mitarbeitenden möglich machen, zur Ausgestaltung der IT beizutragen.
Check Point warnt vor offener Schwachstelle, die derzeit von Hackern für Phishing ausgenutzt wird.
Video-Babyphones sind ebenfalls betroffen. Cyberkriminelle nehmen vermehrt IoT-Hardware ins Visier.
Der Downloader hat hierzulande im April einen Anteil von 18,58 Prozent. Im Bereich Ransomware ist…