Facebook stellt M2-M100 vor

Facebook AI stellt M2M-100 vor, ein mehrsprachiges maschinelles Übersetzungsmodell (MMT), das beliebige Worte in 100 Sprachen übersetzen soll.

Facebook AI hat einen neuen Meilenstein für  M2M-100 angekündigt und öffnet es der der Open Source Community. M2M-100 MMT gilt als genauer als andere Übersetzungsmodelle, weil es nicht Englisch als Vermittler verwenden muss.

In der Regel sind die Modelle auf Englisch zentriert. Die Übersetzung von Chinesisch ins Französische oder Chinesisch ins Spanische würde also vor dem endgültigen Bestimmungsort eine Übersetzung ins Englische erfordern.

Facebook argumentiert, dass direkte Übersetzungen zwischen Sprachen mehr Bedeutung erfassen und englisch-zentrierte Systeme beim Bilingual Evaluation Understudy (BLEU) Score um zehn Punkte übertreffen.

M2M-100 wird in 2.200 Sprachrichtungen trainiert. Wie Facebook mitteilte, wird es das Modell, das Training und die Evaluierungseinrichtung für M2M-100 auch für andere Forscher freigeben.

Facebook AI beschreibt das Verfahren so: „Um die Sprachen der verschiedenen Gruppen miteinander zu verbinden, haben wir eine kleine Anzahl von Brückensprachen identifiziert, bei denen es sich in der Regel um ein bis drei Hauptsprachen jeder Gruppe handelt. Im obigen Beispiel wären Hindi, Bengali und Tamil Brückensprachen für indoarische Sprachen. Dann haben wir parallele Trainingsdaten für alle möglichen Kombinationen dieser Brückensprachen ermittelt. Mit dieser Technik ergab unser Trainingsdatensatz am Ende 7,5 Milliarden parallele Datensätze, die 2.200 Richtungen entsprachen.“

Facebook hat in seinem Netzwerk maschinelle Übersetzung eingesetzt, aber die Erstellung separater KI-Modelle für jede Sprache und Aufgabe hat sich nicht verkauft. Immerhin führt Facebook jeden Tag 20 Milliarden Übersetzungen im Facebook News Feed aus.

Um das MMT-Modell zu trainieren, musste Facebook qualitativ hochwertige Satzpaare in mehreren Sprachen ohne Englisch neufassen. Es gibt mehr Übersetzungen ins Englische als direkt zwischen den Sprachen.

Letztendlich erstellte Facebook einen MMT-Datensatz von 7,5 Milliarden Satzpaaren in 100 Sprachen. Von da an schränkte Facebook die Paare auf qualitativ hochwertige und hohe Datenpaare ein. Statistisch seltene Übersetzungspaare wurden vermieden.

ANZEIGE

So reagieren Sie auf die gestiegene Nachfrage von Online-Videos – Wichtige Erkenntnisse und Trends

Der von zahlreichen Ländern wegen der Coronakrise eingeführte Lockdown und die damit verbundene soziale Distanzierung haben neue Rekorde im Online-Videoverkehr gebracht. Erfahren Sie in diesem Webinar, wie Sie Daten untersuchen und quantifizieren, um die Belastung von Netzwerken und CDNs einzuschätzen.

Themenseiten: Facebook, Translation

Fanden Sie diesen Artikel nützlich?
Content Loading ...
Whitepaper

Artikel empfehlen:

Neueste Kommentare 

Noch keine Kommentare zu Facebook stellt M2-M100 vor

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *