Google DeepMind meldet Durchbruch bei sprechendem Computersystem

WaveNet klingt um etwa 50 Prozent besser als bisherige Text-to-Speech-Systeme von Google. Das neuronale Netz wurde mit Stimmen unterschiedlicher Sprecher trainiert. Das verbessert die Qualität auch für einzelne Stimmen, was auf eine Art Transferdenken der Künstlichen Intelligenz schließen lässt.

Googles britisches Labor für Künstliche Intelligenz namens DeepMind meldet eine deutliche Verbesserung im Bereich computergenerierter Sprache. Sein System WaveNet übertreffe bisherige Text-to-Speech-Systeme (TTS) von Google um etwa 50 Prozent und verringere damit den Unterschied zu echten Menschen deutlich.

Diese Erfolge wies DeepMind sowohl für die englische Sprache wie auch Hochchinesisch (Mandarin) nach. Zudem könne sein System nahtlos zwischen Stimmen wechseln und auch Musik realistisch imitieren.

Auf einer Skala von 1 bis 5 klingt WaveNet natürlicher als konkatenative und parametrische TTS-Systeme von Google (Bild: DeepMind).Auf einer Skala von 1 bis 5 klingt WaveNet natürlicher als konkatenative und parametrische TTS-Systeme von Google (Bild: DeepMind).

In dem neuen Forschungsbericht heißt es, die derzeit besten TTS-Systeme seien nach allgemeiner Ansicht die der Kollegen von Google. Sie basierten auf „Sprachfragmenten“ eines einzelnen menschlichen Sprechers, die dann zu computergenerierten Äußerungen verbunden würden. Dieser Ansatz, der auch als TTS durch Konkatenation oder Verkettung bezeichnet wird, kann zwar natürlich klingende gesprochene Sprache produzieren, ist aber typischerweise auf eine einzige Stimme beschränkt. Diese Limitierung versucht so genanntes parametrisches TTS zu überwinden, das auf einem Codec-Synthesizer basiert. Es gilt bisher aber als weniger echt klingend.

WaveNet verwendet hingegen einen Maschinenlernen-Ansatz: Es wird mit Audio-Rohdaten mehrerer Sprecher geschult. Als neuronales Netz modelliert es diese Signale zu synthetischen Äußerungen um. „Die Verwendung von Rohdaten der Tonschwingungen ergibt nicht nur natürlicher klingende Sprache, sie führt auch dazu, dass WaveNet jede Art Audio nachmodellieren kann, einschließlich Musik“, schreibt DeepMind in einem Blogbeitrag.

WaveMind könne auch die Eigenheiten einzelner Sprecher samt Atmung und Mundbewegungen nachbilden und sowohl mit männlichen wie auch weiblichen Stimmen sprechen, heißt es. In seinem Blog legt das Forschungslabor einige Hörproben vor, und zwar in Englisch und Hochchinesisch.

ANZEIGE

SAS Viya: Analytics dort hinbringen, wo sie gebraucht wird

Die digitale Transformation ist heute Realität. Und krempelt Unternehmen und ganze Branchen um, die sich komplett neue Geschäftsmodelle überlegen müssen. Bei Analytics, der Kerntechnologie der digitalen Transformation, ist deshalb maximale Flexibilität gefragt. Und höchstes Tempo. Starre Architekturen stehen der Innovation immer öfter im Weg. Mit SAS Viya geht SAS einen neuen Weg: Analytics flexibel, zugänglich und offen in der Cloud.

Die Forscher schreiben auch, sie hätten das Netzwerk auf die Identität bestimmter Sprecher hin konditioniert, damit es immer wisse, welche Stimme es verwenden solle. Das Training mit Material unterschiedlicher Sprecher habe aber die Qualität auch bei der Modellierung einer einzelnen Stimme verbessert. „Das legt eine Art Transferdenken nahe“, heißt es.

Vorerst benötigt WaveNet gewaltige Datenmengen und Rechenkraft. Für die Modellierung von Audio-Rohdaten setzt DeepMind mindestens 16.000 Samples pro Sekunde an. Dieser Ansatz sei aber für ein realistisches Ergebnis nötig gewesen. Die Forscher hoffen, ihren Ansatz mit geringer Mühe auf Musik und Spracherkennung übertragen zu können.

[mit Material von Liam Tung, ZDNet.com]

Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit 15 Fragen auf ITespresso.de.

Neueste Kommentare 

Noch keine Kommentare zu Google DeepMind meldet Durchbruch bei sprechendem Computersystem

Kommentar hinzufügen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *