Google-Forscher haben eine Spracherkennung geschaffen (PDF), die auf einem Smartphone „schneller als in Echtzeit“ läuft, ohne dass dafür eine Verbindung zu einem Server nötig wäre. Das nur 20,3 MByte große Programm wurde auf dem Google Nexus 5 mit 2,26 GHz schneller CPU und 2 GByte RAM getestet. Die Quote falsch erkannter Wörter betrug bei einem Testdiktat mit offenem Ende 13,5 Prozent.
Um möglichst wenig Speicherplatz zu belegen, entwickelten die Forscher ein einheitliches Modell für Diktate und Sprachbefehle – zwei eigentlich sehr verschiedene Bereiche. Durch Kompression verkleinerten sie ihr Akustikmodell zudem auf ein Zehntel des ursprünglichen Umfangs.
Die Forscher weisen darauf hin, dass Offline-Spracherkennungssysteme durchaus heute schon mit Befehlen wie „Schreib eine E-Mail an Darnica Cumberland: Können wir den Termin verschieben?“ umgehen können. Dazu fertigen sie aber zunächst eine Transkription an und führen die Funktion erst später aus, ohne dass dies dem User normalerweise bewusst werde. Das liege daran, dass eine präzise Erfassung persönliche Daten wie den Namen des Adressaten erfordere. Aufgrund dieser Überlegung habe man die Kontaktliste des Smartphones direkt ins Modell der neuen Offline-Erkennung eingebaut.
Im Rahmen der von techconsult im Auftrag von ownCloud und IBM durchgeführten Studie wurde das Filesharing in deutschen Unternehmen ab 500 Mitarbeitern im Kontext organisatorischer, technischer und sicherheitsrelevanter Aspekte untersucht, um gegenwärtige Zustände, Bedürfnisse und Optimierungspotentiale aufzuzeigen. Jetzt herunterladen!
Trainiert wurde das System mit drei Millionen Eingaben aus Googles Sprachsuche, die zusammen etwa 2000 Stunden Sprechzeit ausmachten. Ergänzend reicherten die Forscher diese Proben mit unterschiedlichem Rauschen an, das sie Youtube-Videos entnommen hatten. Ihr ursprüngliches Akustikmodell war rund 80 MByte groß.
Bis die im Labor erprobte Offline-Erkennung in Googles Android-Apps einzieht, dürfte es aber noch eine Weile dauern. Zuletzt verbesserte Google im September 2015 seine Spracherkennung, indem es neue Algorithmen einführte, die es ebenfalls mit Hilfe eines rekurrenten neuronalen Netzes entwickelt hatte. Sie stecken heute in den Such-Apps für Android und iOS und erkennen ganze Blöcke an Lautfolgen – bei reduziertem Berechnungsaufwand. Die Systematik scheint mit der jetzt applizierten eng verwandt: So wurde auch dieses selbstlernende System durch künstliches Rauschen und Echos gegen Umgebungsgeräusche abgehärtet.
[mit Material von Liam Tung, ZDNet.com]
Tipp: Wie gut kennen Sie Google? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Zwei Use-after-free-Bugs stecken in Picture In Picture und der WebGPU-Implementierung Dawn. Betroffen sind Chrome für…
Die durchschnittliche Lösegeldzahlung liegt bei 2,5 Millionen Dollar. Acht Prozent der Befragten zählten 2023 mehr…
Eine neue Analyse der EU-Kommission sieht vor allem eine hohe Verbreitung von iPadOS bei Business-Nutzern.…
Das operative Ergebnis wächst um fast 6 Billionen Won auf 6,64 Billionen Won. Die Gewinne…
Ab Werk blockiert Chrome Cookies von Dritten nun frühestens ab Anfang 2025. Unter anderem gibt…
Die Vorfreude steigt, denn BAUMLINK wird als Partner und Aussteller bei der Tech Show 2024…