Speech API: Benutzeroberflächen durch Sprachfunktionen aufwerten

Die Java Speech API ermöglicht das Einbinden von Sprachtechnologie in Benutzerschnittstellen für javabasierte Applets und Anwendungen. Sie spezifiziert außerdem eine plattformübergreifende Schnittstelle zur Unterstützung von Sprachsteuerung, Diktiersystemen und Sprachsynthesizern. Zwei wichtige Sprachtechnologien werden von der Java Speech API unterstützt: Sprachsynthese und Spracherkennung.

Sprachsynthese

Sprachsynthese kehrt den Prozess der Spracherkennung um und erzeugt synthetische Sprache aus Text, der von einer Anwendung, einem Applet oder einem Benutzer generiert wird. Dies wird oft als Text-to-Speech-Technologie (TTS) bezeichnet.

Die wichtigsten Schritte beim Erzeugen von Sprache aus Text:

  • Strukturanalyse: Sie verarbeitet den Eingangstext, um festzustellen, wo Absätze, Sätze und andere Strukturen beginnen und enden. Für die meisten Sprachen werden auf dieser Stufe Zeichensetzung und Formatierungsinformationen festgelegt.
  • Text-Vorverarbeitung: Hier wird der Eingangstext auf bestimmte Konstruktionsmerkmale der Sprache untersucht. Im Englischen müssen beispielsweise Abkürzungen, Akronyme, Datumsangaben, Uhrzeiten, Zahlen, Währungsangaben, E-Mail-Adressen und viele andere Formen besonders behandelt werden. In anderen Sprachen müssen diese Formen ebenfalls gesondert verarbeitet werden, wobei für die meisten Sprachen noch weitere spezielle Anforderungen hinzukommen.

Das Ergebnis dieser beiden Schritte ist eine gesprochene Form des schriftlichen Textes. Hier zwei einfache Beispiele für den Unterschied zwischen geschriebenem und gesprochenem Text:


St. Mathews hospital is on Main St.
-> "Saint Mathews hospital is on Main street"


Add $20 to account 55374.
-> "Add twenty dollars to account five five, three seven four."

Die übrigen Schritte konvertieren den gesprochenen Text dann in Sprache.

  • Konvertierung von Text zu Phonemen: Jedes Wort wird in Phoneme konvertiert. Ein Phonem ist die klangliche Basiseinheit einer Sprache.
  • Prosodie-Analyse: Analysiert Satzstruktur, Wörter und Phoneme, um einen angemessenen Sprechrhythmus für den Satz zu bestimmen.
  • Audiosignalerzeugung: Verwendet die Phonem- und Prosodie-Informationen zum Erzeugen des Audiosignals für jeden Satz.

Sprachsynthesizer können bei jedem der oben beschriebenen Schritte Fehler machen. Das menschliche Ohr ist fabelhaft darauf geeicht, diese Fehler wahrzunehmen. Doch sorgfältige Entwicklerarbeit kann Fehler reduzieren und die Qualität der Sprachausgabe verbessern. Die Java Speech API und die Java Speech API Markup Language (JSML) bieten vielfältige Möglichkeiten, die Ausgabequalität eines Sprachsynthesizers weiterzuentwickeln.

Page: 1 2 3

ZDNet.de Redaktion

Recent Posts

Neue Backdoor: Bedrohung durch Malvertising-Kampagne mit MadMxShell

Bisher unbekannter Bedrohungsakteur versucht über gefälschte IP Scanner Software-Domänen Zugriff auf IT-Umgebungen zu erlangen.

5 Stunden ago

BSI-Studie: Wie KI die Bedrohungslandschaft verändert

Der Bericht zeigt bereits nutzbare Angriffsanwendungen und bewertet die Risiken, die davon ausgehen.

23 Stunden ago

KI-Wandel: Welche Berufe sich am stärksten verändern

Deutsche sehen Finanzwesen und IT im Zentrum der KI-Transformation. Justiz und Militär hingegen werden deutlich…

24 Stunden ago

Wie ein Unternehmen, das Sie noch nicht kennen, eine Revolution in der Cloud-Speicherung anführt

Cubbit ist das weltweit erste Unternehmen, das Cloud-Objektspeicher anbietet. Es wurde 2016 gegründet und bedient…

1 Tag ago

Dirty Stream: Microsoft entdeckt neuartige Angriffe auf Android-Apps

Unbefugte können Schadcode einschleusen und ausführen. Auslöser ist eine fehlerhafte Implementierung einer Android-Funktion.

1 Tag ago

Apple meldet Umsatz- und Gewinnrückgang im zweiten Fiskalquartal

iPhones und iPads belasten das Ergebnis. Außerdem schwächelt Apple im gesamten asiatischen Raum inklusive China…

1 Tag ago