Spracherkennung ermöglicht Computern das Hören gesprochener Sprache und die Analyse dessen, was gesagt wurde. Mit anderen Worten: Hier wird ein Audiosignal, das Sprache enthält, in Text umgewandelt.
Die wichtigsten Schritte einer typischen Spracherkennung:
Eine Grammatik ist ein Objekt in der Java Speech API. Sie gibt an, welche Wörter ein Benutzer voraussichtlich sprechen wird und in welchen Mustern diese Wörter vorkommen. Grammatiken sind wichtig für Spracherkenner, weil sie den Erkennungsprozess beschränken. Diese Beschränkungen beschleunigen die Erkennung und machen sie präziser, weil der Spracherkenner nicht mit exotischen Satzkonstruktionen rechnen muss.
Die Java Speech API unterstützt zwei grundlegende Arten von Grammatiken: Regel-Grammatiken und Diktier-Grammatiken. Diese Grammatiken unterscheiden sich in vielfältiger Weise, unter anderem darin, wie Anwendungen die Grammatiken einrichten, in der Art der zulässigen Sätze, wie Ergebnisse bereitgestellt werden, im Umfang der erforderlichen Computerressourcen und wie sie bei der Anwendungsentwicklung zum Einsatz kommen.
Die Klassen und Schnittstellen der Java Speech API
Die unterschiedlichen Klassen und Schnittstellen, aus denen die Java Speech API besteht, sind in den folgenden drei Paketen gruppiert.
Die Central-Klasse ist so etwas wie eine Factory-Klasse, die alle Java-Speech-API-Applikationen verwenden. Sie stellt statische Methoden für den Zugriff auf die Engines für Sprachsynthese und Spracherkennung bereit. Die Engine-Schnittstelle beinhaltet allgemeine Operationen, die eine Java-Speech-API-konforme Sprach-Engine den Sprachanwendungen zur Verfügung stellen sollte.
Sprachanwendungen verwenden Methoden in erster Linie, um beispielsweise Aktionen wie das Abrufen der Eigenschaften oder des Status der Sprach-Engine durchzuführen oder einer Sprach-Engine entsprechende Ressourcen zuzuweisen und wieder zu entziehen. Darüber hinaus stellt die Engine-Schnittstelle Mechanismen bereit, um den Audiostream, der von der Sprach-Engine erzeugt oder verarbeitet wird, anzuhalten und weiter abzuspielen.
Die Engine-Schnittstelle unterteilt sich in weitere Klassen, die Synthesizer- und die Recognizer-Schnittstelle. Diese definieren zusätzliche Funktionen für Sprachsynthese und Spracherkennung. Die Synthesizer-Schnittstelle impliziert jene Operationen, die eine Java-Speech-API-konforme Sprachsynthese-Engine den Sprachanwendungen zur Verfügung stellen sollte.
Die Java Speech API basiert auf dem Event-Handling-Modell von AWT-Komponenten. Ereignisse, die von der Sprach-Engine erzeugt werden, können entsprechend erkannt und verarbeitet werden. Hierzu gibt es zwei Möglichkeiten: über die Schnittstelle EngineListener oder über die Klasse EngineAdapter.
Weitere Informationen über alle Klassen und Schnittstellen finden sich in den Java Speech API Javadocs.
Nutzung einer unternehmenseigenen GPT-Umgebung für sicheren und datenschutzkonformen Zugriff.
Der Umsatz steigt um 15 Prozent, der Nettogewinn um 57 Prozent. Im nachbörslichen Handel kassiert…
Aus 61,9 Milliarden Dollar generiert das Unternehmen einen Nettoprofit von 21,9 Milliarden Dollar. Das größte…
Mehr Digitalisierung wird von den Unternehmen gefordert. Für KMU ist die Umsetzung jedoch nicht trivial,…
Der Nettoprofi wächst um 117 Prozent. Auch beim Umsatz erzielt die Facebook-Mutter ein deutliches Plus.…
Vom Standpunkt eines Verbrauchers aus betrachtet, stellt sich die Frage: Wie relevant und persönlich sind…