Question

J'ai juste besoin d'une bibliothèque de reconnaissance vocale à Linux.Ensuite, je choisis CMU Sphinx et utilisez PocketsPhinx avec Python.Je teste que Démo .Cet exemple fonctionne bien sur mon ordinateur avec une précision médiocre.


Je sais que j'ai besoin d'un modèle de langue et je l'ai téléchargé.Alors, comment définir mon pochettePhinx utilise ce "lm".Je veux dire, comment résoudre ce fichier de démonstration pour utiliser ce modèle de langue.(et modèle acoustique.)

Merci beaucoup!

Était-ce utile?

La solution

Le modèle de langue est configuré via la propriété du composant PocketsPhinx Gstreamer.Au lieu de

   gst.parse_launch('gconfaudiosrc ! audioconvert ! audioresample '
                    + '! vader name=vad auto-threshold=true '
                    + '! pocketsphinx name=asr ! fakesink')

utiliser

   gst.parse_launch('gconfaudiosrc ! audioconvert ! audioresample '
                    + '! vader name=vad auto-threshold=true '
                    + '! pocketsphinx lm=<your_file.lm> name=asr ! fakesink')

Vous pouvez également configurer d'autres propriétés du composant PocketsPhinx.Utilisez la GST-Inspect pour lire la liste.

Licencié sous: CC-BY-SA avec attribution
Non affilié à StackOverflow
scroll top