【发布时间】:2016-10-28 07:13:20
【问题描述】:
是否可以使用示例数据训练 Google Speech API 以帮助在我的应用程序中进行识别?
我的意思是一种类似于 wit.ai 提供并描述为here 的方法(即使该示例适用于 nlp 处理)。基本上,如果您可以预测用户将与您的机器人进行的交互,您可以训练它以更好地执行。例如,我知道将使用的城市子集,例如:当我说Zurich 时,我似乎无法让机器人理解我,它变成了Syria 或Siberia,但我已经知道这是不可能的。因此,假设我可以先上传要使用的首选单词列表,然后如果找不到匹配项,则回退到标准识别或其他类似方法,我认为它会取得更好的结果。
知道是否可能以及如何实现?我知道这些 API 处于测试阶段,可能会发生变化,但我仍然想尝试一下。
我可以上传一些我目前正在做的代码示例,尽管到目前为止它只是发送音频并分析结果,所以并没有真正接近这个问题。
【问题讨论】:
标签: google-api speech-recognition