hi,
最近在产品有需求将录音识别成语音,考察了很多家,都有坑。
在调研讯飞API的过程中,讯飞没有Node.js的SDK。于是花了一天时间做了一个。底层使用的是科大讯飞Linux SDK。
已经发布到npmjs.org.
```
https://www.npmjs.com/package/xfy-node
```
目前仅支持了iat(听写)方法。眼下业务也是只用IAT,所以,只讨论IAT的情况。同时,还做了一个使用这个包的例子:
```
http://git.oschina.net/ubiware/xfy-node-getstarted
```
## 目前遇到的问题是:识别得很不准确。
我们的业务是英语教育,语音识别都是英语的。在上面的例子中,根据README.md运行程序,就可以重现。例子程序的语音资源在"data.voices"中,没有一个被准确识别。
配置项是:
```
let params = {
username: null, // 账号名称
password: null, // 账号密码
appid: '5864ae2d', // AppID
// 语言
// zh_cn:简体中文
// zh_tw:繁体中文
// en_us:英语
// 默认为zh_cn
lang: 'en_us',
// 口音
// mandarin:普通话
// cantonese:粤语
// 默认为mandarin
accent: 'mandarin',
// 音频格式
// 8000, 16000, 默认为16000
sample_rate: 16000,
// 音频文件位置,绝对路径
audio_file: `/data.vioces/${file_name}`
}
```
另外,运行**linux sdk**的sample/iat,没有使用上传字典,是可以准确识别的。
所以,我也怀疑是不是还有一些参数没有设置。
有没有人帮帮忙?
Hai Liang Wang@SnapLingo
|