【发布时间】:2017-09-24 12:05:16
【问题描述】:
我需要将缓冲区音频文件 .m4a 转换为缓冲区音频文件 .wav 以通过 NodeJS 发送到谷歌语音 api
var toWav = require('audiobuffer-to-wav')
var xhr = require('xhr')
var context = new AudioContext()
// request the MP3 as binary
xhr({
uri: 'audio/track.mp3',
responseType: 'arraybuffer'
}, function (err, body, resp) {
if (err) throw err
// decode the MP3 into an AudioBuffer
audioContext.decodeAudioData(resp, function (buffer) {
// encode AudioBuffer to WAV
var wav = toWav(buffer)
// do something with the WAV ArrayBuffer ...
})
})
我有错误
AudioContext is not defined
【问题讨论】:
-
然后会发生什么?
-
所以我尝试使用 audiobuffer-to-wav 但 AudioContext() 是错误的
-
具体是什么错误?
-
AudioContext is not definedaudiobuffer-to-wav -
nodejs中没有AudioContext。我认为你需要使用这个库客户端。
标签: node.js buffer google-speech-api