【发布时间】:2021-10-15 05:18:58
【问题描述】:
我一直在尝试确定是否可以集成 CoreML 模型以创建自定义 AudioKit 效果节点。我很好奇之前是否有人尝试过这个,以及他们是否有一些资源来确保我正确地解决了这个问题。
目前,我创建了一个自定义 AudioKit 节点,它加载我的模型并缓冲帧,直到有足够的帧可用于执行预测。一旦输入有足够的数据,它就会加载到 MLMultiarray 并传递给模型以执行预测......但我相信预测调用会阻塞音频线程,所以这绝对不是正确的方法......我想。
我不确定使用 GCD 是否合适,但我目前正在尝试对此进行测试...
希望有人可能有一些见解或资源来帮助实现这一目标,当然利用 DSP 的神经引擎会很棒 :) 到目前为止我所看到的一切都只是关于分类,而不是 DSP。
【问题讨论】:
标签: signal-processing audiokit coreml