【问题标题】:Is realtime audio processing possible in iOS?在 iOS 中可以进行实时音频处理吗?
【发布时间】:2019-03-14 23:22:17
【问题描述】:

所以我计划构建一个应用程序,至少让我使用 iphone 上的麦克风通过耳机插孔将其转换为平衡的音频信号。问题是我不确定是否可以毫无延迟地将麦克风输入输出。我研究了 CoreAudio 和 AVFoundation,但看起来其中一个很快就会被弃用,而另一个可能太高而无法满足我的需求。我正在测试 AudioKit,但我只在 Windows 内的虚拟机上运行的模拟器中运行它,所以我可能会在实际设备上获得更好的结果(尽管我持怀疑态度,因为音频延迟与就像我通过窗口监控麦克风时一样)。

有没有人知道任何框架或任何东西可以使实时音频处理成为可能而不会太明显的延迟? 它甚至可能在 iOS 上还是操作系统开销太大?

从字面上看,任何答案都值得赞赏。

【问题讨论】:

    标签: ios iphone audio real-time audiokit


    【解决方案1】:

    我正在使用 AudioKit 进行实时音频处理。有一些小问题,但我能够设法将处理节点添加到实时麦克风录音中,并将它们几乎没有延迟地输出到扬声器。

    我遇到的一个值得注意的问题是 xcode 中的“调试”构建和“发布”构建之间的区别。发布版本编译需要更长的时间,但运行速度更快,从而减少了音频缓冲区处理的延迟。不过我的测试平台是旧的 ipad2,所以如果您使用的是较新的硬件,可能不会遇到这些问题。

    【讨论】:

    • 这听起来像是一个很大的解脱。如果您对设置做了任何花哨的设置或获得如此低延迟所需的任何东西,您是否有任何小代码 sn-ps 我可以查看?
    • hastebin.com/usogawufiq.cs 这是做 mic-to-speaker 的基础。但是直接复制粘贴是行不通的。你甚至不会有 SD 助推器。不过,您可以使用普通的 Booster 节点,也可以将其换成您选择的任何其他节点。基本上你只需要得到一个麦克风,将它发送到一个节点,然后 AudioKit.output = theNode。然后启动音频套件。更改 AK 设置也是可选的。
    猜你喜欢
    • 2019-01-01
    • 1970-01-01
    • 2012-03-07
    • 2021-01-21
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2018-03-05
    相关资源
    最近更新 更多