【问题标题】:Vision Framework vs CoreML Model Class视觉框架与 CoreML 模型类
【发布时间】:2020-05-23 23:06:54
【问题描述】:

我有一个使用 CreateML 生成的 CoreML 模型。如果我将该模型拖放到 Xcode 中,它将自动为我创建一个类,我可以使用它来检测/分类图像。生成的类具有预测功能,它将返回类标签。

我的问题是,如果我可以使用自动生成的模型类对图像进行分类,那么我为什么要使用 Vision Framework 对图像进行分类,或者 Vision 框架将比自动生成的类方法提供什么好处。

【问题讨论】:

    标签: coreml vision


    【解决方案1】:

    将视觉视为一个更高层次的抽象,专门处理计算机视觉任务,Core ML 也可以做非视觉的事情(文本、音频、表格数据等)。

    Vision 使处理图像变得更容易一些。例如,您可以将 UIImage 与 Vision 一起使用,但 Core ML 首先要求您将图像转换为 CVPixelBuffer。 Vision 还提供了在将图像提供给 Core ML 之前如何调整/裁剪图像的选项。

    如果您要对图像执行多项计算机视觉任务,即不仅要运行 Core ML 模型,还要运行一些内置任务,例如人脸检测,使用 Vision 也很有意义。

    【讨论】:

    • 是视觉请求也更快,还是视觉框架在后台调用 model.predict() 是一样的?
    • 速度几乎一样。就像你说的,它也调用了model.predict()。
    • 好的,谢谢!有点跑题了,但你似乎有一些 coreML 知识。也许你可以在这里看看我的问题:stackoverflow.com/questions/63765266/…
    猜你喜欢
    • 2017-12-12
    • 2012-07-03
    • 2019-09-21
    • 2021-07-13
    • 1970-01-01
    • 1970-01-01
    • 2017-12-10
    • 2011-03-12
    • 2018-06-24
    相关资源
    最近更新 更多