【发布时间】:2020-10-09 04:20:52
【问题描述】:
我知道如何使用 CoreML 库来训练模型并使用它。但是,我想知道是否可以为模型提供不止一张图像,以便它更准确地识别它。
这样做的原因是因为我正在尝试构建一个对组织切片进行分类的应用程序,但是,它们中的许多看起来非常相似,所以我想也许我可以以不同的放大倍率输入模型图像,以便制作鉴别。有可能吗?
谢谢, 迈赫迪
【问题讨论】:
标签: classification coreml
我知道如何使用 CoreML 库来训练模型并使用它。但是,我想知道是否可以为模型提供不止一张图像,以便它更准确地识别它。
这样做的原因是因为我正在尝试构建一个对组织切片进行分类的应用程序,但是,它们中的许多看起来非常相似,所以我想也许我可以以不同的放大倍率输入模型图像,以便制作鉴别。有可能吗?
谢谢, 迈赫迪
【问题讨论】:
标签: classification coreml
是的,这是一种常见的技术。您可以为 Core ML 提供不同比例的图像,或者使用来自同一张较大图像的不同裁剪。
一种典型的方法是采用 4 个角落裁剪和 1 个中心裁剪,然后水平翻转它们,这样您总共有 10 张图像。然后将这些作为批次提供给 Core ML。 (也许在您的情况下,垂直翻转作物也是有意义的。)
要获得最终预测,请取所有图像的预测概率的平均值。
请注意,为了使用不同尺寸的图像,模型必须配置为支持“尺寸灵活性”。并且它还必须在不同尺寸的图像上进行训练才能获得良好的效果。
【讨论】: