【发布时间】:2019-08-09 05:18:48
【问题描述】:
Dislcaimer:我之前从未使用过 openCV 或 openVINO,或者事实上任何接近 ML 的东西。然而,我一直在研究神经网络(在线阅读材料),因为我必须在边缘设备上使用英特尔的 openVINO。 以下是官方文档中关于将 openCV 与 openVINO 结合使用的内容(使用 openVINO 的推理引擎与 openCV)。
->使用openVINO的模型优化器优化预训练模型(创建IR文件对) 将这些 IR 文件用于
openCV's dnn.readnet() //this is where the inference engine gets set?
https://docs.openvinotoolkit.org/latest/_docs_install_guides_installing_openvino_raspbian.html
尝试挖掘更多并找到第三方参考。这里采取了一种差异化的方法。
->中间文件(不创建bin/xml,而是使用caffe模型文件)
->推理引擎使用以下行显式定义
net.setPreferableBackend(cv2.dnn.DNN_BACKEND_INFERENCE_ENGINE)
https://www.learnopencv.com/using-openvino-with-opencv/
现在我知道要使用 openCV,我们必须使用它的推理引擎和预训练模型。我想知道这两种方法中哪一种是正确(或首选)的一种,如果相反,我没有遗漏任何东西。
【问题讨论】:
-
我认为使用 OpenVINO 附带的 OpenCV,IE 后端是默认设置。至少在专门设置后端对我来说没有区别......但是使用“常规”openCV(没有可用的 IE)执行速度较慢,并且将后端显式设置为 IE 会导致错误(这很有意义)
标签: opencv neural-network conv-neural-network openvino