【发布时间】:2018-07-23 07:48:16
【问题描述】:
所有推理都计划在cpu上进行。当我指定一个回退到系统 caffe 的层时,我已经成功地将模型与 IR 协调起来。但是,我应该如何编码和编译 cpp 代码,让它知道我要去用户后备层,以及在哪里可以找到 libcaffe。
【问题讨论】:
标签: computer-vision intel inference-engine openvino
所有推理都计划在cpu上进行。当我指定一个回退到系统 caffe 的层时,我已经成功地将模型与 IR 协调起来。但是,我应该如何编码和编译 cpp 代码,让它知道我要去用户后备层,以及在哪里可以找到 libcaffe。
【问题讨论】:
标签: computer-vision intel inference-engine openvino
不推荐回退到框架。
当您的网络具有默认情况下推理引擎不支持的自定义层时,执行推理的受支持且有效的方法 - 实现您自己的层并为某些插件注册它们。更多关于如何为 CPU 和 GPU 执行此操作的详细信息,您可以通过此链接找到:https://software.intel.com/en-us/articles/OpenVINO-Custom-Layers-Support-in-Inference-Engine。
【讨论】: