【问题标题】:How to let openvino inference engine fall back to system caffe, after converting the model with CustomLayerMapping.xml?使用 CustomLayerMapping.xml 转换模型后,如何让 openvino 推理引擎回退到系统 caffe?
【发布时间】:2018-07-23 07:48:16
【问题描述】:

所有推理都计划在cpu上进行。当我指定一个回退到系统 caffe 的层时,我已经成功地将模型与 IR 协调起来。但是,我应该如何编码和编译 cpp 代码,让它知道我要去用户后备层,以及在哪里可以找到 libcaffe。

【问题讨论】:

    标签: computer-vision intel inference-engine openvino


    【解决方案1】:

    不推荐回退到框架。

    当您的网络具有默认情况下推理引擎不支持的自定义层时,执行推理的受支持且有效的方法 - 实现您自己的层并为某些插件注册它们。更多关于如何为 CPU 和 GPU 执行此操作的详细信息,您可以通过此链接找到:https://software.intel.com/en-us/articles/OpenVINO-Custom-Layers-Support-in-Inference-Engine

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 2019-07-05
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2019-07-22
      • 1970-01-01
      • 1970-01-01
      相关资源
      最近更新 更多