【问题标题】:MxNet for Embedded device inference用于嵌入式设备推理的 MxNet
【发布时间】:2018-03-09 02:42:04
【问题描述】:

有没有办法将 MxNet 模型直接部署到嵌入式设备?作为“嵌入式”,目标是拥有超轻量级,可选择针对 ARM/neon 进行优化。

【问题讨论】:

    标签: mxnet


    【解决方案1】:

    是的,这里是逐步解释如何运行 MxNet 推理 ARM 设备(在这种情况下为 Raspberry Pi)的教程 - https://mxnet.incubator.apache.org/tutorials/embedded/wine_detector.html

    【讨论】:

    • 谢谢。但我真的希望有一些嵌入式的东西,即针对 ARM/Neon 平台优化的 C++ 代码示例。
    • 我认为没有关于如何为 ARM/ Neon 平台编写高性能代码的具体指导。但至于轻量级,看看那个项目 - github.com/apache/incubator-mxnet/tree/master/amalgamation 它将所有预测 api 合并到一个文件中,使其更加轻量级
    • 但值得关注的是共享对象文件很大!上次我检查它大约是 100 MB,对于嵌入式设备来说不是一件好事。
    猜你喜欢
    • 1970-01-01
    • 2016-03-06
    • 1970-01-01
    • 2011-03-07
    • 2010-10-05
    • 2016-02-15
    • 2019-07-11
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多