【问题标题】:NN model format conversion tflite -> onnxNN模型格式转换 tflite -> onnx
【发布时间】:2020-05-19 16:14:55
【问题描述】:

我想将托管模型TensorFlow-Lite hosted models 主要是移动网络转换为 ONNX 格式。所以我想尝试这些托管模型的量化版本并使用onnx-runtime 运行它们。

将这些模型转换为onnx-runtime 使用的正确程序是什么?

【问题讨论】:

    标签: tensorflow onnxruntime


    【解决方案1】:

    我对 ONNX 很陌生,但根据他们的官方 tutorial page,没有 TFLite 到 ONNX 转换器。

    您仍然可以使用 TensorFlow -> ONNX 转换路径。当您下载其中一个 TFLite 托管模型时,您将获得一个存档,其中包含用于转换的原始 TensorFlow 冻结图 (xxx_frozen.pb),以及转换后的.tflite。您可以采用冻结的图形格式并将其输入 TensorFlow-ONNX 转换器,如下所示:

    https://github.com/onnx/tensorflow-onnx#getting-started

    【讨论】:

      【解决方案2】:

      有一个 tflite 到 onnx 的转换器。我已经尝试过了,它对我有用。我不确定 tensorflow-lite 托管模型,但您可以尝试一下。就我而言,我将此转换器用于我开发的模型,并且效果很好。

      import tflite2onnx
      
      tflite_path = "path/to/the/tflitemodel"
      onnx_path = "path/where/you/want/to/save/your/model" #modelname.onnx
      tflite2onnx.convert(tflite_path,onnx_path)
      

      【讨论】:

        猜你喜欢
        • 1970-01-01
        • 1970-01-01
        • 2019-04-10
        • 2020-11-23
        • 1970-01-01
        • 2021-05-12
        • 2020-03-31
        • 2021-01-24
        • 1970-01-01
        相关资源
        最近更新 更多