【发布时间】:2020-05-19 16:14:55
【问题描述】:
我想将托管模型TensorFlow-Lite hosted models 主要是移动网络转换为 ONNX 格式。所以我想尝试这些托管模型的量化版本并使用onnx-runtime 运行它们。
将这些模型转换为onnx-runtime 使用的正确程序是什么?
【问题讨论】:
我想将托管模型TensorFlow-Lite hosted models 主要是移动网络转换为 ONNX 格式。所以我想尝试这些托管模型的量化版本并使用onnx-runtime 运行它们。
将这些模型转换为onnx-runtime 使用的正确程序是什么?
【问题讨论】:
我对 ONNX 很陌生,但根据他们的官方 tutorial page,没有 TFLite 到 ONNX 转换器。
您仍然可以使用 TensorFlow -> ONNX 转换路径。当您下载其中一个 TFLite 托管模型时,您将获得一个存档,其中包含用于转换的原始 TensorFlow 冻结图 (xxx_frozen.pb),以及转换后的.tflite。您可以采用冻结的图形格式并将其输入 TensorFlow-ONNX 转换器,如下所示:
【讨论】:
有一个 tflite 到 onnx 的转换器。我已经尝试过了,它对我有用。我不确定 tensorflow-lite 托管模型,但您可以尝试一下。就我而言,我将此转换器用于我开发的模型,并且效果很好。
import tflite2onnx
tflite_path = "path/to/the/tflitemodel"
onnx_path = "path/where/you/want/to/save/your/model" #modelname.onnx
tflite2onnx.convert(tflite_path,onnx_path)
【讨论】: