【发布时间】:2021-09-08 22:23:26
【问题描述】:
我正在使用具有量化和浮点模型的 Tensorflow Lite 进行 TinyML 项目。在我的管道中,我使用tf.keras API 训练我的模型,然后将模型转换为 TFLite 模型。最后,我将 TFLite 模型量化为 int8。
我可以使用 API model.save 和 tf.keras.model.load_model 保存和加载“正常”张量流模型
是否可以对转换后的 TFLite 模型执行相同的操作?每次都经过量化过程非常耗时。
【问题讨论】:
-
你的意思是你想在转换后直接从 tflite 模型中获取推理,而不是在其他设备上部署它?
-
是的,我需要一种将 TFLite 模型保存在磁盘上的方法,以便我可以在第二天加载它们并在我的 python 笔记本中进行推理。目前,我只能保存和加载 tensorflow 模型,但我总是必须通过量化才能使用 TFLite 进行推理
标签: python tensorflow tensorflow-lite