【发布时间】:2020-12-04 19:44:02
【问题描述】:
我正在运行下面的 github 代码以在我的 Raspberry Pi 上进行推理。我已经成功地在我的 Pi 上运行了我的模型,尽管其中一个预测与非量化版本相比非常糟糕。 我研究了代码和库,但我很难理解 2 个小部分,我认为这会影响我的模型的性能。
Tensorflow 在 tflite 模型上运行推理的官方代码。 https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/examples/python/label_image.py
这两部分是:
parser.add_argument(
'--input_mean',
default=127.5, type=float,
help='input_mean')
parser.add_argument(
'--input_std',
default=127.5, type=float,
help='input standard deviation')
我无法理解这 2 个参数如何影响推理以及为什么在此命令中使用它们。 args 值应该如何改变输入数据。
if floating_model:
input_data = (np.float32(input_data) - args.input_mean) / args.input_std
第二,什么时候是模型np.float32类型?量化模型不是 int 类型吗?
floating_model = input_details[0]['dtype'] == np.float32
【问题讨论】:
标签: python tensorflow-lite inference quantization