【发布时间】:2020-10-30 13:17:26
【问题描述】:
我已使用 DEFAULT 优化 (Float32) 设置将网络转换为 TFlite,其推理速度约为 25 fps。当我转换为 TFlite INT8 Quantized 时的同一网络,其推理速度在 INTEL 8 核 Intel Core i9 2.3 GHz 上约为 2 fps。这在 CPU 上是预期的吗?请有人解释一下导致 INT8 推理缓慢的原因。
【问题讨论】:
-
这能回答你的问题吗? tflite quantized inference very slow
标签: tensorflow tensorflow2.0 quantization tensorflow-lite