【问题标题】:Tflite Quant inference is slower than TFlite float32 on Intel CPUTflite Quant 推理比 Intel CPU 上的 TFlite float32 慢
【发布时间】:2020-10-30 13:17:26
【问题描述】:

我已使用 DEFAULT 优化 (Float32) 设置将网络转换为 TFlite,其推理速度约为 25 fps。当我转换为 TFlite INT8 Quantized 时的同一网络,其推理速度在 INTEL 8 核 Intel Core i9 2.3 GHz 上约为 2 fps。这在 CPU 上是预期的吗?请有人解释一下导致 INT8 推理缓慢的原因。

【问题讨论】:

标签: tensorflow tensorflow2.0 quantization tensorflow-lite


【解决方案1】:

您能否提供模型的更多细节?

量化模型肯定小于float32模型。

对于在移动 CPU 上进行部署,量化模型通常可能更快。但是,英特尔台式机/笔记本电脑 CPU 可能无法保证。

【讨论】:

    猜你喜欢
    • 2020-02-09
    • 2020-09-05
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2013-09-29
    • 1970-01-01
    相关资源
    最近更新 更多