【问题标题】:Float ops found in quantized TensorFlow MobileNet model在量化的 TensorFlow MobileNet 模型中发现浮点运算
【发布时间】:2018-01-05 21:43:50
【问题描述】:

正如您在 TensorFlow 中实现的量化 MobileNet 模型的屏幕截图中所见,仍然存在一些浮点运算。量化是在 TensorFlow 中通过 graph_transform 工具完成的。

图像中的红色椭圆在右侧大小的文本框中有其描述。 “depthwise”是一个“DepthwiseConv2dNative”操作,需要“DT_FLOAT”输入。

尽管较低的 Relu6 执行 8 位量化操作,但结果必须通过“(Relu6)”这是一个“去量化”操作,以便为深度卷积生成“DT_FLOAT”输入。

为什么 TF graph_transform 工具忽略了深度卷积操作?谢谢。

【问题讨论】:

    标签: tensorflow quantization


    【解决方案1】:

    不幸的是,标准 TensorFlow 中没有深度卷积的量化版本,因此它回退到浮点实现,并在前后进行转换。对于 MobileNet 的完整 8 位实现,您需要查看 TensorFlow Lite,您可以在此处了解更多信息:

    https://www.tensorflow.org/mobile/tflite/

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2019-03-21
      • 2020-12-23
      • 2018-08-10
      • 2012-03-19
      • 2011-02-24
      • 2023-04-03
      • 2018-07-07
      • 1970-01-01
      相关资源
      最近更新 更多