【问题标题】:How to do dequentize with the output of quantized tflite?如何对量化的 tflite 的输出进行去量化?
【发布时间】:2018-06-08 02:06:27
【问题描述】:

我已将 PB 文件转换为 tflite 并使用 uint8 量化。我想知道如何将 uint8 的输出转换回浮点数,以便之前的代码仍然可以工作。

【问题讨论】:

  • 请提供您的代码示例。
  • 嗨廖,您使用的是哪种语言? (例如 Android 上的 Java?iOS 上通过 Objective C 的 C++ API?)
  • 我在 Android 上使用 TensorFlow Lite。代码如下: tflite.run(imgData, labelProbArray);其中 tflite 是解释器。输入图像数据,得到一个多维输出数组。我用输出数组数据做进一步的计算。我想知道现在如何将适用于浮点类型输出的原始代码用于 uint8 输出。这个想法是从 float 到 uint8 进行反量化,但如何做到这一点?

标签: quantization tensorflow-lite


【解决方案1】:

通常float的范围是[-1..1],所以公式是

putFloat((uint8Val - 127.5)/127.5)

但这实际上取决于您使用的量化参数mean and std。请注意,最近 tflite switched to int8[-128..127] 范围内。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2017-05-29
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多