【问题标题】:ONNX model inference produces different results for the same inputONNX 模型推理对相同的输入产生不同的结果
【发布时间】:2021-11-02 07:21:16
【问题描述】:

我正在使用一个相同的输入来测试多个推理调用的 ONNX 模型,但每次都会产生不同的结果?

详情请参考以下 Colab 脚本。

https://colab.research.google.com/drive/1cBd0MkQ804FXjWtOME1EB1-UiTXe1elp#scrollTo=bRLuTOjO2YQU

【问题讨论】:

  • 请提供足够的代码,以便其他人更好地理解或重现问题。

标签: pytorch huggingface-transformers onnx onnxruntime


【解决方案1】:

这是意料之中的,因为 ONNX 不提供确定性计算 (details)。

标志 SessionOptions.use_deterministic_compute 用于 ONNX 训练,但推理永远不稳定。 conversion script 提供了许多可配置绝对和相对误差的测试。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2020-07-09
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2021-11-24
    相关资源
    最近更新 更多