【问题标题】:Using Pytorch model trained on RTX2080 on RTX3060使用在 RTX 2080 或 RTX 3060 上训练的 Pytorch 模型
【发布时间】:2021-10-15 09:51:55
【问题描述】:

我尝试在支持 CUDA 的新 Nvidia RTX3060 上运行我的 PyTorch 模型(在 Nvidia RTX2080 上训练)。可以加载模型并执行它。如果我在 CPU 上使用--no_cuda 标志运行它,它会顺利运行并返回正确的预测,但如果我想使用 CUDA 运行它,它只会返回没有意义的错误预测。 卡的不同 GPU 架构会影响预测吗?

【问题讨论】:

  • 你能分享一些代码吗?另外,预期的结果是什么?您从 GPU 执行中看到了什么?
  • 可能只是评估代码中的一个错误,例如if torch.cuda.is_available: do_the_buggy_code()
  • 请提供足够的代码,以便其他人更好地理解或重现问题。

标签: neural-network pytorch gpu nvidia


【解决方案1】:

好的,问题似乎在于两种架构的不同浮点数。需要设置标志torch.backends.cuda.matmul.allow_tf32 = false,以提供不同架构模型的稳定执行。

【讨论】:

    猜你喜欢
    • 2020-03-11
    • 1970-01-01
    • 2019-12-05
    • 2021-03-26
    • 1970-01-01
    • 2021-10-29
    • 2021-03-11
    • 2021-03-28
    • 1970-01-01
    相关资源
    最近更新 更多