【发布时间】:2021-10-15 09:51:55
【问题描述】:
我尝试在支持 CUDA 的新 Nvidia RTX3060 上运行我的 PyTorch 模型(在 Nvidia RTX2080 上训练)。可以加载模型并执行它。如果我在 CPU 上使用--no_cuda 标志运行它,它会顺利运行并返回正确的预测,但如果我想使用 CUDA 运行它,它只会返回没有意义的错误预测。
卡的不同 GPU 架构会影响预测吗?
【问题讨论】:
-
你能分享一些代码吗?另外,预期的结果是什么?您从 GPU 执行中看到了什么?
-
可能只是评估代码中的一个错误,例如
if torch.cuda.is_available: do_the_buggy_code() -
请提供足够的代码,以便其他人更好地理解或重现问题。
标签: neural-network pytorch gpu nvidia