【发布时间】:2022-01-07 11:32:18
【问题描述】:
我教了我的神经网络,并意识到即使在 torch.cuda.empty_cache() 和 gc.collect() 之后,我的 cuda 设备内存也会被填满。在 Colab Notebooks 中,我们可以看到内存中的当前变量,但即使我删除了每个变量并清理垃圾 gpu-memory 也很忙。 我听说这是因为 python 垃圾收集器不能在 cuda-device 上工作。 请解释一下,我该怎么办?
【问题讨论】:
标签: python deep-learning pytorch