【问题标题】:Large datasets and Cuda memory Issue大型数据集和 Cuda 内存问题
【发布时间】:2021-07-03 21:57:35
【问题描述】:

我正在处理一个大型数据集并遇到此错误:“RuntimeError:CUDA 内存不足。尝试分配 1.35 GiB(GPU 0;8.00 GiB 总容量;3.45 GiB 已分配;1.20 GiB 可用;4.79 GiB 保留在PyTorch 总计)。

有没有想过如何解决这个问题?

【问题讨论】:

    标签: pytorch


    【解决方案1】:

    我以前遇到过同样的问题。这不是错误,只是您的 GPU 内存不足。

    1. 解决此问题的一种方法是减少批处理大小,直到您的代码运行时不会出现此错误。
    2. 如果它不起作用,最好了解您的模型。单个 8GiB GPU 可能无法处理大而深的模型。您应该考虑更换内存更大的 GPU,并找到可以帮助您的实验室(Google Colab 可以提供帮助)
    3. 如果您只是进行评估,强制运行张量 CPU 就可以了
    4. 尝试模型压缩算法

    【讨论】:

    • 第三个选项已经解决了这个问题,谢谢!
    【解决方案2】:

    如果您使用的是全批梯度下降(或类似方法),请使用具有较小批大小的小批代替,并在数据加载器中反映相同。

    【讨论】:

    • 您建议的方法大部分时间都有效。但是,我正在处理的默认代码已将批量大小设置为 1,我无法再减少,这很头疼。
    猜你喜欢
    • 2019-12-25
    • 1970-01-01
    • 1970-01-01
    • 2010-09-22
    • 2020-04-04
    • 1970-01-01
    • 1970-01-01
    • 2011-07-05
    • 2013-12-13
    相关资源
    最近更新 更多