【发布时间】:2020-08-11 20:39:51
【问题描述】:
我在 colab 中运行我的 pytorch 深度学习模型时遇到以下错误
/usr/local/lib/python3.6/dist-packages/torch/nn/functional.py in linear(input, weight, bias)
1370 ret = torch.addmm(bias, input, weight.t())
1371 else:
-> 1372 output = input.matmul(weight.t())
1373 if bias is not None:
1374 output += bias
RuntimeError: CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling `cublasCreate(handle)`
我什至将批量大小从 128 减少到 64,即减少到一半,但仍然出现此错误。早些时候,我以 128 的批处理大小运行了相同的代码,但没有收到任何这样的错误。
【问题讨论】:
-
错误和答案似乎确实表明 GPU 内存已满,并且没有被标准安全协议捕获。当太多(笔记本)python 内核同时使用 GPU 时出现错误。
标签: nlp pytorch bert-language-model