【问题标题】:CNTK TransferLearning sample - Running out of memory on my Geforce 960MCNTK TransferLearning 示例 - 我的 Geforce 960M 内存不足
【发布时间】:2018-03-21 23:49:27
【问题描述】:

我的 Nvidia Geforce 960M 有 2 GB 的专用显存。但是当我尝试运行示例 (CNTK-Samples-2-4\Examples\Image\TransferLearning) 时,我收到以下 CUDA 内存分配错误:

Traceback(最近一次调用最后一次):文件“TransferLearning.py”,行 217,在 max_epochs, freeze=freeze_weights) 文件“TransferLearning.py”,第 130 行,在 train_model trainer.train_minibatch(data) # 用它更新模型文件 "C:\Users\Dell\Anaconda3\lib\site-packages\cntk\train\trainer.py", 第 181 行,在 train_minibatch 中 参数,设备)文件“C:\Users\Dell\Anaconda3\lib\site-packages\cntk\cntk_py.py”,行 2975,在 train_minibatch_overload_for_minibatchdata 中 return _cntk_py.Trainer_train_minibatch_overload_for_minibatchdata(self, *args) RuntimeError: CUDA failure 2: out of memory ; GPU=0 ;主机名=桌面-IA3HLGI; expr=cudaMalloc((void**) &deviceBufferPtr, sizeof(AllocatedElemType) * AsMultipleOf(numElements, 2)) [调用堆栈]
> Microsoft::MSR::CNTK::CudaTimer:: 停止
- Microsoft::MSR::CNTK::CudaTimer:: 停止 (x2)
- Microsoft::MSR::CNTK::GPUMatrix:: 调整大小
- Microsoft::MSR::CNTK::Matrix:: 调整大小
- std::enable_shared_from_this::enable_shared_from_this
- std::enable_shared_from_this::shared_from_this (x3)
- CNTK::Internal:: UseSparseGradientAggregationInDataParallelSGD
- CNTK:: CreateTrainer
- CNTK::Trainer:: TotalNumberOfUnitsSeen
- CNTK::Trainer:: TrainMinibatch (x2)
- PyInit__cntk_py (x2)

有没有办法使用 GPU 运行这个示例?是否有用于内存的 CUDA/CNTK 配置?我需要更改图像大小和/或批量大小吗?

【问题讨论】:

  • 不知道是否有GPU设置但尝试减小mini batch size,源代码在第41行将变量列为'mb_size = 50'

标签: deep-learning gpu cntk


【解决方案1】:

感谢 NiallJG。改变批量大小就可以了。我试过 mb_size=30 并且有效!

【讨论】:

    猜你喜欢
    • 2020-02-15
    • 1970-01-01
    • 2018-04-17
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2014-10-15
    相关资源
    最近更新 更多