【发布时间】:2016-08-23 23:33:24
【问题描述】:
我在 TensorFlow 中使用 2 个卷积层和一个全连接层运行 MNIST 演示,我收到一条消息“内存不足,试图分配 2.59GiB”,但它显示总内存为 4.69GiB,并且是空闲的内存是3.22GiB,怎么能停在2.59GiB?并且对于更大的网络,我如何管理 gpu 内存?我只关心如何充分利用 gpu 内存并想知道它是如何发生的,而不是如何预先分配内存
【问题讨论】:
-
之前见过,不过是指预分配gpu内存,不是内存不足
标签: tensorflow