【发布时间】:2020-03-05 06:39:28
【问题描述】:
我的服务器上有 2 个 GPU,我想在它们上运行不同的训练任务。
在第一个任务中,我试图强制 Tensorflow 只使用一个 GPU,我在脚本顶部添加了以下代码:
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0'
运行第一个任务后,当我尝试在另一个 GPU 上运行第二个任务时,(使用相同的 2 行代码)我收到错误 "No device GPU:1"强>。
有什么问题?
【问题讨论】:
标签: parallel-processing gpu lstm recurrent-neural-network