【发布时间】:2018-01-25 05:51:15
【问题描述】:
我想重叠许多 docker 容器对 GPU 的使用。 Nvidia 提供了一个实用程序来执行此操作:多进程服务,记录在 here。具体来说:
当 CUDA 首次在程序中初始化时,CUDA 驱动程序会尝试 连接到 MPS 控制守护程序。如果连接尝试失败, 程序继续像没有 MPS 的情况下正常运行。如果 但是,连接尝试成功,MPS 控制守护进程 继续确保 MPS 服务器以相同的用户 ID 启动 连接的客户端,在返回之前处于活动状态 客户。然后 MPS 客户端继续连接到服务器。全部 MPS 客户端、MPS 控制守护进程和 MPS 服务器是使用命名管道完成的。
默认情况下,命名管道位于/tmp/nvidia-mps/,因此我使用卷与容器共享该目录。
但这还不足以让容器上的 cuda 驱动程序“看到”MPS 服务器。
我应该在主机和容器之间共享哪些资源,以便它可以连接到 MPS 服务器?
【问题讨论】:
-
this 可能感兴趣
标签: docker nvidia nvidia-docker