【问题标题】:can two process shared same GPU memory? (CUDA)两个进程可以共享相同的 GPU 内存吗? (CUDA)
【发布时间】:2017-06-21 07:14:56
【问题描述】:

在 CPU 世界中,可以通过内存映射来实现。可以为 GPU 做类似的事情吗?

如果两个进程可以共享同一个 CUDA 上下文,我认为这将是微不足道的 - 只需传递 GPU 内存指针。是否可以在两个进程之间共享相同的 CUDA 上下文?

我能想到的另一种可能性是将设备内存映射到内存映射的主机内存。由于它是内存映射的,因此可以在两个进程之间共享。这是否有意义/可能,是否有任何开销?

【问题讨论】:

  • @RobertCrovella:这可能是任何人都能提供的最佳答案。如果你想添加它,我会很高兴地支持它

标签: memory memory-management cuda gpu


【解决方案1】:

CUDA MPS 有效地允许来自 2 个或更多进程的 CUDA 活动在 GPU 上共享相同的上下文。但是,这不能满足您的要求:

两个进程可以共享相同的 GPU 内存吗?

实现此目的的一种方法是通过 CUDA IPC(进程间通信)API。

这将允许您在多个进程之间共享分配的设备内存区域(即通过cudaMalloc 分配的内存区域)。 This answer 包含了解 CUDA IPC 的其他资源。

但是,根据我的测试,这不能在多个进程之间共享主机固定内存区域(例如,通过 cudaHostAlloc 分配的区域)。内存区域本身可以使用特定操作系统可用的普通 IPC 机制共享,但不能使其在 2 个或更多进程中显示为“固定”内存(根据我的测试)。

【讨论】:

  • 您能否详细说明为什么共享 cuda 上下文不能共享设备内存?难道即使cuda上下文相同,A进程的设备内存指针的值在B进程中仍然没有意义?
  • 我没有说“共享 cuda 上下文不会启用共享设备内存”。我说 CUDA MPS 不启用共享设备内存。如果您想了解共享 cuda 上下文是否允许共享设备内存,则必须更具体。对于同一进程中的两个线程,它们可以共享相同的上下文。 CUDA 没有为两个单独的进程共享相同的上下文提供方法 AFAIK。如果您认为有一个,请具体说明您将如何在两个单独的进程之间共享相同的 cuda 上下文。
猜你喜欢
  • 2011-03-19
  • 2020-04-06
  • 1970-01-01
  • 2020-03-03
  • 1970-01-01
  • 1970-01-01
  • 2011-02-26
  • 1970-01-01
  • 2011-12-31
相关资源
最近更新 更多