【问题标题】:GPU-accelerated hardware simulation?GPU 加速的硬件模拟?
【发布时间】:2011-11-13 23:04:04
【问题描述】:

我正在研究是否可以使用 GPGPU 来加速硬件模拟。 我的理由是:由于硬件本质上是非常并行的,为什么要在高度顺序的 CPU 上进行模拟?

GPU 会非常适合这一点,如果不是因为它们限制性的编程风格:你有一个单一的内核运行,等等。

我对 GPGPU 编程的经验很少,但是否可以在 OpenCL / CUDA 中使用事件或队列?

编辑:通过硬件模拟,我不是指模拟,而是位精确的行为模拟(如在 VHDL 行为模拟中)。

【问题讨论】:

  • 我的直觉是离散事件模拟不适合 GPU。控制太多,算术强度不够,可能太不规则了。我很想有人证明这种直觉是错误的……想想看,也许我记得在这方面略读过一篇论文。我会查阅笔记,让你知道发生了什么。
  • @Patrick87,正是我的想法。一个论文的链接会很好。谢谢。

标签: cuda simulation opencl hardware-acceleration


【解决方案1】:

我不知道有关在 GPU 上进行 VHDL 模拟的任何方法(或映射离散事件模拟的一般方案),但 某些应用领域通常会应用离散事件模拟,并且可以在 GPU 上高效模拟(例如,运输网络,如 this paperthis one,或化学系统的随机模拟,如 this paper)。

是否有可能以使离散时间步长模拟器可行的方式重新制定问题?在这种情况下,GPU 上的模拟应该更简单(并且更快,即使它看起来很浪费,因为时间步必须足够小 - 例如,请参阅this paper 上基于 GPU 的元胞自动机模拟)。

但是请注意,这仍然很可能是一个不平凡的(研究)问题,并且(还)没有通用方案的原因是您已经假设的:实现一个事件GPU 上的队列很困难,并且由于 聪明的内存布局特定于应用程序的 优化和问题修改,GPU 上的大多数模拟方法都获得了加速。

【讨论】:

【解决方案2】:

这超出了我的专业领域,但似乎虽然以下论文讨论的是门级模拟而不是行为模拟,但它可能包含一些有用的想法:

Debapriya Chatterjee、Andrew Deorio、Valeria Bertacco。 使用 GPU 计算的门级仿真 http://web.eecs.umich.edu/~valeria/research/publications/TODAES0611.pdf

【讨论】:

  • 找不到页面。
  • @Goldname 我修复了链接失效问题,请重试。
猜你喜欢
  • 1970-01-01
  • 1970-01-01
  • 1970-01-01
  • 2010-09-22
  • 2015-10-04
  • 1970-01-01
  • 1970-01-01
  • 2010-10-09
  • 2020-03-26
相关资源
最近更新 更多