【发布时间】:2021-05-01 14:34:44
【问题描述】:
首先,我阅读了该主题的多个论坛、论文和文章。 我不需要在我的进程中实现 GPU 的使用,但是它们变得更加健壮。问题是我在 python 中创建了一个有点复杂的函数,在 numpy 中矢量化并使用 @jit 使其运行得更快。
但是,我的 GPU (AMD) 没有在任务面板中显示使用 (0%)。我看过 PyOpenCL,但是我想知道是否有比翻译代码更简单的方法。该函数很快,问题是我想使用并行处理来迭代该函数 1800 万次,目前我需要 5 个小时进入多个进程,我知道我可以在 CPU 上使用多处理,但我想使用我的 GPU ,是否有一些“简单”的方法可以在 GPU 上拆分任务?
【问题讨论】:
标签: python parallel-processing gpu