【问题标题】:Is there an easy way of parallel processing with GPU with a defined python function?是否有一种简单的方法可以通过定义的 python 函数与 GPU 进行并行处理?
【发布时间】:2021-05-01 14:34:44
【问题描述】:

首先,我阅读了该主题的多个论坛、论文和文章。 我不需要在我的进程中实现 GPU 的使用,但是它们变得更加健壮。问题是我在 python 中创建了一个有点复杂的函数,在 numpy 中矢量化并使用 @jit 使其运行得更快。

但是,我的 GPU (AMD) 没有在任务面板中显示使用 (0%)。我看过 PyOpenCL,但是我想知道是否有比翻译代码更简单的方法。该函数很快,问题是我想使用并行处理来迭代该函数 1800 万次,目前我需要 5 个小时进入多个进程,我知道我可以在 CPU 上使用多处理,但我想使用我的 GPU ,是否有一些“简单”的方法可以在 GPU 上拆分任务?

【问题讨论】:

    标签: python parallel-processing gpu


    【解决方案1】:

    我们有一些discussion,Numba 是否可以自动为 GPU 编译代码。我认为它能够,但现在这种方式已被弃用。另一种方法是使用@numba.cuda.jit 并根据CUDA 块、线程等编写代码。它运作良好。有了它,您就进入了 CUDA 编程的大而迷人的(我不是在开玩笑)世界。您可以使用不同的参数并行运行您的大功能。也许你甚至不需要为此重写它自己......

    【讨论】:

    • 我认为它适用于 NVIDIA GPU,但 AMD 怎么样?
    猜你喜欢
    • 2021-07-02
    • 2011-10-17
    • 1970-01-01
    • 2023-03-15
    • 2019-12-28
    • 1970-01-01
    • 2013-08-06
    • 2018-02-07
    • 2015-06-12
    相关资源
    最近更新 更多