【问题标题】:How to programmatically detect the number of cores and run an MPI program using all cores如何以编程方式检测内核数量并使用所有内核运行 MPI 程序
【发布时间】:2017-05-20 05:35:02
【问题描述】:

我不想使用mpiexec -n 4 ./a.out 在我的核心 i7 处理器(4 核)上运行我的程序。相反,我想运行 ./a.out,让它检测内核数量并启动 MPI 以运行每个内核的进程。

这个 SO 问题和答案MPI Number of processors? 引导我使用mpiexec

我想避免使用 mpiexec 的原因是因为我的代码注定要成为我正在处理的一个更大项目中的一个库。较大的项目有一个 GUI,用户将开始长时间的计算,这将调用我的库,而我的库又将使用 MPI。 UI 和计算代码之间的集成并非易事……因此,启动外部进程并通过套接字或其他方式进行通信不是一种选择。它必须是一个库调用。

这可能吗?我该怎么做?

【问题讨论】:

  • 当然,使用 24 个内核中的 7 个就可以了。问题是:如何以编程方式启动这 7 个进程而不是使用 mpiexec?

标签: mpi


【解决方案1】:

一般来说,这是一件非常重要的事情。此外,几乎没有任何便携式解决方案不依赖于某些 MPI 实现细节。下面是一个与 Open MPI 以及可能与其他通用 MPI 实现(MPICH、Intel MPI 等)一起使用的示例解决方案。它涉及第二个可执行文件或原始可执行文件直接调用您的库的方法,提供了一些特殊的命令行参数。是这样的。

假设最初的可执行文件以./a.out 启动。当你的库函数被调用时,它会调用MPI_Init(NULL, NULL),它会初始化 MPI。由于可执行文件不是通过mpiexec 启动的,因此它回退到所谓的单例 MPI 初始化,即它创建一个由单个进程组成的 MPI 作业。要执行分布式计算,您必须启动更多的 MPI 进程,这就是一般情况下事情变得复杂的地方。

MPI 支持动态进程管理,其中一个 MPI 作业可以启动第二个作业并使用 intercommunicators 与其进行通信。当第一个工作调用MPI_Comm_spawnMPI_Comm_spawn_multiple 时会发生这种情况。第一个用于启动对所有 MPI 等级使用相同可执行文件的简单 MPI 作业,而第二个可以启动混合不同可执行文件的作业。两者都需要有关在何处以及如何启动流程的信息。这来自所谓的 MPI Universe,它不仅提供有关已启动进程的信息,而且还提供有关动态启动进程的可用 slots 的信息。 Universe 由mpiexec 或其他一些启动器机制构建,例如,主机文件包含节点列表和每个节点上的插槽数。在没有此类信息的情况下,某些 MPI 实现(包括 Open MPI)将简单地在与原始文件相同的节点上启动可执行文件。 MPI_Comm_spawn[_multiple] 有一个 MPI_Info 参数,可用于提供具有特定于实现的信息的键值巴黎列表。 Open MPI 支持add-hostfile 键,可用于指定生成子作业时要使用的主机文件。这对于例如允许用户通过 GUI 指定用于 MPI 计算的主机列表很有用。但让我们专注于没有提供此类信息并且 Open MPI 只是在同一主机上运行子作业的情况。

假设工作程序可执行文件名为worker。或者,如果使用某些特殊的命令行选项(例如-worker)调用原始可执行文件,则可以充当工作程序。如果您想总共使用N 进程执行计算,则需要启动N-1 工作人员。这很简单:

(单独的可执行文件)

MPI_Comm child_comm;
MPI_Comm_spawn("./worker", MPI_ARGV_NULL, N-1, MPI_INFO_NULL, 0,
               MPI_COMM_SELF, &child_comm, MPI_ERRCODES_IGNORE);

(相同的可执行文件,带有一个选项)

MPI_Comm child_comm;
char *argv[] = { "-worker", NULL };
MPI_Comm_spawn("./a.out", argv, N-1, MPI_INFO_NULL, 0,
               MPI_COMM_SELF, &child_comm, MPI_ERRCODES_IGNORE);

如果一切顺利,child_comm 将被设置为 intercommunicator 的句柄,可用于与新作业进行通信。由于交互器使用起来有点棘手,并且父子作业划分需要复杂的程序逻辑,因此可以简单地将交互器的两侧合并为一个“大世界”通信器,以取代MPI_COMM_WORLD。在家长方面:

MPI_Comm bigworld;
MPI_Intercomm_merge(child_comm, 0, &bigworld);

在孩子这边:

MPI_Comm parent_comm, bigworld;
MPI_Get_parent(&parent_comm);
MPI_Intercomm_merge(parent_comm, 1, &bigworld);

合并完成后,所有进程都可以使用bigworld而不是MPI_COMM_WORLD进行通信。请注意,子作业不会与父作业共享其MPI_COMM_WORLD

总而言之,这是一个包含两个独立程序代码的完整功能示例。

main.c

#include <stdio.h>
#include <mpi.h>

int main (void)
{
   MPI_Init(NULL, NULL);

   printf("[main] Spawning workers...\n");

   MPI_Comm child_comm;
   MPI_Comm_spawn("./worker", MPI_ARGV_NULL, 2, MPI_INFO_NULL, 0,
                  MPI_COMM_SELF, &child_comm, MPI_ERRCODES_IGNORE);

   MPI_Comm bigworld;
   MPI_Intercomm_merge(child_comm, 0, &bigworld);

   int size, rank;
   MPI_Comm_rank(bigworld, &rank);
   MPI_Comm_size(bigworld, &size);
   printf("[main] Big world created with %d ranks\n", size);

   // Perform some computation
   int data = 1, result;
   MPI_Bcast(&data, 1, MPI_INT, 0, bigworld);
   data *= (1 + rank);
   MPI_Reduce(&data, &result, 1, MPI_INT, MPI_SUM, 0, bigworld);
   printf("[main] Result = %d\n", result);

   MPI_Barrier(bigworld);

   MPI_Comm_free(&bigworld);
   MPI_Comm_free(&child_comm);

   MPI_Finalize();
   printf("[main] Shutting down\n");
   return 0;
}

worker.c

#include <stdio.h>
#include <mpi.h>

int main (void)
{
   MPI_Init(NULL, NULL);

   MPI_Comm parent_comm;
   MPI_Comm_get_parent(&parent_comm);

   int rank, size;
   MPI_Comm_rank(MPI_COMM_WORLD, &rank);
   MPI_Comm_size(MPI_COMM_WORLD, &size);
   printf("[worker] %d of %d here\n", rank, size);

   MPI_Comm bigworld;
   MPI_Intercomm_merge(parent_comm, 1, &bigworld);

   MPI_Comm_rank(bigworld, &rank);
   MPI_Comm_size(bigworld, &size);
   printf("[worker] %d of %d in big world\n", rank, size);

   // Perform some computation
   int data;
   MPI_Bcast(&data, 1, MPI_INT, 0, bigworld);
   data *= (1 + rank);
   MPI_Reduce(&data, NULL, 1, MPI_INT, MPI_SUM, 0, bigworld);

   printf("[worker] Done\n");
   MPI_Barrier(bigworld);

   MPI_Comm_free(&bigworld);
   MPI_Comm_free(&parent_comm);

   MPI_Finalize();
   return 0;
}

这是它的工作原理:

$ mpicc -o main main.c
$ mpicc -o worker worker.c
$ ./main
[main] Spawning workers...
[worker] 0 of 2 here
[worker] 1 of 2 here
[worker] 1 of 3 in big world
[worker] 2 of 3 in big world
[main] Big world created with 3 ranks
[worker] Done
[worker] Done
[main] Result = 6
[main] Shutting down

子作业必须使用MPI_Comm_get_parent 来获得与父作业的交互器。当进程不属于此类子作业时,返回值将是MPI_COMM_NULL。这允许一种简单的方法在同一个可执行文件中实现主程序和工作程序。这是一个混合示例:

#include <stdio.h>
#include <mpi.h>

MPI_Comm bigworld_comm = MPI_COMM_NULL;
MPI_Comm other_comm = MPI_COMM_NULL;

int parlib_init (const char *argv0, int n)
{
    MPI_Init(NULL, NULL);

    MPI_Comm_get_parent(&other_comm);
    if (other_comm == MPI_COMM_NULL)
    {
        printf("[main] Spawning workers...\n");
        MPI_Comm_spawn(argv0, MPI_ARGV_NULL, n-1, MPI_INFO_NULL, 0,
                       MPI_COMM_SELF, &other_comm, MPI_ERRCODES_IGNORE);
        MPI_Intercomm_merge(other_comm, 0, &bigworld_comm);
        return 0;
    }

    int rank, size;
    MPI_Comm_rank(MPI_COMM_WORLD, &rank);
    MPI_Comm_size(MPI_COMM_WORLD, &size);
    printf("[worker] %d of %d here\n", rank, size);
    MPI_Intercomm_merge(other_comm, 1, &bigworld_comm);
    return 1;
}

int parlib_dowork (void)
{
    int data = 1, result = -1, size, rank;

    MPI_Comm_rank(bigworld_comm, &rank);
    MPI_Comm_size(bigworld_comm, &size);

    if (rank == 0)
    {
        printf("[main] Doing work with %d processes in total\n", size);
        data = 1;
    }

    MPI_Bcast(&data, 1, MPI_INT, 0, bigworld_comm);
    data *= (1 + rank);
    MPI_Reduce(&data, &result, 1, MPI_INT, MPI_SUM, 0, bigworld_comm);

    return result;
}

void parlib_finalize (void)
{
    MPI_Comm_free(&bigworld_comm);
    MPI_Comm_free(&other_comm);
    MPI_Finalize();
}

int main (int argc, char **argv)
{
    if (parlib_init(argv[0], 4))
    {
        // Worker process
        (void)parlib_dowork();
        printf("[worker] Done\n");
        parlib_finalize();
        return 0;
    }

    // Main process
    // Show GUI, save the world, etc.
    int result = parlib_dowork();
    printf("[main] Result = %d\n", result);
    parlib_finalize();

    printf("[main] Shutting down\n");
    return 0;
}

这是一个示例输出:

$ mpicc -o hybrid hybrid.c
$ ./hybrid
[main] Spawning workers...
[worker] 0 of 3 here
[worker] 2 of 3 here
[worker] 1 of 3 here
[main] Doing work with 4 processes in total
[worker] Done
[worker] Done
[main] Result = 10
[worker] Done
[main] Shutting down

在设计此类并行库时要牢记以下几点:

  • MPI 只能初始化一次。如有必要,请致电MPI_Initialized 以检查库是否已初始化。
  • MPI 只能完成一次。同样,MPI_Finalized 是您的朋友。它可以用于类似atexit() 处理程序的东西中,以在程序退出时实现通用 MPI 终结。
  • 在线程上下文中使用时(通常在涉及 GUI 时),必须初始化 MPI 并支持线程。见MPI_Init_thread

【讨论】:

  • 感谢您的详尽回答!看来我对 MPI 的方法和使用并不是解决我的问题的正确方法。不幸的是,使用 MPI 的不是我的库。我的库依赖于使用 MPI 的库。对我来说,最好的解决方案似乎是修改第三方库以使用 OpenMP(没有“I”)之类的东西。
  • 如果您不打算扩展到单台计算机之外,那么 MPI 真的是大材小用。虽然,如果您基于 MPI 的解决方案并正确执行,稍后它可以轻松扩展到单个计算节点。但是 OpenMP 确实更简单,依赖更少,并且不需要特殊的启动器/环境来运行。
【解决方案2】:

您可以使用例如this 解决方案获取CPU 数量,然后通过调用MPI_comm_spawn 启动MPI 进程。但是你需要有一个单独的可执行文件。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2015-06-03
    • 2017-01-25
    • 2017-04-29
    • 2017-12-08
    • 2012-12-21
    • 1970-01-01
    • 2019-01-05
    • 1970-01-01
    相关资源
    最近更新 更多