【问题标题】:MPI_Isend of root process never arrives根进程的 MPI_Isend 永远不会到达
【发布时间】:2019-08-14 08:43:08
【问题描述】:

我正在研究异步通信并计划实现以下例程:每个进程都拥有一个它必须与之通信的进程向量,按升序排列。它向所有较小的等级发布非阻塞接收,向所有较大的等级发布非阻塞发送。对于除进程 0 之外的所有进程,这都有效。我的问题是什么?

我已经通过命令行输出检查了每个进程都以正确的顺序和正确的信息发布了接收和发送的数量。另外,使用 unistd.h,我调用了 sleep(5) 来检查一段时间后通信是否成功。我已经检查(使用 Probe 并阻止 MPI_Recv)消息实际上正在发送中 - 如果我使用 MPI_Irecv,它似乎永远不会到达。

理解代码:rank是当前进程的rank,commRanks是要与之通信的进程的向量。 recvRanks 是存储消息内容的位置。 reqsArray 是一个请求数组,它的大小与 commRanks 相同。 rankIndex 和 index 分别从 commRanks.begin() 到 commRanks.end() 和从 0 到 commRanks.size() 迭代。


std::vector<int> recvRanks;

for ( rankIndex = commRanks.begin(); *rankIndex < rank && rankIndex != domain->commRanks.end() ; rankIndex++ ) {
  //initialize recv buffer to -1 to see if communication works:
  recvRanks.push_back(-1);
  MPI_Irecv(&recvRanks.at(index),1,DT_RANK_MPI,*rankIndex,1,MPI_COMM_WORLD,&reqsArray[index]);
  index++;
}

if (*rankIndex == rank) {
  *rankIndex++;
  index++;
}

for ( ; rankIndex != domain->commRanks.end() ; rankIndex++ ) {
  MPI_Isend(&rank,1,DT_RANK_MPI,*rankIndex,1,MPI_COMM_WORLD,&reqsArray[index]);
  index++;
}

sleep(5);

//check if communication was successful:
printf("process 0: [ ");
for (unsigned int i = 0; i < recvRanks.size(); i++){
 printf("%d ", recvRanks.at(i));
}
printf("]\n");

我希望输出是:

进程 0:[]

进程 1:[0]

进程 2:[0 1]

过程 3:[0 1 2]

...

实际结果:

进程 0:[]

进程 1:[ -1 ]

进程 2:[ -1 1 ]

过程 3:[ -1 1 2 ]

...

所以进程 0 的 Isend 永远不会完成 - 我做错了什么?如果您需要更多信息来理解这个问题,请告诉我!我已经在这一点上卡住了一个星期了。

【问题讨论】:

    标签: c++ mpi mpich


    【解决方案1】:

    在发布您的一些MPI_Irecvs 后,recvRankspush_back 上重新分配,使指向其元素的指针失效,这些指针已经作为缓冲区提供。首先使用reserve 以防止重新分配。

    【讨论】:

    • 感谢您的建议!不幸的是,它并没有解决问题。
    • @ValentinaSchüller:好吧,然后发布一个 MCVE(包括 reserve 或只是 std::vector&lt;int&gt; recvRanks(commRanks.size(),-1););只用一个代码片段就很难做更多的事情了。
    猜你喜欢
    • 1970-01-01
    • 2020-04-12
    • 2020-11-14
    • 1970-01-01
    • 1970-01-01
    • 2018-02-01
    • 1970-01-01
    • 2021-11-02
    • 2023-03-12
    相关资源
    最近更新 更多