其他人已经回答了大部分问题,但我想指出一些特定的情况,其中特定的调度类型比其他的更适合。调度控制如何在线程之间划分循环迭代。选择正确的时间表会对应用程序的速度产生很大影响。
static schedule 意味着迭代块以循环方式静态映射到执行线程。静态调度的好处是,OpenMP 运行时保证如果您有两个具有相同迭代次数的独立循环并使用静态调度以相同数量的线程执行它们,那么每个线程将接收完全相同的迭代范围( s) 在两个平行区域中。这在 NUMA 系统上非常重要:如果您在第一个循环中触及一些内存,它将驻留在执行线程所在的 NUMA 节点上。然后在第二个循环中,同一个线程可以更快地访问同一个内存位置,因为它将驻留在同一个 NUMA 节点上。
假设有两个 NUMA 节点:节点 0 和节点 1,例如一个双插槽 Intel Nehalem 板,两个插槽中都有 4 核 CPU。那么线程 0、1、2 和 3 将驻留在节点 0 上,线程 4、5、6 和 7 将驻留在节点 1 上:
| | core 0 | thread 0 |
| socket 0 | core 1 | thread 1 |
| NUMA node 0 | core 2 | thread 2 |
| | core 3 | thread 3 |
| | core 4 | thread 4 |
| socket 1 | core 5 | thread 5 |
| NUMA node 1 | core 6 | thread 6 |
| | core 7 | thread 7 |
每个内核都可以从每个 NUMA 节点访问内存,但远程访问比本地节点访问慢(在 Intel 上慢 1.5 倍 - 1.9 倍)。你运行这样的东西:
char *a = (char *)malloc(8*4096);
#pragma omp parallel for schedule(static,1) num_threads(8)
for (int i = 0; i < 8; i++)
memset(&a[i*4096], 0, 4096);
如果不使用大页面,在这种情况下,4096 字节是 Linux on x86 上一个内存页面的标准大小。此代码会将整个 32 KiB 数组 a 归零。 malloc() 调用只是保留虚拟地址空间,但实际上并不“接触”物理内存(这是默认行为,除非使用了其他版本的 malloc,例如像 calloc() 这样将内存归零的版本)。现在这个数组是连续的,但只在虚拟内存中。在物理内存中,一半位于连接到套接字 0 的内存中,一半位于连接到套接字 1 的内存中。这是因为不同的部分被不同的线程归零,并且这些线程驻留在不同的内核上,并且有一些叫做 first touch NUMA 策略,这意味着内存页面分配在第一次“接触”内存页面的线程所在的 NUMA 节点上。
| | core 0 | thread 0 | a[0] ... a[4095]
| socket 0 | core 1 | thread 1 | a[4096] ... a[8191]
| NUMA node 0 | core 2 | thread 2 | a[8192] ... a[12287]
| | core 3 | thread 3 | a[12288] ... a[16383]
| | core 4 | thread 4 | a[16384] ... a[20479]
| socket 1 | core 5 | thread 5 | a[20480] ... a[24575]
| NUMA node 1 | core 6 | thread 6 | a[24576] ... a[28671]
| | core 7 | thread 7 | a[28672] ... a[32768]
现在让我们像这样运行另一个循环:
#pragma omp parallel for schedule(static,1) num_threads(8)
for (i = 0; i < 8; i++)
memset(&a[i*4096], 1, 4096);
每个线程都将访问已经映射的物理内存,并且它的线程到内存区域的映射与第一个循环期间的映射相同。这意味着线程只会访问位于其本地内存块中的内存,这将是快速的。
现在想象另一个调度方案用于第二个循环:schedule(static,2)。这会将迭代空间“切割”成两个迭代的块,总共会有 4 个这样的块。将会发生的是,我们将拥有以下线程到内存位置的映射(通过迭代次数):
| | core 0 | thread 0 | a[0] ... a[8191] <- OK, same memory node
| socket 0 | core 1 | thread 1 | a[8192] ... a[16383] <- OK, same memory node
| NUMA node 0 | core 2 | thread 2 | a[16384] ... a[24575] <- Not OK, remote memory
| | core 3 | thread 3 | a[24576] ... a[32768] <- Not OK, remote memory
| | core 4 | thread 4 | <idle>
| socket 1 | core 5 | thread 5 | <idle>
| NUMA node 1 | core 6 | thread 6 | <idle>
| | core 7 | thread 7 | <idle>
这里发生了两件坏事:
- 线程 4 到 7 保持空闲,一半的计算能力丢失;
- 线程 2 和 3 访问非本地内存,它们需要大约两倍的时间才能完成,在此期间线程 0 和 1 将保持空闲状态。
所以使用静态调度的优点之一是它提高了内存访问的局部性。缺点是调度参数选择不当会破坏性能。
dynamic 调度以“先到先得”为基础。具有相同线程数的两次运行可能(并且很可能会)产生完全不同的“迭代空间”->“线程”映射,这一点很容易验证:
$ cat dyn.c
#include <stdio.h>
#include <omp.h>
int main (void)
{
int i;
#pragma omp parallel num_threads(8)
{
#pragma omp for schedule(dynamic,1)
for (i = 0; i < 8; i++)
printf("[1] iter %0d, tid %0d\n", i, omp_get_thread_num());
#pragma omp for schedule(dynamic,1)
for (i = 0; i < 8; i++)
printf("[2] iter %0d, tid %0d\n", i, omp_get_thread_num());
}
return 0;
}
$ icc -openmp -o dyn.x dyn.c
$ OMP_NUM_THREADS=8 ./dyn.x | sort
[1] iter 0, tid 2
[1] iter 1, tid 0
[1] iter 2, tid 7
[1] iter 3, tid 3
[1] iter 4, tid 4
[1] iter 5, tid 1
[1] iter 6, tid 6
[1] iter 7, tid 5
[2] iter 0, tid 0
[2] iter 1, tid 2
[2] iter 2, tid 7
[2] iter 3, tid 3
[2] iter 4, tid 6
[2] iter 5, tid 1
[2] iter 6, tid 5
[2] iter 7, tid 4
(当使用gcc 时观察到相同的行为)
如果 static 部分中的示例代码是使用 dynamic 调度运行的,则保留原始位置的可能性只有 1/70 (1.4%),而保留原始位置的可能性只有 69/70 (98.6%)会发生远程访问。这一事实经常被忽视,因此获得了次优的性能。
在static 和dynamic 调度之间进行选择还有另一个原因 - 工作负载平衡。如果每次迭代花费的时间与完成的平均时间相差很大,那么在静态情况下可能会出现高度的工作不平衡。以完成迭代的时间随迭代次数线性增长的情况为例。如果迭代空间在两个线程之间静态划分,则第二个线程的工作量将是第一个线程的三倍,因此对于 2/3 的计算时间,第一个线程将处于空闲状态。动态调度会引入一些额外的开销,但在这种特殊情况下会导致更好的工作负载分配。一种特殊的dynamic 调度是guided,随着工作的进行,每个任务的迭代块会越来越小。
由于预编译代码可以在各种平台上运行,如果最终用户可以控制调度,那就太好了。这就是 OpenMP 提供特殊 schedule(runtime) 子句的原因。对于runtime 调度,类型取自环境变量OMP_SCHEDULE 的内容。这允许在不重新编译应用程序的情况下测试不同的调度类型,还允许最终用户针对他或她的平台进行微调。