【发布时间】:2013-11-08 12:51:12
【问题描述】:
我正在一台有 4 个 Operton 6272 处理器、运行 centOS 的机器上试验 NUMA。有 8 个 NUMA 节点,每个节点有 16GB 内存。
这是我正在运行的一个小测试程序。
void pin_to_core(size_t core)
{
cpu_set_t cpuset;
CPU_ZERO(&cpuset);
CPU_SET(core, &cpuset);
pthread_setaffinity_np(pthread_self(), sizeof(cpu_set_t), &cpuset);
}
int main()
{
pin_to_core( 0 );
size_t bufSize = 100;
for( int i = 0; i < 131000; ++i )
{
if( !(i % 10) )
{
std::cout << i << std::endl;
long long free = 0;
for( unsigned j = 0; j < 8; ++j )
{
numa_node_size64( j, &free );
std::cout << "Free on node " << j << ": " << free << std::endl;
}
}
char* buf = (char*)numa_alloc_onnode( bufSize, 5 );
for( unsigned j = 0; j < bufSize; ++j )
buf[j] = j;
}
return 0;
}
所以基本上运行在核心 #0 上的线程在 NUMA 节点 5 上分配 131K 100 字节缓冲区,用垃圾初始化它们并泄漏它们。每 10 次迭代,我们打印出有关每个 NUMA 节点上可用内存量的信息。
在输出的开头我得到:
0
Free on node 0: 16115879936
Free on node 1: 16667398144
Free on node 2: 16730402816
Free on node 3: 16529108992
Free on node 4: 16624508928
Free on node 5: 16361529344
Free on node 6: 16747118592
Free on node 7: 16631336960
...
最后我得到:
Free on node 0: 15826657280
Free on node 1: 16667123712
Free on node 2: 16731033600
Free on node 3: 16529358848
Free on node 4: 16624885760
Free on node 5: 16093630464
Free on node 6: 16747384832
Free on node 7: 16631332864
130970
Free on node 0: 15826657280
Free on node 1: 16667123712
Free on node 2: 16731033600
Free on node 3: 16529358848
Free on node 4: 16624885760
Free on node 5: 16093630464
Free on node 6: 16747384832
Free on node 7: 16631332864
mbind: Cannot allocate memory
mbind: Cannot allocate memory
mbind: Cannot allocate memory
mbind: Cannot allocate memory
mbind: Cannot allocate memory
mbind: Cannot allocate memory
mbind: Cannot allocate memory
130980
...
我不清楚的事情:
1) 为什么会有那些“mbind:无法分配内存”消息?事实上,如果我将缓冲区大小更改为 1000,我远未用完所有内存并且行为不会改变,这让我认为我的某种内核资源句柄已经用完了.
2) 尽管我要求在节点 5 上分配内存,但实际分配似乎已在节点 0 和 5 之间进行分配。
谁能提供任何关于为什么会发生这种情况的见解?
更新
希望就第 (2) 点提供更多详细信息。一些内存未在节点 5 上分配的事实似乎与我们正在初始化核心 #0(属于 NUMA 节点 0)上的缓冲区这一事实有关。如果我将 pin_to_core(0) 更改为 pin_to_core(8),则分配的内存将在节点 1 和 5 之间拆分。如果是 pin_to_core(40),则所有内存都分配在节点 5 上。
更新2
我查看了 libnuma 的源代码并尝试用来自那里的更多低级调用替换对 numa_alloc_onnode() 的调用:mmap() 和 mbind()。我现在还要检查内存驻留在哪个 NUMA 节点上——我为此使用了move_pages() 调用。结果如下。在初始化之前(j 上的循环)页面没有映射到任何节点(我得到 ENOENT 错误代码)并且在初始化之后页面被分配给节点 0 或节点 5。模式是常规的:5,0, 5,0,... 和以前一样,当我们接近第 131000 次迭代时,对 mbind() 的调用开始返回错误代码,并且当这种情况发生时,页面总是分配给节点 0。 mbind 返回的错误代码是 ENOMEM,文档说这意味着“内核内存”用完了。我不知道它是什么,但它不可能是“物理”内存,因为我每个节点有 16GB。
到目前为止,这是我的结论:
mbind()对内存映射施加的限制仅在另一个 NUMA 节点的核心首先接触内存时保持 50% 的时间。我希望这被记录在某个地方,因为悄悄地违背承诺并不好......对
mbind的调用次数有限制。所以应该尽可能mbind()大内存块。
我要尝试的方法是:在固定到特定 NUMA ndo 内核的线程上执行内存分配任务。为了让您更加安心,我会尝试调用 mlock(因为here 描述的问题)。
【问题讨论】:
标签: c++ linux memory-management numa