预赛
在现代计算机上,只有最低级别的内存结构(寄存器)可以在单个时钟周期内移动数据。然而,寄存器非常昂贵,并且大多数计算机内核只有不到几十个寄存器。在内存频谱的另一端(DRAM),内存非常便宜(即实际上便宜几百万倍),但在收到请求后需要数百个周期才能接收到数据。为了弥补超快和昂贵和超慢和便宜之间的差距,高速缓存存储器,以降低速度和成本命名为 L1、L2、L3。这个想法是大多数执行代码会经常碰到一小组变量,而其余的(更大的一组变量)很少。如果处理器在 L1 缓存中找不到数据,那么它会在 L2 缓存中查找。如果不存在,则为 L3 缓存,如果不存在,则为主存。这些“失误”中的每一个在时间上都是昂贵的。
(比喻缓存内存对应系统内存,系统内存对应硬盘存储。硬盘存储超级便宜但速度很慢)。
缓存是减少延迟影响的主要方法之一。用 Herb Sutter 的话说(参见下面的链接):增加带宽很容易,但我们无法摆脱延迟。
始终通过内存层次结构检索数据(最小 == 最快到最慢)。 缓存命中/未命中 通常是指 CPU 中最高级别缓存中的命中/未命中——最高级别是指最大的 == 最慢的。缓存命中率对性能至关重要,因为每次缓存未命中都会导致从 RAM(或更糟......)获取数据,这需要 很多 时间(数百个周期RAM,HDD 数千万次循环)。相比之下,从(最高级别)缓存读取数据通常只需要几个周期。
在现代计算机架构中,性能瓶颈是 CPU 死机(例如访问 RAM 或更高)。随着时间的推移,这只会变得更糟。处理器频率的提高目前不再与提高性能相关。 问题在于内存访问。 因此,CPU 中的硬件设计工作目前主要集中在优化缓存、预取、管道和并发性上。例如,现代 CPU 大约 85% 的芯片用于缓存,高达 99% 用于存储/移动数据!
关于这个主题有很多话要说。以下是关于缓存、内存层次结构和正确编程的一些很好的参考资料:
缓存友好代码的主要概念
缓存友好代码的一个非常重要的方面是关于 the principle of locality,其目标是将相关数据靠近内存以实现高效缓存。就 CPU 缓存而言,了解缓存行以了解其工作原理非常重要:How do cache lines work?
以下特定方面对于优化缓存非常重要:
-
时间局部性:当访问给定的内存位置时,很可能在不久的将来再次访问相同的位置。理想情况下,此时仍会缓存此信息。
-
空间局部性:这是指将相关数据彼此靠近放置。缓存发生在许多级别上,而不仅仅是在 CPU 中。例如,当您从 RAM 中读取数据时,通常会获取比特别要求的更大的内存块,因为程序通常很快就会需要这些数据。 HDD 缓存遵循相同的思路。特别是对于 CPU 缓存,缓存行的概念很重要。
使用适当的c++ 容器
缓存友好与缓存不友好的简单示例是c++ 的std::vector 与std::list。 std::vector 的元素存储在连续的内存中,因此访问它们比访问 std::list 中的元素更易于缓存,std::list 将其内容存储在所有地方。这是由于空间局部性。
Bjarne Stroustrup 在this youtube clip 中给出了一个很好的说明(感谢@Mohammad Ali Baydoun 的链接!)。
在数据结构和算法设计中不要忽视缓存
只要有可能,尽量调整您的数据结构和计算顺序,以最大限度地利用缓存。这方面的常用技术是cache blocking(Archive.org version),这在高性能计算中极为重要(参见例如ATLAS)。
了解和利用数据的隐式结构
另一个简单的例子,该领域的许多人有时会忘记,列优先(例如fortran,matlab)与行优先排序(例如c,c++)用于存储两个维数组。例如,考虑以下矩阵:
1 2
3 4
在行优先排序中,它以1 2 3 4 的形式存储在内存中;在列优先排序中,这将存储为1 3 2 4。很容易看出,不利用这种排序的实现将很快遇到(很容易避免!)缓存问题。不幸的是,我经常在我的领域(机器学习)中看到类似的东西非常。 @MatteoItalia 在他的回答中更详细地展示了这个例子。
当从内存中获取矩阵的某个元素时,它附近的元素也将被获取并存储在缓存行中。如果利用了排序,这将导致更少的内存访问(因为后续计算所需的接下来的几个值已经在缓存行中)。
为简单起见,假设缓存包含一个可以包含 2 个矩阵元素的缓存行,并且当从内存中获取给定元素时,下一个也是。假设我们想要对上面示例 2x2 矩阵中的所有元素求和(我们称之为 M):
利用排序(例如,首先更改c++ 中的列索引):
M[0][0] (memory) + M[0][1] (cached) + M[1][0] (memory) + M[1][1] (cached)
= 1 + 2 + 3 + 4
--> 2 cache hits, 2 memory accesses
不利用排序(例如在c++中首先更改行索引):
M[0][0] (memory) + M[1][0] (memory) + M[0][1] (memory) + M[1][1] (memory)
= 1 + 3 + 2 + 4
--> 0 cache hits, 4 memory accesses
在这个简单的例子中,利用排序大约可以使执行速度加倍(因为内存访问比计算总和需要更多的周期)。在实践中,性能差异可能会很多更大。
避免不可预测的分支
现代架构具有流水线功能,编译器正变得非常擅长重新排序代码以最大程度地减少内存访问造成的延迟。当您的关键代码包含(不可预测的)分支时,很难或不可能预取数据。这将间接导致更多的缓存未命中。
这里解释得很好非常(感谢@0x90 提供链接):Why is processing a sorted array faster than processing an unsorted array?
避免使用虚函数
在c++ 的上下文中,virtual 方法代表了一个关于缓存未命中的有争议的问题(普遍的共识是,在性能方面应该尽可能避免它们)。虚函数在查找过程中可能会导致缓存未命中,但这只会发生如果特定函数不经常调用(否则它可能会被缓存),因此这被某些人认为不是问题。有关此问题的参考,请查看:What is the performance cost of having a virtual method in a C++ class?
常见问题
具有多处理器缓存的现代架构中的一个常见问题称为false sharing。当每个单独的处理器尝试使用另一个内存区域中的数据并尝试将其存储在同一 高速缓存行 中时,就会发生这种情况。这会导致缓存线——其中包含另一个处理器可以使用的数据——被一次又一次地覆盖。实际上,在这种情况下,不同的线程通过引发缓存未命中来使彼此等待。
另请参阅(感谢@Matt 提供链接):How and when to align to cache line size?
RAM 内存中缓存不佳的极端症状(这可能不是您在此上下文中的意思)是所谓的thrashing。当进程不断产生需要磁盘访问的页面错误(例如访问不在当前页面中的内存)时,就会发生这种情况。