【发布时间】:2021-05-06 15:04:55
【问题描述】:
为了好玩,我正在编写自己的 GeMM 子程序。我已经设法使用 AVX256 内核在 L1 缓存上实现了平铺版本。我知道有一些循环不变量我可以从下面提升。
template<size_t N, size_t P, size_t M>
void intrinsic_multiply(double* A, double* B, void* C) {
alignas(32) double _A[PACK_SIZE * PACK_SIZE];
alignas(32) double _B[PACK_SIZE * PACK_SIZE];
double* _C = (double*)(C);
constexpr size_t N_rem = N%PACK_SIZE;
constexpr size_t M_rem = M%PACK_SIZE;
constexpr size_t P_rem = P%PACK_SIZE;
constexpr size_t N_spill = N-N_rem+(PACK_SIZE)*(size_t)(N_rem!=0);
constexpr size_t M_spill = M-M_rem+(PACK_SIZE)*(size_t)(M_rem!=0);
constexpr size_t P_spill = P-P_rem+(PACK_SIZE)*(size_t)(P_rem!=0);
for(size_t i = 0; i < N_spill; i += PACK_SIZE) {
for(size_t j = 0; j < M_spill; j += PACK_SIZE) {
for(size_t k = 0; k < P_spill; k += PACK_SIZE) {
pad_cols<N>(A + i + k * N, _A, ((size_t)(i+PACK_SIZE>N))*N_rem, ((size_t)(k+PACK_SIZE>P))*P_rem);
pad_cols<P>(B + k + j * P, _B, ((size_t)(k+PACK_SIZE>P))*P_rem, ((size_t)(j+PACK_SIZE>M))*M_rem);
macro_kernal_intrinsic<N_spill>(_A, _B, _C + i + (j * N_spill));
}
}
}
}
我很难实现多级缓存平铺,因为缓存不是彼此的倍数。每个缓存的步长估计值计算如下,CACHE_SIZEs 以字节为单位。
static constexpr size_t L3_CACHESIZE = 6291456;
static size_t L3_STRIDE_SIZE = (size_t)floor((sqrt(L3_CACHESIZE/sizeof(double))));
static constexpr size_t L2_CACHESIZE = 262144;
static size_t L2_STRIDE_SIZE = (size_t)floor((sqrt(L2_CACHESIZE/sizeof(double))));
static constexpr size_t L1_CACHESIZE = 32768;
static size_t L1_STRIDE_SIZE = (size_t)floor((sqrt(L1_CACHESIZE/sizeof(double))));
static constexpr size_t PACK_SIZE = 64;
这给出了 L1 步幅大小为 64 和 L2 步幅大小为 181。显然,它们不是彼此的倍数。我有两个选择 -
- 在每个 L2 迭代中仅适合 4 个 L1 块,从 0 到 63 到 127。这似乎是我正在利用我的 L2 缓存。
- 使用整个二级缓存并在最后一次迭代中用 0 填充 (64*3-180) 个元素。这会引入大量冗余操作,但只会将 L2 步长减小 1。
- 为下一次迭代预取一个小数块。
- 有一种我不知道的规范方法。
在实践中处理不是彼此倍数的块大小的最佳方法是什么?
编辑 - 响应 MSalters:
我跑了
nm -AP -t d --demangle ./src/example-GeMM | grep "intrinsic"
给了
./src/example-GeMM: void intrinsic_multiply<2048ul, 3136ul, 2240ul>(double*, double*, void*) W 17081 434
./src/example-GeMM: void macro_kernal_intrinsic<2048ul>(double*, double*, double*) W 20409 234
./src/example-GeMM: void micro_kernal_intrinsic<2048ul>(double*, double*, double*) W 21343 454
意味着相关代码段占用 (234+454+434)/262144
【问题讨论】:
-
_A是保留名称,即未定义的行为。 -
您将无法使用“经典”(行或列专业)排序超过特定限制。所有“更快”的矩阵乘法算法都会将矩阵重新排序为一些更“方便”的排序。
标签: c++ matrix-multiplication cpu-cache tiling