4 位加法/乘法可以使用AVX2 完成,特别是如果您想将这些计算应用于更大的向量(比如超过 128 个元素)。但是,如果您只想添加 4 个数字,请使用直接标量代码。
我们在如何处理 4 位整数方面做了大量工作,最近我们开发了一个库来处理它Clover: 4-bit Quantized Linear Algebra Library(重点是量化)。代码也是available at GitHub。
正如您仅提到 4 位整数,我假设您指的是有符号整数(即二进制补码),并据此确定我的答案。请注意,处理无符号实际上要简单得多。
我还假设您希望采用包含n 4 位整数的向量int8_t v[n/2],并生成具有n/2 4 位整数的int8_t v_sum[n/4]。与下面描述相关的所有代码都是available as a gist。
打包/拆包
显然AVX2 不提供对 4 位整数执行加法/乘法的任何指令,因此,您必须求助于给定的 8 位或 16 位指令。处理 4 位算术的第一步是设计如何将 4 位半字节放入更大的 8 位、16 位或 32 位块中的方法。
为了清楚起见,我们假设您想从一个 32 位块中解压缩给定的半字节,该块将多个 4 位有符号值存储到相应的 32 位整数中(下图)。这可以通过两个位移来完成:
- 逻辑左移用于移动半字节,使其占据 32 位实体的最高 4 位。
- 算术右移用于将半字节移动到 32 位实体的最低 4 位。
算术右移有符号扩展,用半字节的符号位填充高位 28 位。产生一个 32 位整数,其值与二进制补码 4 位值相同。
打包(上图左侧)的目标是还原解包操作。两次位移可用于将 32 位整数的最低 4 位放置在 32 位实体中的任何位置。
- 逻辑左移用于移动半字节,使其占据 32 位实体的最高 4 位。
- 逻辑右移用于将半字节移动到 32 位实体内的某个位置。
第一个将比半字节低阶的位设置为零,第二个将比半字节高阶的位设置为零。然后可以使用按位或运算在 32 位实体中存储多达 8 个半字节。
如何在实践中应用?
假设您有 64 x 32 位整数值存储在 8 个AVX 寄存器__m256i q_1, q_2, q_3, q_4, q_5, q_6, q_7, q_8 中。我们还假设每个值都在 [-8, 7] 范围内。如果要将它们打包到一个 64 x 4 位值的 AVX 寄存器中,可以执行以下操作:
//
// Transpose the 8x8 registers
//
_mm256_transpose8_epi32(q_1, q_2, q_3, q_4, q_5, q_6, q_7, q_8);
//
// Shift values left
//
q_1 = _mm256_slli_epi32(q_1, 28);
q_2 = _mm256_slli_epi32(q_2, 28);
q_3 = _mm256_slli_epi32(q_3, 28);
q_4 = _mm256_slli_epi32(q_4, 28);
q_5 = _mm256_slli_epi32(q_5, 28);
q_6 = _mm256_slli_epi32(q_6, 28);
q_7 = _mm256_slli_epi32(q_7, 28);
q_8 = _mm256_slli_epi32(q_8, 28);
//
// Shift values right (zero-extend)
//
q_1 = _mm256_srli_epi32(q_1, 7 * 4);
q_2 = _mm256_srli_epi32(q_2, 6 * 4);
q_3 = _mm256_srli_epi32(q_3, 5 * 4);
q_4 = _mm256_srli_epi32(q_4, 4 * 4);
q_5 = _mm256_srli_epi32(q_5, 3 * 4);
q_6 = _mm256_srli_epi32(q_6, 2 * 4);
q_7 = _mm256_srli_epi32(q_7, 1 * 4);
q_8 = _mm256_srli_epi32(q_8, 0 * 4);
//
// Pack together
//
__m256i t1 = _mm256_or_si256(q_1, q_2);
__m256i t2 = _mm256_or_si256(q_3, q_4);
__m256i t3 = _mm256_or_si256(q_5, q_6);
__m256i t4 = _mm256_or_si256(q_7, q_8);
__m256i t5 = _mm256_or_si256(t1, t2);
__m256i t6 = _mm256_or_si256(t3, t4);
__m256i t7 = _mm256_or_si256(t5, t6);
班次通常需要 1 个周期的吞吐量和 1 个周期的延迟,因此您可以假设这实际上非常便宜。如果您必须处理无符号 4 位值,则可以一起跳过左移。
要反转该过程,您可以应用相同的方法。假设您已将 64 个 4 位值加载到单个 AVX 寄存器 __m256i qu_64 中。为了产生 64 x 32 位整数__m256i q_1, q_2, q_3, q_4, q_5, q_6, q_7, q_8,您可以执行以下操作:
//
// Shift values left
//
const __m256i qu_1 = _mm256_slli_epi32(qu_64, 4 * 7);
const __m256i qu_2 = _mm256_slli_epi32(qu_64, 4 * 6);
const __m256i qu_3 = _mm256_slli_epi32(qu_64, 4 * 5);
const __m256i qu_4 = _mm256_slli_epi32(qu_64, 4 * 4);
const __m256i qu_5 = _mm256_slli_epi32(qu_64, 4 * 3);
const __m256i qu_6 = _mm256_slli_epi32(qu_64, 4 * 2);
const __m256i qu_7 = _mm256_slli_epi32(qu_64, 4 * 1);
const __m256i qu_8 = _mm256_slli_epi32(qu_64, 4 * 0);
//
// Shift values right (sign-extent) and obtain 8x8
// 32-bit values
//
__m256i q_1 = _mm256_srai_epi32(qu_1, 28);
__m256i q_2 = _mm256_srai_epi32(qu_2, 28);
__m256i q_3 = _mm256_srai_epi32(qu_3, 28);
__m256i q_4 = _mm256_srai_epi32(qu_4, 28);
__m256i q_5 = _mm256_srai_epi32(qu_5, 28);
__m256i q_6 = _mm256_srai_epi32(qu_6, 28);
__m256i q_7 = _mm256_srai_epi32(qu_7, 28);
__m256i q_8 = _mm256_srai_epi32(qu_8, 28);
//
// Transpose the 8x8 values
//
_mm256_transpose8_epi32(q_1, q_2, q_3, q_4, q_5, q_6, q_7, q_8);
如果处理无符号 4 位,则可以一起跳过右移 (_mm256_srai_epi32),而不是左移,我们可以执行左逻辑移位 (_mm256_srli_epi32 )。
要查看更多详细信息,请查看gist here。
添加奇数和偶数 4 位条目
假设您使用AVX从向量加载:
const __m256i qv = _mm256_loadu_si256( ... );
现在,我们可以轻松提取奇数和偶数部分。如果AVX2 中有 8 位移位,生活会容易得多,但没有,所以我们必须处理 16 位移位:
const __m256i hi_mask_08 = _mm256_set1_epi8(-16);
const __m256i qv_odd_dirty = _mm256_slli_epi16(qv, 4);
const __m256i qv_odd_shift = _mm256_and_si256(hi_mask_08, qv_odd_dirty);
const __m256i qv_evn_shift = _mm256_and_si256(hi_mask_08, qv);
此时,您在两个AVX 寄存器中基本上分离了奇数和偶数半字节,这些寄存器将它们的值保存在高 4 位(即范围 [-8 * 2^4, 7 * 2^4])。即使在处理无符号 4 位值时,该过程也是相同的。现在是添加值的时候了。
const __m256i qv_sum_shift = _mm256_add_epi8(qv_odd_shift, qv_evn_shift);
这适用于有符号和无符号,因为二进制加法适用于二进制补码。但是,如果您想避免上溢或下溢,您还可以考虑在 AVX 中已经支持饱和的加法(对于有符号和无符号):
__m256i _mm256_adds_epi8 (__m256i a, __m256i b)
__m256i _mm256_adds_epu8 (__m256i a, __m256i b)
qv_sum_shift 将在 [-8 * 2^4, 7 * 2^4] 范围内。要将其设置为正确的值,我们需要将其移回(注意如果qv_sum 必须是无符号的,我们可以使用_mm256_srli_epi16 代替):
const __m256i qv_sum = _mm256_srai_epi16(qv_sum_shift, 4);
求和现已完成。根据您的用例,这也可能是程序的结束,假设您想要生成 8 位的内存块作为结果。但是让我们假设你想解决一个更难的问题。让我们假设输出又是一个 4 位元素的向量,具有与输入相同的内存布局。在这种情况下,我们需要将 8 位块打包成 4 位块。但是,问题在于,我们最终会得到 32 个值(即向量大小的一半),而不是 64 个值。
从这一点来看,有两种选择。我们要么在向量中向前看,处理 128 x 4 位的值,因此我们产生 64 x 4 位的值。或者我们恢复到 SSE,处理 32 x 4 位值。无论哪种方式,将 8 位块打包成 4 位块的最快方法是使用 vpackuswb(或 packuswb 用于 SSE)指令:
__m256i _mm256_packus_epi16 (__m256i a, __m256i b)
该指令使用无符号饱和将压缩的 16 位整数从 a 和 b 转换为压缩的 8 位整数,并将结果存储在 dst 中。这意味着我们必须交错奇数和偶数 4 位值,以便它们驻留在 16 位内存块的 8 个低位中。我们可以进行如下操作:
const __m256i lo_mask_16 = _mm256_set1_epi16(0x0F);
const __m256i hi_mask_16 = _mm256_set1_epi16(0xF0);
const __m256i qv_sum_lo = _mm256_and_si256(lo_mask_16, qv_sum);
const __m256i qv_sum_hi_dirty = _mm256_srli_epi16(qv_sum_shift, 8);
const __m256i qv_sum_hi = _mm256_and_si256(hi_mask_16, qv_sum_hi_dirty);
const __m256i qv_sum_16 = _mm256_or_si256(qv_sum_lo, qv_sum_hi);
有符号和无符号 4 位值的过程相同。现在,qv_sum_16 包含两个连续的 4 位值,存储在 16 位内存块的低位中。假设我们从下一次迭代中获得了qv_sum_16(称为qv_sum_16_next),我们可以将所有内容打包为:
const __m256i qv_sum_pack = _mm256_packus_epi16(qv_sum_16, qv_sum_16_next);
const __m256i result = _mm256_permute4x64_epi64(qv_sum_pack, 0xD8);
或者,如果我们只想生成 32 x 4 位的值,我们可以执行以下操作:
const __m128i lo = _mm256_extractf128_si256(qv_sum_16, 0);
const __m128i hi = _mm256_extractf128_si256(qv_sum_16, 1);
const __m256i result = _mm_packus_epi16(lo, hi)
把它们放在一起
假设有符号的半字节,向量大小n,使得n大于128个元素并且是128的倍数,我们可以执行奇偶加法,产生n/2元素如下:
void add_odd_even(uint64_t n, int8_t * v, int8_t * r)
{
//
// Make sure that the vector size that is a multiple of 128
//
assert(n % 128 == 0);
const uint64_t blocks = n / 64;
//
// Define constants that will be used for masking operations
//
const __m256i hi_mask_08 = _mm256_set1_epi8(-16);
const __m256i lo_mask_16 = _mm256_set1_epi16(0x0F);
const __m256i hi_mask_16 = _mm256_set1_epi16(0xF0);
for (uint64_t b = 0; b < blocks; b += 2) {
//
// Calculate the offsets
//
const uint64_t offset0 = b * 32;
const uint64_t offset1 = b * 32 + 32;
const uint64_t offset2 = b * 32 / 2;
//
// Load 128 values in two AVX registers. Each register will
// contain 64 x 4-bit values in the range [-8, 7].
//
const __m256i qv_1 = _mm256_loadu_si256((__m256i *) (v + offset0));
const __m256i qv_2 = _mm256_loadu_si256((__m256i *) (v + offset1));
//
// Extract the odd and the even parts. The values will be split in
// two registers qv_odd_shift and qv_evn_shift, each of them having
// 32 x 8-bit values, such that each value is multiplied by 2^4
// and resides in the range [-8 * 2^4, 7 * 2^4]
//
const __m256i qv_odd_dirty_1 = _mm256_slli_epi16(qv_1, 4);
const __m256i qv_odd_shift_1 = _mm256_and_si256(hi_mask_08, qv_odd_dirty_1);
const __m256i qv_evn_shift_1 = _mm256_and_si256(hi_mask_08, qv_1);
const __m256i qv_odd_dirty_2 = _mm256_slli_epi16(qv_2, 4);
const __m256i qv_odd_shift_2 = _mm256_and_si256(hi_mask_08, qv_odd_dirty_2);
const __m256i qv_evn_shift_2 = _mm256_and_si256(hi_mask_08, qv_2);
//
// Perform addition. In case of overflows / underflows, behaviour
// is undefined. Values are still in the range [-8 * 2^4, 7 * 2^4].
//
const __m256i qv_sum_shift_1 = _mm256_add_epi8(qv_odd_shift_1, qv_evn_shift_1);
const __m256i qv_sum_shift_2 = _mm256_add_epi8(qv_odd_shift_2, qv_evn_shift_2);
//
// Divide by 2^4. At this point in time, each of the two AVX registers holds
// 32 x 8-bit values that are in the range of [-8, 7]. Summation is complete.
//
const __m256i qv_sum_1 = _mm256_srai_epi16(qv_sum_shift_1, 4);
const __m256i qv_sum_2 = _mm256_srai_epi16(qv_sum_shift_2, 4);
//
// Now, we want to take the even numbers of the 32 x 4-bit register, and
// store them in the high-bits of the odd numbers. We do this with
// left shifts that extend in zero, and 16-bit masks. This operation
// results in two registers qv_sum_lo and qv_sum_hi that hold 32
// values. However, each consecutive 4-bit values reside in the
// low-bits of a 16-bit chunk.
//
const __m256i qv_sum_1_lo = _mm256_and_si256(lo_mask_16, qv_sum_1);
const __m256i qv_sum_1_hi_dirty = _mm256_srli_epi16(qv_sum_shift_1, 8);
const __m256i qv_sum_1_hi = _mm256_and_si256(hi_mask_16, qv_sum_1_hi_dirty);
const __m256i qv_sum_2_lo = _mm256_and_si256(lo_mask_16, qv_sum_2);
const __m256i qv_sum_2_hi_dirty = _mm256_srli_epi16(qv_sum_shift_2, 8);
const __m256i qv_sum_2_hi = _mm256_and_si256(hi_mask_16, qv_sum_2_hi_dirty);
const __m256i qv_sum_16_1 = _mm256_or_si256(qv_sum_1_lo, qv_sum_1_hi);
const __m256i qv_sum_16_2 = _mm256_or_si256(qv_sum_2_lo, qv_sum_2_hi);
//
// Pack the two registers of 32 x 4-bit values, into a single one having
// 64 x 4-bit values. Use the unsigned version, to avoid saturation.
//
const __m256i qv_sum_pack = _mm256_packus_epi16(qv_sum_16_1, qv_sum_16_2);
//
// Interleave the 64-bit chunks.
//
const __m256i qv_sum = _mm256_permute4x64_epi64(qv_sum_pack, 0xD8);
//
// Store the result
//
_mm256_storeu_si256((__m256i *)(r + offset2), qv_sum);
}
}
此代码的独立测试器和验证器是available in the gist here。
奇数和偶数 4 位条目相乘
对于奇偶条目的乘法,我们可以使用与上述相同的策略将 4 位提取到更大的块中。
AVX2 不提供 8 位乘法,只有 16 位。但是,我们可以按照Agner Fog's C++ vector class library中实现的方法实现8位乘法:
static inline Vec32c operator * (Vec32c const & a, Vec32c const & b) {
// There is no 8-bit multiply in SSE2. Split into two 16-bit multiplies
__m256i aodd = _mm256_srli_epi16(a,8); // odd numbered elements of a
__m256i bodd = _mm256_srli_epi16(b,8); // odd numbered elements of b
__m256i muleven = _mm256_mullo_epi16(a,b); // product of even numbered elements
__m256i mulodd = _mm256_mullo_epi16(aodd,bodd); // product of odd numbered elements
mulodd = _mm256_slli_epi16(mulodd,8); // put odd numbered elements back in place
__m256i mask = _mm256_set1_epi32(0x00FF00FF); // mask for even positions
__m256i product = selectb(mask,muleven,mulodd); // interleave even and odd
return product;
}
不过,我建议先将半字节提取到 16 位块中,然后使用 _mm256_mullo_epi16 以避免执行不必要的移位。