【问题标题】:Why is there such a massive difference in compile time between consteval/constexpr and template metafunctions?为什么 consteval/constexpr 和模板元函数之间的编译时间存在如此巨大的差异?
【发布时间】:2021-09-23 00:43:13
【问题描述】:

我很好奇在编译时评估方面我可以将 gcc 推到多远,所以我让它计算 Ackermann 函数,特别是输入值为 4 和 1(任何高于此值都不切实际):

consteval unsigned int A(unsigned int x, unsigned int y)
{
    if(x == 0)
        return y+1;
    else if(y == 0)
        return A(x-1, 1);
    else
        return A(x-1, A(x, y-1));
}

unsigned int result = A(4, 1);

(我认为递归深度限制在~16K,但为了安全起见,我用-std=c++20 -fconstexpr-depth=100000 -fconstexpr-ops-limit=12800000000编译了这个)

毫不奇怪,这会占用大量的堆栈空间(事实上,如果以 8mb 的默认进程堆栈大小运行,它会导致编译器崩溃)并且需要几分钟的计算时间。但是,它最终确实会到达那里,很明显编译器可以处理它。

在那之后,我决定尝试使用模板、元函数和部分特化模式匹配来实现 Ackermann 函数。令人惊讶的是,以下实现只需要几秒钟即可评估:

template<unsigned int x, unsigned int y>
struct A {
    static constexpr unsigned int value = A<x-1, A<x, y-1>::value>::value;
};

template<unsigned int y>
struct A<0, y> {
    static constexpr unsigned int value = y+1;
};

template<unsigned int x>
struct A<x, 0> {
  static constexpr unsigned int value = A<x-1, 1>::value;
};

unsigned int result = A<4,1>::value;

(用-ftemplate-depth=17000编译)

为什么评估时间会有如此巨大的差异?这些本质上不是等效的吗?我想我可以理解 consteval 解决方案需要更多的内存和评估时间,因为它在语义上由一堆函数调用组成,但这并不能解释为什么在运行时计算的这个完全相同的(非 consteval)函数只需要一点点比元函数版本长(编译时没有优化)。

为什么consteval 这么慢?我几乎很想得出结论,它正在由 GIMPLE 解释器或类似的东西进行评估。还有,元功能版怎么会这么快?它实际上并不比优化的机器码慢多少。

【问题讨论】:

    标签: c++ templates c++20 ackermann consteval


    【解决方案1】:

    A 的模板版本中,当一个特定的特化,比如A&lt;2,3&gt;,被实例化时,编译器会记住这个类型,并且永远不需要再次实例化它。这是因为类型是唯一的,对这个元函数的每次“调用”只是计算一个类型。

    consteval 函数版本未对此进行优化,因此A(2,3) 可能会被多次评估,具体取决于控制流,从而导致您观察到的性能差异。没有什么可以阻止编译器“缓存”函数调用的结果,但这些优化可能还没有实现。

    【讨论】:

    • 有没有办法手动做memoization?
    • @JerryJeremiah 不,至少我不知道。 也许如果中间函数调用的值存储在变量中,但我没有充分利用它来知道这是否有任何区别。
    猜你喜欢
    • 2017-11-12
    • 1970-01-01
    • 2022-01-19
    • 2013-05-21
    • 1970-01-01
    • 2021-05-27
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多