【问题标题】:How can the perplexity of a language model be between 0 and 1?语言模型的困惑度怎么可能介于 0 和 1 之间?
【发布时间】:2017-12-05 23:45:03
【问题描述】:

在 Tensorflow 中,我得到的输出是 0.602129 或 0.663941。看起来更接近 0 的值意味着更好的模型,但似乎困惑度应该被计算为 2^loss,这意味着损失是负数。这没有任何意义。

【问题讨论】:

    标签: python tensorflow language-model sequence-to-sequence perplexity


    【解决方案1】:

    这对我来说没有多大意义。困惑度计算为2^entropy。熵是从 0 到 1。所以你的结果

    我建议你看看你的模型是如何计算困惑度的,因为我怀疑可能有错误。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2012-04-10
      • 2015-02-20
      • 1970-01-01
      • 1970-01-01
      • 2011-07-19
      • 1970-01-01
      • 2022-11-29
      • 2016-01-08
      相关资源
      最近更新 更多