信息熵

信源所有可能发生情况的平均不确定性。

交叉熵

衡量两个变量的概率分布的差异性。

相对熵

用模型来衡量真实情况所需要的额外信息
相对熵越小,模型就越接近真实分布。

条件熵

表示在已知随机变量Y的条件下随机变量X的不确定性。

互信息

互信息(Mutual Information)可以被看成是一个随机变量中包含的关于另一个随机变量的信息量,或者说是一个随机变量由于已知另一个随机变量而减少的不确定性。

信息熵 交叉熵 相对熵 条件熵 互信息

相关文章:

  • 2021-08-27
  • 2021-10-18
  • 2021-08-27
  • 2021-11-11
  • 2021-11-25
  • 2021-06-26
  • 2021-06-07
猜你喜欢
  • 2021-11-07
  • 2021-05-28
  • 2021-11-12
  • 2021-04-04
  • 2021-05-27
  • 2021-12-12
相关资源
相似解决方案