“信息是用来消除随机不确定性的东西”。也就是说衡量信息量大小就看这个信息消除不确定性的程度。

理解 信息:

“太阳从东方升起了”这条信息没有减少不确定性。因为太阳肯定从东面升起。这是句废话,信息量为0。

“吐鲁番下中雨了”(吐鲁番年平均降水量日仅6天)这条信息比较有价值,为什么呢,因为按统计来看吐鲁番明天不下雨的概率为98%(1-6/300),对于吐鲁番下不下雨这件事,首先它是随机不去确定的,这条信息直接否定了发生概率为98%的事件------不下雨,把非常大概率的事情(不下雨)否定了,即消除不确定性的程度很大,所以这条信息的信息量比较大。这条信息的情形发生概率仅为2%但是它的信息量去很大,上面太阳从东方升起的发生概率很大为1,但信息量确很小。

从上面两个例子可以看出:信息量的大小和事件发生的概率成反比。

理解 信息熵

信息量度量的是一个具体事件发生所带来的信息,而熵则是在结果出来之前对可能产生的信息量的期望——考虑该随机变量的所有可能取值,即所有可能发生事件所带来的信息量的期望。即

信息量、熵、 交叉熵、 联合熵、 条件熵 、KL散度 、JS散度

信息熵是用来衡量事物不确定性的。信息熵越大,事物越具不确定性,事物越复杂。

具体看书上的定义:

信息量、熵、 交叉熵、 联合熵、 条件熵 、KL散度 、JS散度

信息量、熵、 交叉熵、 联合熵、 条件熵 、KL散度 、JS散度

信息量、熵、 交叉熵、 联合熵、 条件熵 、KL散度 、JS散度

信息量、熵、 交叉熵、 联合熵、 条件熵 、KL散度 、JS散度信息量、熵、 交叉熵、 联合熵、 条件熵 、KL散度 、JS散度

信息量、熵、 交叉熵、 联合熵、 条件熵 、KL散度 、JS散度

参考:https://blog.csdn.net/idwtwt/article/details/81043942

《神经网络与深度学习》邱锡鹏

相关文章:

  • 2022-01-31
  • 2021-08-14
  • 2021-12-12
  • 2022-12-23
  • 2021-04-30
  • 2021-05-15
  • 2021-07-28
  • 2021-08-29
猜你喜欢
  • 2021-05-28
  • 2022-12-23
  • 2021-12-31
  • 2021-05-01
  • 2021-11-14
  • 2022-12-23
相关资源
相似解决方案