【问题标题】:Information gain vs minimizing entropy信息增益与最小化熵
【发布时间】:2016-02-23 21:07:38
【问题描述】:

在什么情况下最大化信息增益不等于最小化熵?更广泛的问题是为什么我们需要信息增益的概念?仅使用熵来决定决策树的下一个最优属性是否不够?

【问题讨论】:

  • 在此处查看接受的答案:stackoverflow.com/questions/1859554/…
  • Information_Gain = Entropy_before - Entropy_after
  • Entropy_before 不是常数吗?这是否意味着我们应该只考虑最小化 Entropy_after?
  • 是的。最大化 information_Gain 和最小化 Entropy_after 是一回事。
  • 我同意 - 我也看不出区别。但是可能存在差异,sklearn 甚至可以根据每个节点scikit-learn.org/stable/modules/generated/… 中的观察分数来缩放增益,在我看来,这只是乘以一个常数,这应该不会产生任何影响。

标签: math decision-tree entropy information-gain


【解决方案1】:

最大化 IG(也称为互信息)倾向于提供与最小化熵相同的结果。

基本上,如果你最小化熵,你就会迫使信息增益最大化。

【讨论】:

    猜你喜欢
    • 2010-12-27
    • 2011-07-24
    • 2010-12-23
    • 2014-01-07
    • 2016-06-23
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2011-06-01
    相关资源
    最近更新 更多