【问题标题】:How to find Entropy of Split points when building Decision tree?构建决策树时如何找到分裂点的熵?
【发布时间】:2017-08-17 04:23:14
【问题描述】:

给定一个二分类问题:

有四个正面例子和五个负面例子。因此, P(+) = 4/9 和 P(-) = 5/9。训练样例的熵为 −4/9 log2(4/9) − 5/9 log2(5/9) = 0.9911。

对于a3,这是一个连续的属性,我想求出每次分割的信息增益。

所以我按升序对 a3 值进行排序并找到它们的拆分点。但是我该如何计算它们的熵呢?

给出的答案是:

上图中的信息增益列仅为 0.9911 - 熵。

但是我如何找到熵?

熵的公式是:

但我不明白如何使用这个公式来找到分裂点的熵。

【问题讨论】:

  • 我认为这个问题与 Cross Validated (stats.stackexchange.com) 更相关。

标签: machine-learning classification decision-tree entropy


【解决方案1】:

例如,当您按a3 = 3.5 拆分数据时,您的两个实例进入一个拆分,其余七个实例进入另一个拆分。您应该计算每个拆分的熵,然后对这两个熵进行加权平均。对于a3 = 3.5,python 中的以下代码为您完成:

import numpy as np
entropy1 = -(1/2)*np.log2(1/2) - (1/2)*np.log2(1/2)
entropy2 = -(3/7)*np.log2(3/7) - (4/7)*np.log2(4/7)
entropy = (2/9)*entropy1 + (7/9)*entropy2

【讨论】:

    猜你喜欢
    • 2018-09-27
    • 2011-09-11
    • 2021-05-27
    • 2012-10-12
    • 2018-10-04
    • 2018-06-15
    • 2017-05-22
    • 2021-04-22
    相关资源
    最近更新 更多