【发布时间】:2015-08-13 23:47:12
【问题描述】:
我正在处理数字特征,我想在 sklearn 中使用决策树分类器来查找特征重要性。
所以,如果我选择熵标准进行分割,信息增益被用作分割数据的杂质度量。我猜这相当于 Fayyad & Irani 二进制离散化。
最后,分类器返回一个名为“特征重要性”的属性。
特征重要性。越高,特征越重要。 特征的重要性被计算为(归一化的)总 降低该特征带来的标准。这也是众所周知的 作为基尼系数 [R195]。
我的问题是,即使我使用信息增益来找到最佳分割,“特征重要性”是否会返回在使用熵标准找到的分割中测量的基尼重要性值?
【问题讨论】:
标签: classification decision-tree feature-selection entropy information-theory