【发布时间】:2021-04-19 09:44:03
【问题描述】:
【问题讨论】:
标签: scikit-learn decision-tree
【问题讨论】:
标签: scikit-learn decision-tree
它们向您指示您在该步骤中按类别划分的样本数量。
例如,您的图片显示,在拆分为“hops
意识到如果将这两个值相加,您将获得与参数“samples”相同的数字(3476)。
如果树有效,您将观察到数据如何在每一步中更好地拆分。对于最后的叶子,您将看到您有明确的值,例如[300, 2]。那么您可以说所有这些样本都是 0 类。
【讨论】:
DecisionTreeRegressor 中的含义,尤其是。对于内部节点?
DecisionTreeClassifier:DecisionTreeClassifier 中的 value 是每个节点的 samples 中的类拆分。
请记住,如果您在调用 fit() 时对您的课程进行加权,它也可能会被加权。
例如:
cw={0: 0.6495288248337029, 1: 2.1719184430027805}
取真节点,你的真类分裂计算如下:
>>> [3819.229 / cw[0], 1216.274 / cw[1]]
[5880, 560]
如果不清楚,您的标准是根据加权拆分计算的:
>>> a, b = 3819.229, 1216.274
>>> ab = a + b
>>> (-(a / ab)*math.log2(a / ab)) - ((b / ab)*math.log2(b / ab))
0.7975914228753467
DecisionTreeRegressor:DecisionTreeRegressor 中的 value 是树为落入该节点的新示例预测的值。如果您的标准是 MSE,您会发现 value 是该节点中 samples 的平均度量。
例如:
*(数据:Seaborn 的“点”示例集。)
在 coherence 上拟合的深度 1 回归树来预测 firing_rate。这不是一棵非常有用的树,但它说明了这个想法。
取真节点,value计算为:
>>> value = data[data.coherence <= 19.2].firing_rate.mean()
>>> value
40.48326118418657
该节点的 squared_error 是:
>>> ((data[data.coherence <= 19.2].firing_rate - value)**2).mean()
134.6504380931471
【讨论】: