【问题标题】:Reusing a feature to split regression decision tree's nodes重用特征来分割回归决策树的节点
【发布时间】:2021-07-06 09:21:12
【问题描述】:

在我观看的有关回归树算法的视频结束时,我遇到了一个小问题:当数据集的某些特征的阈值低于残差平方和的值时,拆分节点(如果节点中的观察数大于某个预定义值)。但是可以再次使用相同的功能来拆分树的这个分支的节点吗?或者该分支的以下拆分必须由其他特征定义的阈值拆分(即使已经拆分其他节点的特征具有该节点的观察值的残差平方和的较低值的阈值)?

此外,我在研究决策树分类器时也有同样的疑问:如果一个已经在这个分支中使用过的特征可以分裂某个节点的观察值,那么与其他特征的分裂相比,gini 的杂质值较低可以做,比这个“已经使用”的功能是否允许执行拆分?

提前感谢您的关注!

【问题讨论】:

    标签: algorithm machine-learning computer-science decision-tree theory


    【解决方案1】:

    记住哪些数据与树中的任何节点相关联很重要。假设我在特征 x1 上拆分我的根节点,其中左孩子有 x1=0,右孩子有 x1=1。那么左子树中的所有东西都会有 x1=0。在 x1 上拆分不再有意义 - 所有数据都具有相同的 x1 值!

    【讨论】:

    • 感谢您的回复!是的,现在我意识到继续基于相同的功能分割节点是毫无意义的,因为正如你所指出的那样,它会产生无穷无尽的循环。 PS:我试图对你的回答表示赞成,但我还没有足够的声誉:(对不起
    猜你喜欢
    • 2015-12-11
    • 2019-12-11
    • 2018-05-15
    • 1970-01-01
    • 2016-07-29
    • 2019-09-08
    • 2021-09-02
    • 2013-02-15
    • 2017-11-04
    相关资源
    最近更新 更多