【发布时间】:2015-05-25 16:09:54
【问题描述】:
我有一个来自 UCI 机器学习数据库的纯分类数据框 https://archive.ics.uci.edu/ml/datasets/Diabetes+130-US+hospitals+for+years+1999-2008
我正在使用 rpart 来形成一个决策树,该决策树基于一个关于患者是否在 30 天之前返回的新类别(一个新的失败类别)。
我正在为我的决策树使用以下参数
tree_model <- rpart(Failed ~ race + gender + age+ time_in_hospital+ medical_specialty + num_lab_procedures+ num_procedures+num_medications+number_outpatient+number_emergency+number_inpatient+number_diagnoses+max_glu_serum+ A1Cresult+metformin+glimepiride+glipizide+glyburide+pioglitazone+rosiglitazone+insulin+change,method="class", data=training_data, control=rpart.control(minsplit=2, cp=0.0001, maxdepth=20, xval = 10), parms = list(split = "gini"))
打印结果:
CP nsplit rel error xerror xstd
1 0.00065883 0 1.00000 1.0000 0.018518
2 0.00057648 8 0.99424 1.0038 0.018549
3 0.00025621 10 0.99308 1.0031 0.018543
4 0.00020000 13 0.99231 1.0031 0.018543
我看到随着决策树的分支,相对误差正在下降,但 xerror 上升 - 我不明白,因为我认为错误会减少分支越多,越复杂树是。
我认为 xerror 是最重要的,因为大多数修剪树的方法都会从根部切割树。
为什么修剪树时关注的 xerror 是什么? 而当我们总结决策树分类器的误差是多少时,误差是0.99231还是1.0031?
【问题讨论】:
-
这是一个概念问题,不是编码问题。你应该找到一个论坛,这是关于主题的。也许是 CrossValidated.com。
-
我投票结束这个问题,因为它与 help center 中定义的编程无关,而是关于 ML 理论和/或方法 - 请参阅 stackoverflow.com/tags/machine-learning/info 中的介绍和注释跨度>
标签: r machine-learning decision-tree rpart