1. 决策树特点:

  1)优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。

  2)缺点:可能会产生过度匹配问题。

  3)适用数据类型:数值型和标称型。

2. 一般流程:

  1)收集数据:可以使用任何方法;

  2)准备数据:构造树算法只适用于标称型数据,因此数值型数据必须离散化;

  3)分析数据:可以使用任何方法,构造树完成后,我们应该坚持图形是否符合预期;

  4)训练算法:构造树的数据结构;

    a. 在划分数据集之前之后信息发生的变化称为信息增益。

     熵定义为信息的期望值,可用于分类,计算公式:

      H = -Σ ni=1 p(xi)log2p(xi)

    b. 创建决策树原理:

      得到原始数据集,然后基于最好的属性值划分数据集,由于特征值可能多于两个,因此可能存在大于两个分支的数据集划分。

      第一次划分之后,数据将被向下传递到树分支的下一个节点,在这个节点上,我们再次划分数据。

[机器学习实战] 决策树ID3算法

 [机器学习实战] 决策树ID3算法

 决策树存储方法:

[机器学习实战] 决策树ID3算法

  5)测试算法:使用经验树计算错误率;

  6)使用算法:此步骤可以适用于任何监督学习算法,而使用决策树可以更好地理解数据的内在含义。

 3. 应用:

  预测隐形眼镜类型;

  

相关文章:

  • 2022-12-23
  • 2021-06-25
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-05-30
  • 2021-11-24
  • 2022-12-23
猜你喜欢
  • 2021-08-29
  • 2022-12-23
  • 2021-12-31
  • 2021-08-10
  • 2021-04-18
  • 2021-09-11
  • 2022-01-08
相关资源
相似解决方案