以李航的统计学习方法中的实例说明

训练集直接考下来了

AdaBoost步骤解析

1.    初始化权值分布

D1(0.1, 0.1, 0.1, …, 0.1) 10个数据,每个数据均为1/N (N为训练集大小)

2.    就是获取误差率最低的分类器

数据集根据x可以分为(0,1,2)(3,4,5),(6,7,8),(9)这 四类,故而,选择点可以选择2.5, 5.5,以及8.5 (只要是能将这几类分开,都可以,比如2.4, 5.6, 8.8等)

3.    分别计算这几个点的基本分类器,选取误差率最低的 基本分类器,

AdaBoost步骤解析

其它计算步骤不说了,详细的去看 李航 详细计算吧

AdaBoost步骤解析

此处主要说一下,为什么 sign[f(x)]训练集会有3个误分类点呢

主要是sign(x)符号函数,当x>0时,sign(x)=1;x<0时,sign(x)=-1,否则sign(x)=0.

计算过程如下所示,红色部分即为误分类点

AdaBoost步骤解析

4.    进行下一次迭代,计算误差率最低的 基本分类器时,除了权重使用D2外,其它算法完全一致,只不过在最后f(x)的值变化,计算f(x)时,变为了两个基本分类器之和,来决定符号函数

AdaBoost步骤解析

相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-11-17
  • 2021-04-09
  • 2021-06-18
  • 2021-09-08
  • 2022-12-23
猜你喜欢
  • 2021-06-17
  • 2022-01-07
  • 2021-09-22
  • 2022-12-23
  • 2021-09-24
  • 2022-02-26
  • 2022-12-23
相关资源
相似解决方案