bagging集成学习中最为经典的算法之一。

Bagging算法的基本思想是:自助采样和投票表决

Bagging就是,有放回采样m个样本,这件事进行T(T一般是奇数)次,这样就得到了T个不相同的训练集,分别用于取训练一个基学习器。因为样本集的构成不同,这T个基学习器就是不同的。而测试集则用这T次自助采样都没有采到过的那部分样本构成。

投票表决:训练出的T个基学习器用于样本预测时,按少数服从多数给出答案。具体有绝对多数表决(至少有多于T/2个基学习器给出了同一答案)。

另外bagging算法主要是降低每一个分类器的误差,就间接降低了集成学习模型的方差。

下面是bagging算法的伪代码流程图:

集成学习-bagging

流程图如下所示:

集成学习-bagging

 

相关文章:

  • 2021-09-06
  • 2022-01-21
  • 2021-10-14
  • 2021-07-25
  • 2021-10-30
  • 2021-05-11
  • 2021-06-19
  • 2021-05-28
猜你喜欢
  • 2021-10-14
  • 2021-04-25
  • 2021-07-14
  • 2022-01-06
  • 2021-07-06
  • 2022-01-12
  • 2021-12-22
相关资源
相似解决方案