【问题标题】:What does the AdaBoost algorithm iterate over?AdaBoost 算法迭代了什么?
【发布时间】:2018-08-29 04:13:04
【问题描述】:

我正在尝试使用决策树桩作为弱学习器来实现 AdaBoost 算法,尽管我无法完全理解该算法的结构。 我正在从维基百科页面学习算法 - https://en.m.wikipedia.org/wiki/AdaBoost 由于算法是迭代的,我们从 't in 1...T' 开始迭代,但是这个 T 到底是什么?是数据集中的样本总数,还是分割决策树桩的可能特征的数量?如果这是样本数,那么这是否意味着我们可能会在多个弱学习器中拆分相同的特征?或者加权数据样本的方法是否阻止了这种情况的发生?

【问题讨论】:

    标签: c# machine-learning classification adaboost


    【解决方案1】:

    AdaBoost(和所有提升算法)迭代训练多个弱模型(指定为参数),其输出被聚合以形成最终集成。

    所以T 这是要训练的弱学习器的数量。

    【讨论】:

    • 那么我们最初如何确定T的大小呢?
    • 这是一个你需要调整的超参数(例如,使用交叉验证)。这取决于数据的大小和特征,但从 50 或 100 之类的值开始应该可以。
    猜你喜欢
    • 2012-04-20
    • 2015-09-20
    • 2012-08-03
    • 1970-01-01
    • 2015-11-06
    • 2016-08-09
    • 2021-09-29
    • 1970-01-01
    • 2011-03-12
    相关资源
    最近更新 更多