adaboost

为什么使用 1 个估计器的 adaboost 比简单的决策树更快?

我想比较 adaboost 和决策树。作为原则证明,我将adaboost 中的估计器数量设置为1,并使用决策树分类器作为默认值,期望与简单决策树相同的结果。 我在预测我的测试标签时确实得到了同样的准确度。但是,adaboost 的拟合时间要短得多,而测试时间要长一些。 Adaboost 似乎使用与DecisionTreeClassifier 相同的默认设置,否则,精度不会完全相同。 谁能解... »

使用 Adaboost 的决策树/树桩

我刚开始使用 Adaboost 学习决策树,并正在 OpenCV 上进行尝试,并有一些问题。 增强型决策树 我了解,当我将 Adaboost 与决策树一起使用时,我会不断地将决策树拟合到训练数据的重新加权版本。通过加权多数票进行分类 在使用 Adaboost 训练决策树时,我可以改用 Bootstrapping 吗?即,我们选择数据集的子集并在每个子集上训练一棵树,然后将分类器输入 Adab... »

c++

将 GridSearchCV 与 AdaBoost 和 DecisionTreeClassifier 一起使用

我正在尝试使用 DecisionTreeClassifier (“DTC”) 作为 base_estimator 来调整 AdaBoost 分类器 (“ABT”)。我想同时调整 both ABT 和 DTC 参数,但不确定如何实现 - 管道不应该工作,因为我没有将 DTC 的输出“管道”到 ABT。这个想法是在 GridSearchCV 估计器中迭代 ABT 和 DTC 的超参数。 如何正确指... »

sklearn 的 Adaboost predict_proba 如何在内部工作?

我正在使用 sklearn 的“predict_proba()”来预测样本属于 Adaboost 分类器中每个估计器的类别的概率。 from sklearn.ensemble import AdaBoostClassifier clf = AdaBoostClassifier(n_estimators=50) for estimator in clf.estimators_: print... »

adaboost 更新权重 beta 值

Viola-Jones 人脸检测使用 adaboost 方法训练强分类器。我对 beta 参数更新政策感到困惑: 为什么选择这样的 beta 值?设置变量beta的目的是为了增加Weights的权重。如何选择: ... »

什么是使用 Adaboost(自适应提升)方法和决策树的示例

是否有任何好的教程来解释如何在为样本训练集构建决策树的连续迭代过程中对样本进行加权?我想具体说明在构建第一棵决策树后如何分配权重。 决策树是使用信息增益作为锚设计的,我想知道由于之前迭代中的错误分类被加权,这会如何影响。 非常感谢任何好的教程/示例。... »

收集adaboost算法的负样本进行人脸检测

Viola-Jones 的 AdaBoost 方法在人脸检测中非常流行?我们需要大量正样本和负样本来训练人脸检测器。 收集正样本的规则很简单:包含人脸的图像。但是负样本的收集规则不是很明确:不包含人脸的图像。 但是有很多场景不包含人脸(可能是天空、河流、家养动物等)。我应该收集哪个?如何知道我已经收集了足够的负样本? 对负样本的一些建议:使用正样本并使用左侧部分作为负样本裁剪面部区域。这是工... »

这种 AdaBoost 行为是否正确?

我正在按照Viola-Jones 论文中的描述实施 AdaBoost,以供我自己启迪。在对算法进行单元测试的过程中,我发现了一些奇怪的行为。这可能只是算法对预设数据的奇怪行为,或者我可能遗漏了一些东西。我想知道是哪种情况。 首先我有: 2 instances of A type faces 1 instance of a B type face 3 instances of noise --... »

在 R 中使用 gbm 进行梯度提升,分布 =“bernoulli”

我在R 中使用gbm 包并应用'bernoulli' 选项进行分发以构建分类器,我得到'nan' 的异常结果,我无法预测任何分类结果。但是当我使用“adaboost”时,我没有遇到同样的错误。下面是示例代码,我用 iris 数据集复制了同样的错误。 ## using the iris data for gbm library(caret) library(gbm) data(iris) Data... »

AdaBoost 的 O() 运行时复杂度是多少?

我正在使用来自 scikit-learn 的 AdaBoost,使用典型的 DecisionTree 弱学习器。我想根据数据大小 N 和弱学习者 T 的数量来了解运行时复杂性。我已经搜索了这些信息,包括 Yoav Freund 和 Robert Schapire 的一些原始 Adaboost 论文,但没有看到一个非常明确的答案.... »

预测方法显示标准化概率?

我在 Scikit-learn 中使用 AdaBoostClassifier,无论训练集有多不平衡,平均概率始终为 0.5。类预测 (predict_) 似乎给出了正确的估计,但这些并没有反映在 predict_probas 方法中,该方法总是平均为 0.5。 如果我的“真实”概率是 0.02,我如何转换标准化概率以反映该比例?... »

在 R 的 caret 包中使用 adaboost

我使用ada R 包已经有一段时间了,最​​近又使用了caret。根据文档,caret 的train() 函数应该有一个使用 ada 的选项。但是,当我使用与 ada() 通话中相同的语法时,插入符号对我很不利。 这是一个演示,使用wine 样本数据集。 library(doSNOW) registerDoSNOW(makeCluster(2, type = "SOCK")) library(... »

GentleBoost n 元分类器?

我正在寻找关于 n-ary Gentle Boost 分类器的资源或实现。 我见过许多 Adaboost 实现,Matlab 的 Ensemble 中 GentleBoost 的一个实现,但它似乎总是二进制。 WEKA 也只有 AdaBoost 实现,没有 Gentle Boost。 大家有什么建议吗 - 如何获得 n 元 Gentle Boost 实现? - 如果还没有的话,建造一个大约... »

如何使用 Matlab fitcensemble 控制树弱学习器的深度

我正在对具有 8 个特征和 5000 个样本的数据使用 Matlab 的 fitensemble 函数。 使用以下命令,我可以训练模型: ada= fitensemble(datafeatures,dataclass,'AdaBoostM1',200,'tree'); 我的问题:我怎样才能用一个分裂(两个叶子而不是很多叶子)创建弱学习器? 我知道以下命令控制树的创建方式: t = Class... »

具有不同基础学习器的 AdaBoostClassifier

我正在尝试将 AdaBoostClassifier 与 DecisionTree 以外的基础学习器一起使用。我已经尝试过 SVM 和 KNeighborsClassifier,但我得到了错误。 AdaBoostClassifier 可以使用哪些分类器?... »

Adaboost weka 真阳性与假阳性识别问题

我在 Weka 实验环境中使用默认设置的 Adaboost M1 算法: 运行 (1-10) -> 运行 10 次以提供更具统计意义的结果 随机拆分结果生成器 我使用训练百分比来区分训练和评估数据 现在,问题在于加权平均 TP 和 FP 结果。 我明白了: TP:0.8 FP:0.47 但据我所知,如果TP率为0.8,FP率应该高达0.2? 我假设这与 10 次运行有关,但无论如何,如果... »

Adaboost 中的参数选择

在将 OpenCV 用于boosting 之后,我正在尝试实现我自己的Adaboost 算法版本(请查看here、here 和the original paper 以获得一些参考)。 通过阅读所有材料,我提出了一些关于算法实现的问题。 1) 我不清楚每个弱学习器的权重 a_t 是如何分配的。 在我指出的所有来源中,选择是a_t = k * ln( (1-e_t) / e_t ),k 是一个正... »