【问题标题】:XGBoost: Early stopping on default metric, not customized evaluation functionXGBoost:在默认指标上提前停止,而不是自定义评估函数
【发布时间】:2020-06-01 14:59:38
【问题描述】:

我正在使用 XGBoost 0.90。我希望使用 Python 训练 XGBoost 回归模型,使用内置的学习目标,并在内置评估指标上提前停止。简单。就我而言,目标是“reg:tweedie”,评估指标是“tweedie-nloglik”。但在每次迭代中,我希望计算一个信息丰富的自定义指标,它不应该用于提前停止。但它是错误的。

最终我希望使用 scikit-learn GridSearchCV,使用内置目标和指标训练一组模型以提前停止,但最后选择最适合折叠自定义指标的模型。

在这个示例代码中,我使用了另一个内置目标和内置指标,但问题是一样的。

import numpy as np
import pandas as pd
import xgboost as xgb
from sklearn.model_selection import train_test_split

def mymetric(pred, dmat):
    y = dmat.get_label()
    res = np.sqrt(np.sum((y - pred)**4)/len(y))
    return 'mymetric', float(res)

np.random.seed(seed=2500)
x, y, weight = np.random.randn(4096, 16), np.random.randn(4096), np.random.random(4096)

train_x, test_x, train_y, test_y, train_weight, test_weight = train_test_split(x, y, weight, 
                                                                               train_size=0.7, random_state=32)

dtrain = xgb.DMatrix(train_x, label=train_y, weight=train_weight)
dtest = xgb.DMatrix(test_x, label=test_y, weight=test_weight)

results_learning = {}
bst = xgb.train(params={'objective': 'reg:squarederror', 
                        'eval_metric': 'rmse', 
                        'disable_default_eval_metric': 0},
    num_boost_round=20, dtrain=dtrain, evals=[(dtrain, 'dtrain'), (dtest, 'dtest')],
    evals_result=results_learning,
    feval=mymetric,
    early_stopping_rounds=3)

输出是(如果我没有使用 feval,它会在迭代 3 处停止):

[0] dtrain-rmse:1.02988 dtest-rmse:1.11216  dtrain-mymetric:1.85777 dtest-mymetric:2.15138
Multiple eval metrics have been passed: 'dtest-mymetric' will be used for early stopping.
Will train until dtest-mymetric hasn't improved in 3 rounds.
...
Stopping. Best iteration:
[4] dtrain-rmse:0.919674    dtest-rmse:1.08358  dtrain-mymetric:1.56446 dtest-mymetric:1.9885

我怎样才能得到这样的输出?

[0] dtrain-rmse:1.02988 dtest-rmse:1.11216  dtrain-mymetric:1.85777 dtest-mymetric:2.15138
Multiple eval metrics have been passed: 'dtest-rmse' will be used for early stopping.
Will train until dtest-rmse hasn't improved in 3 rounds.
...
Stopping. Best iteration:
[3] dtrain-rmse:0.941712    dtest-rmse:1.0821   dtrain-mymetric:1.61367 dtest-mymetric:1.99428

我本可以使用返回元组列表 (https://github.com/dmlc/xgboost/issues/1125) 的自定义评估函数来解决这个问题。但是,当我希望使用“rmse”或“tweedie-nloglik”等内置评估指标时,可以这样做吗?我可以在自定义评估函数中调用它们吗?

【问题讨论】:

    标签: scikit-learn xgboost early-stopping


    【解决方案1】:

    XGBoost 中有一个内置的提前停止回调函数,可以在其中指定用于提前停止的数据集和指标。在您的情况下,您必须像这样创建一个新的提前停止回调:

    early_stop = xgb.callback.EarlyStopping(rounds=3,
                                        metric_name='rmse',
                                        data_name='dtest')
    

    然后在调用 train 时将其添加到回调列表中:

    bst = xgb.train(params={'objective': 'reg:squarederror', 
                        'eval_metric': 'rmse', 
                        'disable_default_eval_metric': 0},
    num_boost_round=20, dtrain=dtrain, evals=[(dtrain, 'dtrain'), (dtest, 'dtest')],
    evals_result=results_learning,
    feval=mymetric,
    callbacks=[early_stop])
    

    有关更多信息,请参阅此文档页面:https://xgboost.readthedocs.io/en/latest/python/callbacks.html

    【讨论】:

      猜你喜欢
      • 2022-11-04
      • 2016-09-23
      • 2018-07-30
      • 2019-12-04
      • 2020-05-19
      • 2017-08-17
      • 1970-01-01
      • 2020-08-24
      • 2019-01-06
      相关资源
      最近更新 更多