【发布时间】:2021-04-09 17:48:06
【问题描述】:
我正在使用sklearn.feature_selection.RFECV 来减少最终模型中的特征数量。使用非交叉验证 RFE,您可以准确选择要选择的特征数量。但是,使用 RFECV,您只能指定 min_number_features_to_select,这更像是一个下限。
那么 RFECV 是如何在每次迭代中丢弃特征的呢?我了解正常的 RFE,但交叉验证如何发挥作用?
这是我的实例:
clf = GradientBoostingClassifier(loss='deviance', learning_rate=0.03, n_estimators=500,
subsample=1.0, criterion='friedman_mse', min_samples_leaf=100,
max_depth=7, max_features='sqrt', random_state=123)
rfe = RFECV(estimator=clf, step=1, min_features_to_select=35, cv=5, scoring='roc_auc',
verbose=1, n_jobs=-1)
rfe.fit(X_train, y_train)
我在documentation 或user guide 中找不到更具体的内容。
【问题讨论】:
标签: python scikit-learn rfe