【发布时间】:2021-07-29 17:18:49
【问题描述】:
我正在尝试使用 RFECV 拟合逻辑回归。这是我的代码:
log_reg = LogisticRegression(solver = "lbfgs",
max_iter = 1000)
random.seed(4711)
rfecv = RFECV(estimator = log_reg,
scoring = "accuracy",
cv = 10)
Model = rfecv.fit(X_train, y_train)
我不认为我的数据或我的代码有什么问题,但几乎每一个不同的特征大小值的准确度都是完全相同的:
Model.grid_scores_
array([0.76200776, 0.76200776, 0.76200776, 0.76200776, 0.76200776,
0.76200776, 0.76200776, 0.76200776, 0.76200776, 0.76200776,
0.76200776, 0.76200776, 0.76200776, 0.76200776, 0.76200776,
0.76200776, 0.76200776, 0.76200776, 0.76200776, 0.76556425,
0.80968999, 0.80962074])
怎么会这样?我的数据很大(超过 20000 次观察)。我无法想象在交叉验证的每一个折叠中,都正确估计了相同的情况。但如果是这样,这怎么可能发生? 1 个变量可以解释 19 个变量,但不能解释 20 个变量?那为什么不拿第一个和第20个呢?我真的很困惑。
【问题讨论】:
-
嗨托比!你发布的数组是什么?是特征重要性吗?
-
嗨阿图罗!这是
rfecv.grid_scores_。是从 1 到 22 的每个特征大小的准确度(完整模型)?
标签: python scikit-learn logistic-regression cross-validation rfe