【问题标题】:Ranking and scores in Recursive Feature Elimination (RFE) in scikit-learnscikit-learn 中递归特征消除 (RFE) 的排名和分数
【发布时间】:2013-08-17 03:03:19
【问题描述】:

我试图了解如何读取RFECV 中的grid_scores_ranking_ 值。以下是文档中的主要示例:

from sklearn.datasets import make_friedman1
from sklearn.feature_selection import RFECV
from sklearn.svm import SVR
X, y = make_friedman1(n_samples=50, n_features=10, random_state=0)
estimator = SVR(kernel="linear")
selector = RFECV(estimator, step=1, cv=5)
selector = selector.fit(X, y)
selector.support_ 
array([ True,  True,  True,  True,  True,
        False, False, False, False, False], dtype=bool)

selector.ranking_
array([1, 1, 1, 1, 1, 6, 4, 3, 2, 5])

我应该如何阅读ranking_grid_scores_越低排名价值是否越好? (或相反亦然?)。之所以问这个问题是因为我注意到具有 最高排名 值的特征通常在grid_scores_ 中得分最高。

但是,如果某个东西有 ranking = 1,这不应该意味着它被评为该组中最好的吗?。这也是文档says

选定(即估计的最佳)特征被分配排名 1

但是现在让我们用一些真实数据来看看下面的例子:

> rfecv.grid_scores_[np.nonzero(rfecv.ranking_ == 1)[0]]
0.0

而具有最高排名价值的特征具有最高 *得分*。

> rfecv.grid_scores_[np.argmax(rfecv.ranking_ )]
0.997

请注意,在上面的示例中,ranking=1 的特征得分最低

文档中的图:

关于这件事,在文档中的this figure 中,y 轴读取"number of misclassifications",但它正在绘制grid_scores_,它使用'accuracy' (?) 作为评分函数。 y 标签不应该读作accuracy 吗? (越高越好)而不是"number of misclassifications"越低越好

【问题讨论】:

    标签: python machine-learning scikit-learn


    【解决方案1】:

    你是正确的,低排名值表示一个好的特性,并且 grid_scores_ 属性中的高交叉验证分数也很好,但是你误解了 grid_scores_ 中的值的含义。来自 RFECV 文档

    grid_scores_
    
    array of shape [n_subsets_of_features]
    
    The cross-validation scores such that grid_scores_[i] corresponds to the CV score of the i-th subset of features.
    

    因此,grid_scores_ 值不对应于特定特征,它们是特征子集的交叉验证错误指标。在该示例中,具有 5 个特征的子集被证明是信息量最大的集合,因为grid_scores_ 中的第 5 个值(包含 5 个最高排名特征的 SVR 模型的 CV 值)是最大的。

    您还应该注意,由于没有明确指定评分指标,因此使用的评分器是 SVR 的默认值,即 R^2,而不是准确度(仅对分类器有意义)。

    【讨论】:

      猜你喜欢
      • 2018-05-21
      • 2017-03-30
      • 2020-03-24
      • 2018-05-23
      • 2015-11-19
      • 2013-10-11
      • 1970-01-01
      • 2014-07-12
      • 2016-06-30
      相关资源
      最近更新 更多