【问题标题】:Why we need .fit after KFold cross validation为什么我们在 K 折交叉验证后需要 .fit
【发布时间】:2020-05-05 13:40:09
【问题描述】:

如果交叉验证在训练数据上训练我们的模型 k 次,那么我们为什么需要 fit 方法。

当我使用下面的代码时

from sklearn.model_selection import cross_val_score
cross_val_score(model, train_s1, target_s1, cv=5 , scoring='neg_mean_absolute_error')

我需要使用 .fit 才能使用 .predict。但为什么 ?当交叉验证已经在训练数据上训练我的模型时。

【问题讨论】:

    标签: machine-learning cross-validation k-fold


    【解决方案1】:

    在交叉验证中,您可以处理折叠(K 折叠),可能像 3、5、10 等,其中数据根据提到的折叠分成不同的部分。 CV,然后在每个折叠上执行训练,并根据传递给 CV 的不同特征暴露准确性。现在您对您的数据有了一个概念,并且您还知道哪个功能最适合处理您的数据。在此过程之后,您开始对实时数据进行实际的模型训练和预测(这就是您再次调用 fit 的原因)。

    简历有很多好处,您可以浏览这些好处以获得深入的信息。

    【讨论】:

      猜你喜欢
      • 2016-01-15
      • 1970-01-01
      • 2020-08-29
      • 2021-04-06
      • 2016-12-15
      • 2018-08-29
      • 2017-06-09
      • 2017-07-02
      • 1970-01-01
      相关资源
      最近更新 更多