【问题标题】:assessing accuracy within k-fold cross validation versus hold out data评估 k 折交叉验证中的准确性与保留数据
【发布时间】:2019-12-01 19:47:31
【问题描述】:

我观察到应用Stratifiedkfold 后的平均准确度比holdout data 上的准确度要高。我想知道在这种情况下这是否可能是过度拟合的迹象,如果是这样,有人可以解释一下。

holdout 模型的准确率约为 95.7%,Stratifiedkfold 集的准确率为 96.3%。

【问题讨论】:

  • 改写问题

标签: python machine-learning cross-validation k-fold


【解决方案1】:

我不明白你的第二段,但是是的。当训练准确率高于验证准确率时,表示过拟合。然而,情况总是如此(除非幸运)。少量的过度拟合是完全正常的,就像你的情况一样。

顺便说一句,这个问题更适合 datascience.stackexchange 或 crossvalidated.stackexchange。

【讨论】:

    猜你喜欢
    • 2018-06-22
    • 2018-12-17
    • 1970-01-01
    • 2021-06-03
    • 2020-03-15
    • 2014-11-02
    • 2016-01-15
    • 2016-04-05
    • 2021-10-15
    相关资源
    最近更新 更多