【发布时间】:2020-04-18 00:46:49
【问题描述】:
在交叉验证中,比方说 k 折,每次迭代我们基本上都是从头开始创建新模型 - 我们丢弃之前评分的模型并根据不同的训练集创建一个新模型。
众所周知,模型的优势在于它所训练的数据(当然,除了它的超参数)。
所以我的问题是 - 如果模型一直在变化,那么评分的意义何在?
在交叉验证之后,我们不取模型值的平均值。只是计算不再存在的模型分数的平均值。 我显然错过了一些东西,但除了选择超参数和 maby 来指示最适合的模型(从非常高的角度来看)- 我看不到交叉验证的好处。
【问题讨论】:
标签: machine-learning artificial-intelligence analytics data-science cross-validation