【发布时间】:2015-11-16 15:06:35
【问题描述】:
据我了解,在创建监督学习模型时,如果我们做出非常简单的假设(例如,如果我们的函数是线性的),我们的模型可能会有很大的偏差,这会导致算法错过我们的特征和目标输出之间的关系,从而导致在错误中。这是欠拟合的。
另一方面,如果我们的算法过于强大(许多多项式特征),它会对我们的训练集中导致过拟合的小波动非常敏感:对训练数据中的随机噪声进行建模,而不是对预期的输出进行建模.这是过拟合。
这对我来说很有意义,但我听说一个模型可以同时具有高方差和高偏差,我只是不明白这怎么可能。如果高偏差和高方差是欠拟合和过拟合的同义词,那么如何在同一个模型上同时存在过拟合和欠拟合?可能吗?怎么会发生?当它发生时会是什么样子?
【问题讨论】:
-
在stats.stackexchange.com 上可能更好
-
Bias–variance_tradeoff 可能对你有用
标签: machine-learning data-modeling variance supervised-learning