以下内容均为https//nndl.github.io/nndl-book.pdf的学习笔记。
上节说了经验风险最小化准则(ERM),过拟合与欠拟合理论均与其有关。
所得:我们可以将机器学习看作一个从有限、高维、有噪声的数据上得到更一般性规律的泛化问题
机器学习基础学习笔记(三)过拟合、欠拟合

过拟合(overfitting)

1.定义

机器学习基础学习笔记(三)过拟合、欠拟合
简单说:过拟合表现在对训练数据依赖产生过度自信的性能,但对于测试集则能力不足,是”纸上谈兵“。

2.理论基础

根据大数定理可知,当训练集大小|????| 趋向于无穷大时,经验风险就趋向于期望风险
1)真实训练样本子集较小,达不到无穷大要求。
2)含有噪声,不能真实的反映原数据真实分布。
综上,.经验风险最小化原则很容易导致模型在训练集上错误率很低,但是在未知数据上错误率很高。

3.过拟合产生的原因以及解决方法

1)原因
由于训练数据少和包含噪声、模型能力强。
2)解决方法

结构风险最小化(Structure Risk Minimization,SRM)准则:在经验风险最小化(ERM)的基础上再引入参数的正则化(Regularization)来限制模型能力,使其不要过度地最小化经验风险的准则。
机器学习基础学习笔记(三)过拟合、欠拟合
其中‖????‖ 是ℓ2 范数的正则化项,用来减少参数空间避免过拟合???? 用来控制正则
化的强度.

正则化也可以使用其他函数,比如ℓ1 范数.ℓ1 范数的引入通常会使得参数有一定稀疏性
本质:从贝叶斯学习的角度来讲,正则化是引入了参数的先验分布,使其不完全依赖训练数据。

欠拟合-Underfitting

1.定义

模型不能很好地拟合训练数据,在训练集上的错误率比较高.

2.原因qian

模型能力不足。

过拟合与欠拟合所思考到的机器学习本质

给定一个训练集,机器学习的目标是从假设空间中找到一个泛化错误较低的“理想”模型,以便更好地对未知的样本进行预测,特别是不在训练集中出现的样本.
因此,我们可以将机器学习看作一个从有限、高维、有噪声的数据上得到更一般性规律的泛化问题。

相关文章:

  • 2021-07-30
  • 2021-07-24
  • 2021-12-21
  • 2021-05-27
  • 2021-12-03
  • 2021-05-13
  • 2021-07-10
猜你喜欢
  • 2021-09-07
  • 2021-05-04
  • 2021-08-11
  • 2022-01-12
  • 2021-12-13
  • 2021-12-21
  • 2022-12-23
相关资源
相似解决方案