代价函数

首先回顾一下我们之前提到的训练集,及线性回归假设:

【深度之眼】吴恩达《机器学习》作业——week1代价函数
其中 θ0,θ1\theta_0,\theta_1 是我们要选择的参数。

我们希望我们的模型,或者说我们拟合的曲线,能够接近训练集的真实状况,即我们的预测值和真实至之间的差距要越小越好。

【深度之眼】吴恩达《机器学习》作业——week1代价函数
也就是说要选择合适的 θ0,θ1\theta_0,\theta_1,最小化 hθ(x(i)y(i))2h_\theta(x^{(i)}-y^{(i)})^2

【深度之眼】吴恩达《机器学习》作业——week1代价函数
【深度之眼】吴恩达《机器学习》作业——week1代价函数
这里使用的是平方损失,因为对于线性回归问题来说这是最常见的选择,更深层次的原因是因为i,广义线性模型使用的也是平方损失,而线性回归仅仅是广义线性模型的一个例子。

【深度之眼】吴恩达《机器学习》作业——week1代价函数

相关文章:

  • 2022-01-15
  • 2021-11-18
  • 2021-09-07
  • 2021-08-04
  • 2021-11-15
  • 2021-09-26
  • 2021-05-10
猜你喜欢
  • 2021-09-18
  • 2022-01-10
  • 2022-12-23
  • 2021-06-20
  • 2021-10-28
  • 2022-12-23
  • 2021-07-07
相关资源
相似解决方案