NG的课件1也讲到了牛顿法,它对应的update rule是

数值优化 - 牛顿法

   

数值优化 - 牛顿法

   

数值优化 - 牛顿法

数值优化 - 牛顿法

   

数值优化 - 牛顿法

   

数值优化 - 牛顿法

数值优化 - 牛顿法

   

H对应Hessian矩阵

http://en.wikipedia.org/wiki/Hessian_matrix

数值优化 - 牛顿法

   

http://aria42.com/blog/2014/12/understanding-lbfgs/

给出了关于牛顿法更详细的解释:

   

将函数做泰勒展开 http://en.wikipedia.org/wiki/Taylor_series

数值优化 - 牛顿法

对比单变量函数泰勒展开公式:

数值优化 - 牛顿法

   

   

数值优化 - 牛顿法

考虑我们需要找一阶导数是0的位置

数值优化 - 牛顿法

   

数值优化 - 牛顿法

和ng课件给出的一致。

   

牛顿法和梯度下降相比收敛更加快速,但是每次迭代的计算量更大(n+1,n+1)维度的hessian矩阵的计算,但是如果n不是特别大那么整体来看牛顿法更快。

   

相关文章:

  • 2022-12-23
  • 2021-11-18
  • 2021-08-11
  • 2021-06-17
  • 2021-07-07
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
猜你喜欢
  • 2021-04-03
  • 2021-11-07
  • 2021-09-21
  • 2022-12-23
  • 2021-08-09
  • 2021-09-08
  • 2022-12-23
相关资源
相似解决方案