【发布时间】:2020-05-04 23:33:22
【问题描述】:
可能是一个很简单的问题要回答,但我只是想更清楚一点。从现有文献和What is the difference between Gradient Descent and Newton's Gradient Descent? 中的讨论来看,这两种方法都涉及计算导数,然后向最小值移动。在简单梯度下降法的情况下,我们只计算一阶导数;在牛顿法中,我们计算二阶导数以及 hessian,并应用于向量。此外,Newton/s方法中向量的更新可能并不总是在(-ive)梯度的方向上。
此外,对于给定的函数 f(x),两种方法都试图找到满足 f'(x)=0 的最小值;在梯度下降法中,目标是 argmin f(x),而在牛顿法中,目标是 f'(x) = 0。另一个区别是停止准则,在梯度下降法中是 f'(x) = 0,而在牛顿法中,f(x)=0。
基于上述论点,是否可以说牛顿方法是基于梯度的优化方法的(高级)示例?上面引用的讨论也不足以回答这个问题。
【问题讨论】:
-
我投票结束这个问题,因为它不是关于编程的。这个问题可能是Mathematics Stack Exchange 网站的主题。
-
我同意它与编程没有直接关系,但是,它是;它解决了对可能的解决方案进行编程的非常基本的方法。请您重新考虑。
标签: gradient-descent newtons-method