【问题标题】:why is gradient descent with momentum an exponentially weighted average?为什么具有动量的梯度下降是指数加权平均值?
【发布时间】:2018-06-29 22:01:04
【问题描述】:

我最近看了Andrew Ng's video on SGDM。我知道动量项通过加权最后一个梯度并使用 V_dw 的一小部分来更新梯度。我不明白为什么动量也被称为指数加权平均。此外,在 Ng 在 6:37 的视频中,他说使用 Beta = 0.9 实际上意味着使用最后 10 个梯度的平均值。 有人可以解释它是如何工作的吗?对我来说,这只是向量 dW 中所有梯度的 1-0.9 的标量权重。

欣赏任何见解!我觉得我错过了一些基本的东西。

【问题讨论】:

标签: neural-network deep-learning mathematical-optimization momentum


【解决方案1】:

您只需要考虑上一个渐变中的内容。由于动量项,最后一个梯度已经是加权梯度。

在第一步中,您将只进行梯度下降。在第二步中,您将获得 m_grad_2 = grad_2 + 0.9 m_grad_1 的动量梯度。在第三步中,您将再次获得动量梯度 m_grad_3 = grad_3 + 0.9 m_grad_2,但旧的梯度由动量项组成。因此 0.9*m_grad_2 = 0.9 * (grad_2 + 0.9 grad_1),即 0.9 grad_2 + 0.81 grad_1。因此,梯度对第 k 步的影响将是 0.9^k。 10 步后影响会很小。

【讨论】:

    猜你喜欢
    • 2020-11-30
    • 1970-01-01
    • 2012-08-17
    • 2020-09-17
    • 2014-04-30
    • 1970-01-01
    • 2014-06-26
    • 2022-06-21
    • 1970-01-01
    相关资源
    最近更新 更多