【问题标题】:stochastic graident for deep learning深度学习的随机梯度
【发布时间】:2019-05-16 18:26:54
【问题描述】:

我正在阅读有关深度学习概念随机梯度的信息。在下面的快照中,我不明白“在这个方向上迈出重要一步的一般问题是,当我们移动时,我们脚下的梯度可能会发生变化!”我们在下图中展示了这个简单的事实。我无法解释这个数字。请解释

【问题讨论】:

    标签: deep-learning stochastic-gradient


    【解决方案1】:

    我们希望减少预测值和实际值之间的误差。将实际值和预测值视为 2D 中的一个点。您应该将预测值点移动到与实际值点一样近的位置。要移动点,您需要一个方向,而 SGD 会提供它。

    看图像,C,轮廓中心是实际值,P1是第一个预测值,SGD(蓝色箭头)显示的方向是减少P1和C之间的距离。如果从P1开始并且您在第一个箭头方向上迈出重要(大)一步,您将在远离 C 的 P2 处结束。但是,如果您迈出小步(蓝点),并且在每一步中,您将根据新的 SGD 方向移动(每个点的蓝色箭头)您将到达靠近 C 的点。

    大的步数会让你在实际值附近波动,太小的步数也需要很长时间才能达到实际值。大多数时候,我们在开始学习过程中使用大步骤,然后将其变得越来越小。

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 2023-03-06
      • 2017-12-25
      • 1970-01-01
      • 2021-06-17
      • 2020-03-06
      • 1970-01-01
      • 2017-03-15
      • 1970-01-01
      相关资源
      最近更新 更多