【问题标题】:Understanding the gradients in backpropagation algorithm了解反向传播算法中的梯度
【发布时间】:2021-01-15 10:29:39
【问题描述】:

在 Andrew Ng 在 coursera 上的 deeplearning.io 课程中,给出了以下梯度: 这里,a[l] = gl

我无法理解这里获得的渐变。

如果:

a[l] = g[l](z[l]), 

然后:

da[l] = ∂g[l](z[l])/∂z[l] * dz[l]
=> da[l] = g[l]'(z[l]) * dz[l]

但是幻灯片中给出的第一个公式不同,我做错了什么?

【问题讨论】:

    标签: neural-network backpropagation


    【解决方案1】:

    请观看第 3 周“浅层神经网络”中关于反向传播直觉(可选)的 Andrew Ng 的视频,以了解反向传播导数。

    【讨论】:

      猜你喜欢
      • 2020-01-07
      • 1970-01-01
      • 1970-01-01
      • 2018-01-02
      • 1970-01-01
      • 2021-11-20
      • 2017-07-27
      • 1970-01-01
      • 2012-03-14
      相关资源
      最近更新 更多