【发布时间】:2021-01-15 10:29:39
【问题描述】:
在 Andrew Ng 在 coursera 上的 deeplearning.io 课程中,给出了以下梯度: 这里,a[l] = gl
我无法理解这里获得的渐变。
如果:
a[l] = g[l](z[l]),
然后:
da[l] = ∂g[l](z[l])/∂z[l] * dz[l]
=> da[l] = g[l]'(z[l]) * dz[l]
但是幻灯片中给出的第一个公式不同,我做错了什么?
【问题讨论】:
标签: neural-network backpropagation