推导可参考https://www.zhihu.com/question/24827633

这里参考大神论文,进行总结记录一下。

前向传播可以总结为:

神经网络反向传播和学习过程

后向传播总结可以看下图描述:

神经网络反向传播和学习过程

可以看到,每一层的误差都需要乘以**函数的导数值,这样网络越深,层误差就越小,E对W的梯度也就越小,浅层的权值参数越难更新。

相关文章:

  • 2021-04-05
  • 2021-11-22
  • 2021-12-19
  • 2022-12-23
  • 2022-01-12
  • 2021-06-28
  • 2021-11-05
猜你喜欢
  • 2021-12-20
  • 2021-09-19
  • 2021-09-03
  • 2021-03-31
  • 2022-01-09
  • 2021-12-09
  • 2021-12-22
相关资源
相似解决方案