训练神经网络,尤其是深度神经网络所面临的一个问题就是梯度消失和梯度爆炸,也就是当训练神经网络的时候,导数或者坡度有时会变得非常大,或者非常小,甚至于以指数方式变大或者变小,这加大了训练的难度。

梯度消失/梯度爆炸

梯度消失/梯度爆炸

 

神经网络的权重初始化:

梯度消失/梯度爆炸

相关文章:

  • 2022-01-02
猜你喜欢
  • 2021-11-14
  • 2021-12-23
  • 2022-12-23
  • 2021-12-01
  • 2021-10-13
相关资源
相似解决方案