三种梯度下降法:

【深度学习】:优化器的选择
若是样本很多,用标准梯度法会很慢,用随机梯度会很快,但是由于每个样本都会用来更新权重,会有噪声的引入,会产生更新错误。

Momentum:

【深度学习】:优化器的选择
因此训练速度会有一定的加快。

NAG(Nesterov accelerated gradient):

【深度学习】:优化器的选择
【深度学习】:优化器的选择

Adagrad:

【深度学习】:优化器的选择

RMSProp:基于adagrad的缺点提出了这个

【深度学习】:优化器的选择
【深度学习】:优化器的选择

Adadelta:

【深度学习】:优化器的选择

Adam:

【深度学习】:优化器的选择

相关文章:

  • 2021-08-29
  • 2021-10-08
  • 2021-10-20
  • 2022-12-23
  • 2021-05-12
  • 2021-08-09
  • 2021-10-18
  • 2021-11-22
猜你喜欢
  • 2021-10-07
  • 2021-08-23
  • 2021-08-31
  • 2021-06-21
  • 2022-12-23
  • 2021-11-08
  • 2021-04-24
相关资源
相似解决方案