没有一个Optimization是万能的!!!

Background Knowledge

李宏毅机器学习笔记---Optimization

 What is Optimization about?

李宏毅机器学习笔记---Optimization

On-line vs Off-line

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

SGD

李宏毅机器学习笔记---Optimization

SGD with Momentum(SGDM)

李宏毅机器学习笔记---Optimization

普通SGD可能恰好算出到一个局部最优,然后卡住就不动了;但是加入movement后,前面movement会对后面产生影响,可以跳出局部最优。

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

Adagrad

李宏毅机器学习笔记---Optimization

分母会永无止境的变大,可能走几步因为前几步的gradient太大导致后面step过小。 

RMSProp

李宏毅机器学习笔记---Optimization

虽然解决了EMA问题,但是可能卡在一个gradient=0的位置。

Adam

李宏毅机器学习笔记---Optimization

Adam vs SGDM 

李宏毅机器学习笔记---Optimization

 

SWATS(combine Adam with SGDM)

李宏毅机器学习笔记---Optimization

Towards Improving Adam

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

AMSGrad

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

AdaBound

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

Towards Improving SGDM

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

周期性调整Learning rate

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

 Does Adam need warm-up?

李宏毅机器学习笔记---Optimization

RAdam 

李宏毅机器学习笔记---Optimization

RAdam vs SWATS

李宏毅机器学习笔记---Optimization

k step forward , 1 step back

李宏毅机器学习笔记---Optimization

 李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

Adam in the future(Nadam)

李宏毅机器学习笔记---Optimization

Something helps optimization

李宏毅机器学习笔记---Optimization

与learning rate 调整有关的

李宏毅机器学习笔记---Optimization

李宏毅机器学习笔记---Optimization

 

相关文章: