【发布时间】:2024-01-21 22:25:01
【问题描述】:
我现在正在学习卷积神经网络,并在 Pytorch 上进行练习。最近在看SGD,Adam,Radam等优化器相关的论文。
在查看论文的视觉结果时,我发现他们的图像在第 80 个 epoch 时显示出准确率突然提高(论文“ON THE Variance OF THE ADAPTIVE LEARNING”中的图6 率和超越”)
或第150个epoch(论文“ADAPTIVE GRADIENT METHODS WITH DYNAMICBOUND OF LEARNING RATE”中的图3)
无论哪种算法。
谁能告诉我为什么会这样?谢谢。
【问题讨论】:
-
可能他们在报纸上做了一些特别的事情。看看他们有没有提到什么……?
标签: python tensorflow optimization deep-learning conv-neural-network