【发布时间】:2016-04-28 23:38:53
【问题描述】:
我想知道是否有一种方法可以对不同的层使用不同的学习率,就像 Caffe 中的一样。我正在尝试修改预训练模型并将其用于其他任务。我想要的是加快新添加层的训练,并使训练后的层保持低学习率,以防止它们被扭曲。例如,我有一个 5 层的预训练模型。现在我添加一个新的卷积层并对其进行微调。前 5 层的学习率为 0.00001,最后一层的学习率为 0.001。知道如何实现这一目标吗?
【问题讨论】:
-
TF 1.8 的
tf.custom_gradient现在大大简化了这个问题——请看下面我的回答。
标签: python deep-learning tensorflow