复制预训练model的参数,只需要重新copy一个train_val.prototxt。然后把不需要复制的层的名字改一下,如(fc7 -> fc7_new),然后fine tune即可。

freeze指定层参数,只需要把对应层的学习率lr_mult 设置为0即可,如:

在layer里面加上param { lr_mult: 0 }就可以了,比如全连接层里面:
layer {
type: "InnerProduct"
param { # 对应第1个参数blob的配置,也就是全连接层的参数矩阵的配置
lr_mult: 0 # 学习率为0,其他参数可以看caffe.proto里面的ParamSpec这个类型
}
param { # 对应第2个参数blob的配置,也就是全连接层的偏置项的配置
lr_mult: 0 # 学习率为0
}
}

相关文章:

  • 2021-09-04
  • 2021-08-08
  • 2021-05-16
  • 2021-09-16
  • 2022-12-23
  • 2021-06-15
  • 2022-12-23
  • 2022-12-23
猜你喜欢
  • 2022-12-23
  • 2022-03-05
  • 2022-12-23
  • 2022-12-23
  • 2022-02-24
  • 2022-12-23
  • 2022-12-23
相关资源
相似解决方案