【发布时间】:2015-12-08 18:43:00
【问题描述】:
我注意到,CNN 对新数据集的大多数微调仅在“最后一个”全连接 (fc) 层上完成。
我对从“第一个”全连接层进行微调感兴趣:也就是说,我想使用卷积层和池化层的中级特征(假设它是在 ImageNet 上训练的)但随后适合将所有 fc 层添加到我的新数据集。
从理论上和实践上,这个假设的效果是什么?是否有可能为我的新数据集学习一组更合适的参数?
【问题讨论】:
标签: computer-vision neural-network convolution deep-learning caffe