【问题标题】:Implementing FC layers as Conv layers将 FC 层实现为 Conv 层
【发布时间】:2018-10-24 16:49:31
【问题描述】:
我知道将全连接层实现为卷积层会减少参数,但会提高计算速度。如果是,那为什么人们仍然使用全连接层?
【问题讨论】:
-
欢迎来到 SO!该站点的重点是特定的编程/实现问题(请参阅What can I ask here?),像您这样的广泛概念性问题通常是封闭的(并且可能在 ai.SE、datascience.SE 或 stats.SE 等其他站点上更好)。
标签:
neural-network
deep-learning
conv-neural-network
【解决方案1】:
卷积层用于低级推理,如特征提取。在这个级别上,使用全连接层会浪费资源,因为需要计算更多的参数。如果您的图像大小为 32x32x3,则完全连接的层需要计算第一层的 32*32*3 = 3072 权重。低级推理不需要这些许多参数。特征在图像中往往具有空间局部性,局部连通性足以进行特征提取。如果使用卷积层,12 个大小为 3x3 的过滤器,则只需要计算 12*3*3 = 108 个权重。
全连接层用于高级推理。这些是网络中决定卷积网络最终输出的层。随着推理变得越来越复杂,本地连接不再足够,这就是为什么在网络的后期使用全连接层的原因。
请阅读this以获得更详细和直观的解释