【问题标题】:Implementing FC layers as Conv layers将 FC 层实现为 Conv 层
【发布时间】:2018-10-24 16:49:31
【问题描述】:

我知道将全连接层实现为卷积层会减少参数,但会提高计算速度。如果是,那为什么人们仍然使用全连接层?

【问题讨论】:

  • 欢迎来到 SO!该站点的重点是特定的编程/实现问题(请参阅What can I ask here?),像您这样的广泛概念性问题通常是封闭的(并且可能在 ai.SE、datascience.SE 或 stats.SE 等其他站点上更好)。

标签: neural-network deep-learning conv-neural-network


【解决方案1】:

卷积层用于低级推理,如特征提取。在这个级别上,使用全连接层会浪费资源,因为需要计算更多的参数。如果您的图像大小为 32x32x3,则完全连接的层需要计算第一层的 32*32*3 = 3072 权重。低级推理不需要这些许多参数。特征在图像中往往具有空间局部性,局部连通性足以进行特征提取。如果使用卷积层,12 个大小为 3x3 的过滤器,则只需要计算 12*3*3 = 108 个权重。

全连接层用于高级推理。这些是网络中决定卷积网络最终输出的层。随着推理变得越来越复杂,本地连接不再足够,这就是为什么在网络的后期使用全连接层的原因。

请阅读this以获得更详细和直观的解释

【讨论】:

    猜你喜欢
    • 2019-03-16
    • 1970-01-01
    • 2017-10-24
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2020-10-10
    • 2020-01-15
    • 1970-01-01
    相关资源
    最近更新 更多