【问题标题】:why the kernel size become greater while the spatial size of feature map goes down in inception network?为什么在 inception 网络中内核大小变大而特征图的空间大小变小?
【发布时间】:2018-12-13 21:48:42
【问题描述】:

在 inception-v3 和 inception-v4 这样的 inception 网络中,内核大小在较低层较小,例如 3*3,但在较高层中,内核大小似乎更大,例如 5* 5,7*7,虽然后面可能会分解成n*1&1*n。但是随着网络越深入,特征图的空间大小越小,这两者有什么关系吗?

ps:我的问题是为什么较低层中的内核大小似乎更小(不超过 3*3),而您可以在较高层中找到更大的内核大小,例如 7*7(更准确地说,在中间层).feature map的空间大小和conv kernels的空间大小有什么关系吗?以inception v3为例,前几层feature map的空间大小大于35网络中,最大的kernel size是5*5,但是当空间大小变成17时,就会使用7*7这样的kernel size。

任何帮助将不胜感激。

【问题讨论】:

    标签: machine-learning deep-learning computer-vision classification conv-neural-network


    【解决方案1】:

    通常当你深入网络时:-

    1. 特征图的空间大小减小以定位对象和 以降低计算成本。
    2. 过滤器/内核的数量 增加,因为通常初始层代表通用特征, 而更深的层代表更详细的特征。自从 初始层只学习数据中的原始规律,你做 不需要在那里有大量的过滤器。然而,当你走 深入,您应该尝试尽可能多地研究细节,因此 增加过滤器/内核的数量。因此增加 更深层的过滤器数量增加了代表性 网络的力量。

    在 inception 模块中,在每一层,多个大小(1x1、3x3、5x5)的内核用于计算,并将生成的特征图连接起来并传递给下一层。

    【讨论】:

    • 我的意思是为什么低层的内核大小似乎更小(不超过 3*3),而您可以在高层找到更大的内核大小,如 7*7(或更准确地说,在中间层)。以inception v3为例,当空间大小大于35时,最大内核大小为5*5,但当空间大小变为17时,使用7*7这样的内核大小.
    猜你喜欢
    • 2012-03-04
    • 2019-03-30
    • 2017-06-14
    • 1970-01-01
    • 2017-01-01
    • 1970-01-01
    • 2022-07-26
    • 1970-01-01
    • 2022-08-03
    相关资源
    最近更新 更多