【问题标题】:Why Convolutional NN kernel size is often selected as a square matrix为什么卷积神经网络的核大小经常被选为方阵
【发布时间】:2018-02-27 07:29:54
【问题描述】:

给定形状为(f1, f2, depth) 的过滤器,如果f1 != f2 意味着什么?

【问题讨论】:

    标签: tensorflow machine-learning deep-learning conv-neural-network convolution


    【解决方案1】:

    通常选择方形过滤器只是因为没有偏好可以在哪个方向找到图案。例如,它可以是水平线或垂直线,两者都可以是图像中的重要特征,如果它们很重要,网络应该捕获其中任何一个。换句话说,您可能希望您的网络是对称的

    Inception network 成功使用后,非对称过滤器在过去几年变得更加流行。这个想法是n x n 过滤器具有与1 x nn x 1 卷积序列相同的感受野(称为有效感受野,详见CS231n tutorial),但后者需要更少的浮点运算并存储更少的参数。该架构在两个方向上仍然是对称的(垂直模式可以像水平模式一样容易被发现),但这个技巧使它更有效。

    这是来自Inception v2的inception模块图片:

    在较小的应用程序中,这种优化并不重要,没有太大的理由采用如此复杂的架构而只需使用n x n 过滤器。

    【讨论】:

    • 感谢您的回复。我不明白 nxn 的感受野与 1xn 或 nx1 有何相似之处? -- 是不是表示图中1xn和nx1的组合弥补了组合中的nxn?
    • @sujay 在这里查看有效感受野的解释 - cs231n.github.io/convolutional-networks/#layerpat
    • 是的,感谢您的链接。现在“后者需要更少的浮点运算并存储更少的参数”很有意义。
    猜你喜欢
    • 2019-03-30
    • 1970-01-01
    • 2020-11-01
    • 1970-01-01
    • 1970-01-01
    • 2017-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多