【问题标题】:Convolutional Neural Networks - Theory卷积神经网络 - 理论
【发布时间】:2020-08-20 11:45:34
【问题描述】:

很抱歉问了这个愚蠢的问题,但想了想还是没明白:

根据 Jordi Torres(参见 here),如果我们查看 28x28 = 784 像素的图像,那么实现此目的的一种方法是让隐藏层的一个神经元学习大约 5x5 = 25 像素的输入层:

然而,正如他解释的那样:

稍微分析一下我们提出的具体案例,我们注意到,如果我们有一个 28×28 像素的输入和一个 5×5 的窗口,这在第一个隐藏层中定义了一个 24×24 神经元的空间因为在到达输入图像的右(或底部)边界之前,我们只能将窗口 23 个神经元向右移动,将 23 个神经元移动到底部。我们想向读者指出,我们所做的假设是窗口在新行开始时水平和垂直向前移动 1 个像素。因此,在每一步中,新窗口都会与前一个窗口重叠,除了我们已经推进的这一行像素。

我真的不明白为什么我们在第一个隐藏层中需要一个 24x24 神经元的空间?由于我采用 5x5 窗口(其中 784 个像素中有 25 个像素),我认为我们需要 785/25 = 32 个神经元。我的意思是,隐藏层的一个神经元不是学习25像素的属性吗? 显然不是,但我真的很困惑。

【问题讨论】:

  • 因为它是一个滑动窗口。 5x5 窗口重叠。这个问题可能在更具理论性的网站之一上更具主题性。
  • 是的,你是对的。我在哪里可以找到“更理论的网站”?
  • 如果您查看下拉菜单(完整网站的右上角,移动设备的左上角),您会看到 Stack Exchange 网站的完整列表,包括计算机科学、交叉验证和数据科学.您必须查看每个问题的帮助中心,以了解针对该特定网站的主题有哪些类型的问题。

标签: filter conv-neural-network convolution theory


【解决方案1】:

您假设 不重叠 5x5 段,但事实并非如此。在此示例中,第一个输出来自输入的第 1-5 行、第 1-5 列。下一个使用第 1-5 行,第 2-6 列,到第 1-5 行,第 24-28 列,然后是第 2-6 行,第 1-5 列等,直到第 24-28 行,第 24-列28.这被称为 1 的“步幅”。

【讨论】:

    猜你喜欢
    • 2017-01-01
    • 1970-01-01
    • 1970-01-01
    • 2016-04-22
    • 2020-11-01
    • 2020-10-07
    • 2020-10-19
    • 2020-10-19
    相关资源
    最近更新 更多