【发布时间】:2020-08-20 11:45:34
【问题描述】:
很抱歉问了这个愚蠢的问题,但想了想还是没明白:
根据 Jordi Torres(参见 here),如果我们查看 28x28 = 784 像素的图像,那么实现此目的的一种方法是让隐藏层的一个神经元学习大约 5x5 = 25 像素的输入层:
然而,正如他解释的那样:
稍微分析一下我们提出的具体案例,我们注意到,如果我们有一个 28×28 像素的输入和一个 5×5 的窗口,这在第一个隐藏层中定义了一个 24×24 神经元的空间因为在到达输入图像的右(或底部)边界之前,我们只能将窗口 23 个神经元向右移动,将 23 个神经元移动到底部。我们想向读者指出,我们所做的假设是窗口在新行开始时水平和垂直向前移动 1 个像素。因此,在每一步中,新窗口都会与前一个窗口重叠,除了我们已经推进的这一行像素。
我真的不明白为什么我们在第一个隐藏层中需要一个 24x24 神经元的空间?由于我采用 5x5 窗口(其中 784 个像素中有 25 个像素),我认为我们需要 785/25 = 32 个神经元。我的意思是,隐藏层的一个神经元不是学习25像素的属性吗? 显然不是,但我真的很困惑。
【问题讨论】:
-
因为它是一个滑动窗口。 5x5 窗口重叠。这个问题可能在更具理论性的网站之一上更具主题性。
-
是的,你是对的。我在哪里可以找到“更理论的网站”?
-
如果您查看下拉菜单(完整网站的右上角,移动设备的左上角),您会看到 Stack Exchange 网站的完整列表,包括计算机科学、交叉验证和数据科学.您必须查看每个问题的帮助中心,以了解针对该特定网站的主题有哪些类型的问题。
标签: filter conv-neural-network convolution theory