本文首发
https://blog.csdn.net/qq_25762497/article/details/51052861#%E5%85%A8%E8%BF%9E%E6%8E%A5%E5%B1%82fully-connected-layer
**
卷积神经网络(CNN)
卷积神经网络跟普通的神经网络相似,他们都具有可学习的权重和偏执常量的神经元组成
卷积神经网络是具有三维体积的神经元(是比较抽象的)
这是传统的二维神经网络
这是三维的卷积神经网络(更加的便捷高效)
卷积神经网络层次结构
1.卷积层
2.线性整流层
3.池化层
4.全连接层
卷积层:
这是卷积神经网络结构很重要的结构,卷积神经网路中每层卷积层由若干卷积单元组成,每一个卷积单元的参数都是由反向传播优化来的,卷积神经网络目的是为了提取输入的不同的特征,每一层会提取更加复杂的特征,后面的层次他会从前面层次提取更加复杂的特征,一层一层的加深
输入图像是32323,3是它的深度(即R、G、B),卷积层是一个553的filter(感受野),这里注意:感受野的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以得到一个28281的特征图
卷积的过程图解
他分为三层通过三层的计算得到一个值给3*3的矩阵第一个值
第二个值
看不懂的话再来个图
线性整流层
神经网络的**函数,通俗一点就是ReLU函数
这里不展开写了想了解的复制以下链接
https://blog.csdn.net/a1111111111ss/article/details/105899635
池化层
池化操作是max Pooling
在一个区域取最大值
全连接层
在整个卷积神经网络中起到“分类器”的作用
把所有局部特征结合变成全局特征,用来计算最后每一类的得分。
实例
空间排列
一个输出单元的大小有以下三个量控制:depth, stride 和 zero-padding。
深度(depth) : 顾名思义,它控制输出单元的深度,也就是filter的个数,连接同一块区域的神经元个数。又名:depth column
步幅(stride):它控制在同一深度的相邻两个隐含单元,与他们相连接的输入区域的距离。如果步幅很小(比如 stride = 1)的话,相邻隐含单元的输入区域的重叠部分会很多; 步幅很大则重叠区域变少。
补零(zero-padding) : 我们可以通过在输入单元周围补零来改变输入单元整体大小,从而控制输出单元的空间大小。
我们先定义几个符号:
WW : 输入单元的大小(宽或高)
FF : 感受野(receptive field)
SS : 步幅(stride)
PP : 补零(zero-padding)的数量
KK : 深度,输出单元的深度
则可以用以下公式计算一个维度(宽或高)内一个输出单元里可以有几个隐藏单元:
W−F+2PS+1
W−F+2PS+1