Lec6 Convolutional Neural Networks卷积神经网络


1.Layers

  • 卷积层conv layer
    卷积的局部关注性,不关注输入图片的全部,而是局部。
    感受野/卷积核/filter,让同一个卷积核划过图片(遍历),在每一个位置和数据点进行点积运算,得到一张特征映射图(maps)。卷积核的数量就是深度。
    卷积层可以保留原始数据的空间结构,不会像全连接那样需要把原始数据拉伸操作。
    采用多个卷积核来提取多种”特征”,(深度、层数的概念),每一个的输出maps尺寸相同。多层卷积核的输出结果堆叠效果示意:
    CS231n学习记录Lec6 Convolutional Neural Networks卷积神经网络
    卷积过程中的参数问题。如果要补零,N的大小则是补零后的边长数目,示意如下:
    CS231n学习记录Lec6 Convolutional Neural Networks卷积神经网络
    每个卷积核公用一个偏值b,计算参数数目的时候不要忘记了b。

  • 池化层pooling layer
    降采样,使后面的参数量减少。不做深度方向的降采样,只做平面上的降采样。滑动步长设置要避免重叠,让每一个值更好的代替一个区域。
    max pooling相对于均值pooling能使受刺激程度更显著。

  • 全连接层 fully connected layer
    “stretch to”
    CS231n学习记录Lec6 Convolutional Neural Networks卷积神经网络

  • 层间堆叠示意
    conv layer、Reli layer(某种**层)、pooling layer、fullcon layer的堆叠示意:
    CS231n学习记录Lec6 Convolutional Neural Networks卷积神经网络
    池化的次数、滑动步长和核的大小等都是超参数, 需要try and see。一个趋势是卷积核小化,层数更深。

相关文章:

  • 2021-11-22
  • 2021-11-20
  • 2022-01-10
  • 2022-12-23
  • 2021-08-14
  • 2021-05-28
猜你喜欢
  • 2021-11-24
  • 2022-01-17
  • 2022-12-23
  • 2022-12-23
  • 2022-02-08
  • 2021-07-30
相关资源
相似解决方案