1.有哪些有名的CNN实例

——classic networks

·LeNet-5(1980s)

·AlexNet

·VGG

——ResNet(Residual Network,残差网络,152层)

——Inception(谷歌,盗梦空间)

2.大神LeCun的LeNet-5

上个世界八十年代,LeCun搭建了针对灰度图像进行训练的LeNet-5,后来在论文LeCun et al.,1998. Gradient-based learning applied to document recognition中详细阐述,其大致架构如下所示:

卷积神经网络实例探究

其中大约有6万个参数。在那个年代,no padding,人们常用的是sigmoid和tanh函数,而如今ReLU是常用的非线性函数。

3.AlexNet

具体的架构和LeNet大致相似,但是更加庞大,大约有6千万个参数,如下图所示:

卷积神经网络实例探究

——使用了padding,即same filter。

——使用了ReLU**函数

——两个GPUs之间相互协作

——使用LRN(局部响应归一层),即在**值构成的立方体沿着通道的数值进行归一化操作。

4.VGG-16

这是一个没有那么多超级参数(不需要关注f,s,p等),只关注有规律地构建卷积层的深度CNN。大约有138M个参数,比AlexNet更大。

VGG网络的一大优点:结构很规整,共16个卷积层,卷积层过滤器的数量很有规律,从64翻倍至128至256至512。并且图片通过池化层缩小也有规律,每次缩小一半。使用了CONV为3*3的same的filter,s=1;使用了2*2的Maxpool,s=2。具体见下图:

卷积神经网络实例探究

5.残差网络(ResNets)

利用跳远连接搭建更深的网络结构(152层)。由何恺明、孙剑等人提出。

其基础结构为残差块(Residual block)。具体见下图:

卷积神经网络实例探究

main path下的深层网络理论上随着层数的增加,训练误差越来越小;但是实际情况是由于很难优化,导致误差增大。而使用ResNets则可以消除这一情况。

ResNets还有助于解决梯度消失和梯度爆炸的问题。

6.为什么残差网络有效?



相关文章:

  • 2021-12-27
  • 2021-12-06
  • 2021-12-24
  • 2022-12-23
  • 2021-09-27
  • 2021-10-03
  • 2021-10-09
猜你喜欢
  • 2021-12-01
  • 2021-06-07
  • 2021-10-16
  • 2021-12-29
  • 2021-09-22
  • 2021-04-29
  • 2021-09-22
相关资源
相似解决方案