AlexNet

卷积神将网络的计算公式为:

N=(W-F+2P)/S+1

其中N:输出大小

W:输入大小

F:卷积核大小

P:填充值的大小

S:步长大小

链接: link.
总结一句话:卷积后下一输出层的深度与卷积核个数相同,输出层大小(即长宽)由上述公式计算,s,p,f均为卷积核的属性。

全连接层

即与用和原输入层大小、深度完全一致的卷积核进行卷积,形成11x的全连接层(即展开),其中x由卷积核的层数决定。(写代码时也可以直接展开为一维)

1*1卷积核的作用

不改变输入层的大小,但改变输入和输出的深度的不同,在复杂神经网络或者简化神经网络时,有特殊效果。

池化层作用

人工智能几个常用卷积神经网络
池化层不是卷积运算,只是为了在不失去特征的同时减小输出层,降低过拟合,使网络经量普世。

参数计算(也就是权重)

参数就是卷积核所有数字的个数加b的个数
我们只需要把每个filter的参数累加起来,当然,不要忘了加上bias。

创建卷积核时,卷积核人个数放在第四维空间。也即,是一个整体代码中是按这种整体来看的。

相关文章:

  • 2021-12-19
  • 2021-08-27
  • 2022-01-01
  • 2021-12-26
  • 2021-10-10
  • 2021-08-02
  • 2021-12-09
猜你喜欢
  • 2021-05-12
  • 2021-08-13
  • 2021-06-01
  • 2022-01-02
  • 2021-07-14
  • 2021-10-12
  • 2021-08-05
相关资源
相似解决方案