一、提出背景

在嵌入式设备上部署神经网络很困难,因为其有限的内存和计算资源。

常规的CNN网络提取到的特征图有很多冗余信息。

《GhostNet: More Features from Cheap Operations》论文解读

算法原理 

1.Ghost module

常规的卷积公式:《GhostNet: More Features from Cheap Operations》论文解读,其中 《GhostNet: More Features from Cheap Operations》论文解读 是卷积操作,《GhostNet: More Features from Cheap Operations》论文解读是输出的特征图,h‘是输出的高,w’是输出的宽,n是输出维度,即卷积核的数量。《GhostNet: More Features from Cheap Operations》论文解读是卷积核,c是通道数,k是卷积核的高和宽,n是输出维度。

整个卷积操作的FLOPs是:《GhostNet: More Features from Cheap Operations》论文解读,n和c往往很大。

《GhostNet: More Features from Cheap Operations》论文解读

普通的conv操作如上图a,Ghost module对次进行了改进,第一步是使用更少的卷积核生成输出特征图,如原本的个数是n,现在的个数是m。第二步是对第一步生成的每一张特征图进行cheap operations(卷积),每张特征图生成s张新特征图,总共是m×s张,并保证m×s=n,这样保证Ghost module和普通conv输出的特征形状相同。第三步是将这些特征图拼接到一起。

Ghost module的初始卷积公式:《GhostNet: More Features from Cheap Operations》论文解读,省略了b。其中《GhostNet: More Features from Cheap Operations》论文解读,m是初始卷积中卷积核的数量,《GhostNet: More Features from Cheap Operations》论文解读,其余的超参数如卷积核尺寸,步长,padding都是和普通conv一致。

 

相关文章:

  • 2021-08-19
  • 2021-06-22
  • 2021-04-17
  • 2021-12-19
  • 2021-04-12
  • 2021-12-05
  • 2021-09-06
  • 2021-10-04
猜你喜欢
  • 2022-01-01
  • 2021-11-08
  • 2021-07-07
  • 2022-02-03
  • 2021-04-22
  • 2021-09-20
相关资源
相似解决方案