注意力和门机制:注意力将可用处理资源的分配偏向于输入信号的信息最丰富的组成部分。

卷积核作为卷积神经网络的核心,通常被看做是在局部感受野上,将空间上(spatial)的信息和特征维度上(channel-wise)的信息进行聚合的信息聚合体。而本文提出专注于通道,并提出了一种架构单元,称之为“Squeeze-and-Excitation”(SE)块。

动机:通过显式地建模通道之间的相互依赖关系,自适应地重新校准通道式的特征响应。

为了达到上述目的,我们提出了一种机制,使网络能够执行特征重新校准,通过这种机制可以学习使用全局信息来选择性地强调信息特征并抑制不太有用的特征。

SE模块

学习笔记5-SENet

本文通过显式建模通道依赖性来实现确保能够提高网络对信息特征的敏感度,以便在进入下一个转换之前通过两步重新校准滤波器响应,两步为:squeezeexcitation操作。

Squeeze:全局信息嵌入。为了解决利用通道依赖性的问题,我们首先考虑输出特征中每个通道的信号。每个学习到的滤波器都对局部感受野进行操作,因此变换输出U的每个单元都无法利用该区域之外的上下文信息。在网络较低的层次上其感受野尺寸很小,这个问题变得更严重。为了减轻这个问题,我们提出将全局空间信息压缩成一个通道描述符。这是通过使用全局平均池化生成通道统计实现的。

学习笔记5-SENet

excitation:全面捕获通道依赖性。选择采用一个简单的门机制,并使用sigmoid**:

学习笔记5-SENet

我们通过在非线性周围形成两个全连接(FC)层的瓶颈来参数化门机制。块的最终输出通过重新调节带有**的变换输出U得到:

学习笔记5-SENet

Reweight 操作:将 Excitation 的输出的权重看做是进过特征选择后的每个特征通道的重要性,然后通过乘法逐通道加权到先前的特征上,完成在通道维度上的对原始特征的重标定。

最后经过输出,得到不同颜色的通道特征图,表示其通道不同的权重。

模型:SE-Inception和SE-ResNet

将SE块集成到两个流行的网络架构系列Inception和ResNet中来开发SENets。

学习笔记5-SENet学习笔记5-SENet

SE块变换Ftr被认为是残差模块的非恒等分支。压缩激励都在恒等分支相加之前起作用。

 

相关文章:

  • 2021-10-01
  • 2021-06-02
  • 2022-01-01
  • 2021-11-10
  • 2021-09-25
  • 2021-05-13
猜你喜欢
  • 2021-10-01
  • 2022-01-18
  • 2021-11-03
  • 2021-12-11
  • 2021-11-18
  • 2021-08-10
相关资源
相似解决方案