0. 写作目的

    好记性不如烂笔头。

1. 主要思想

     使用self-attention引入同类的 object context map。 (感觉这个自监督,没有CVPR2020中 CPNet更直观)

    如下图:

OCNet_Object Context Network for Scene parsing

 

2. 模型框架

OCNet_Object Context Network for Scene parsing

具体的 OCP 细节:

OCP包括两部分: object context estimation 和 object context aggregation。

其中第一步份主要是计算相似性,与 self-attention中类似。 第二部分是得到经相似性相乘得到的feature。

OCNet_Object Context Network for Scene parsing

OCNet_Object Context Network for Scene parsing

 

3. 实验结果

      实验细节: 使用了 辅助loss, 测试时使用了 multi-scale。

OCNet_Object Context Network for Scene parsing

OCNet_Object Context Network for Scene parsing

OCNet_Object Context Network for Scene parsing

There may be some mistakes in this blog. So, any suggestions and comments are welcome!

注: 文中图像来源于paper。

[Reference]

    paper:  https://arxiv.org/abs/1809.00916

    code:  https://github.com/PkuRainBow/OCNet.pytorch

相关文章:

  • 2021-04-28
  • 2021-10-12
  • 2021-08-15
  • 2021-09-18
  • 2022-12-23
  • 2021-04-29
  • 2021-06-06
  • 2021-11-22
猜你喜欢
  • 2021-11-23
  • 2021-12-28
  • 2021-10-27
  • 2021-07-18
  • 2021-10-11
  • 2021-10-11
相关资源
相似解决方案