OCNet_Object Context Network for Scene parsing

0. 写作目的

    好记性不如烂笔头。

1. 主要思想

     使用self-attention引入同类的 object context map。 (感觉这个自监督,没有CVPR2020中 CPNet更直观)

    如下图:

 

2. 模型框架

具体的 OCP 细节:

OCP包括两部分: object context estimation 和 object context aggregation。

其中第一步份主要是计算相似性,与 self-attention中类似。 第二部分是得到经相似性相乘得到的feature。

 

3. 实验结果

      实验细节: 使用了 辅助loss, 测试时使用了 multi-scale。

There may be some mistakes in this blog. So, any suggestions and comments are welcome!

注: 文中图像来源于paper。

[Reference]

    paper:  https://arxiv.org/abs/1809.00916

    code:  https://github.com/PkuRainBow/OCNet.pytorch

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章