OCNet_Object Context Network for Scene parsing

0. 寫作目的

    好記性不如爛筆頭。

1. 主要思想

     使用self-attention引入同類的 object context map。 (感覺這個自監督,沒有CVPR2020中 CPNet更直觀)

    如下圖:

 

2. 模型框架

具體的 OCP 細節:

OCP包括兩部分: object context estimation 和 object context aggregation。

其中第一步份主要是計算相似性,與 self-attention中類似。 第二部分是得到經相似性相乘得到的feature。

 

3. 實驗結果

      實驗細節: 使用了 輔助loss, 測試時使用了 multi-scale。

There may be some mistakes in this blog. So, any suggestions and comments are welcome!

注: 文中圖像來源於paper。

[Reference]

    paper:  https://arxiv.org/abs/1809.00916

    code:  https://github.com/PkuRainBow/OCNet.pytorch

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章