CVPR 2020 Oral 彙總:論文 / 代碼 / 解讀(更新中)

在2月24日,CVPR 2020 公佈接收論文結果公佈,從 6656 篇有效投稿中錄取了 1470 篇論文,錄取率約爲 22%。3月13日,CVPR Oral結果公佈了。有大佬已經分享了自己的工作,本文整理了已中Oral的論文,持續更新,分享給大家閱讀。

關注 極市平臺,獲取最新CV乾貨
在這裏插入圖片描述

10.PolarMask: 一階段實例分割新思路[1,2]

論文地址:PolarMask: Single Shot Instance Segmentation with Polar Representation

代碼:https://github.com/xieenze/PolarMask

來自作者本人的詳細解讀:

Johnny ez:(CVPR20’Oral) PolarMask: 一階段實例分割新思路

PolarMask基於FCOS,把實例分割統一到了FCN的框架下。FCOS本質上是一種FCN的dense prediction的檢測框架,可以在性能上不輸anchor based的目標檢測方法,讓行業看到了anchor free方法的潛力。本工作最大的貢獻在於:把更復雜的實例分割問題,轉化成在網絡設計和計算量複雜度上和物體檢測一樣複雜的任務,把對實例分割的建模變得簡單和高效。

兩種實例分割的建模方式:

file

實驗結果:

file



9.Scene Graph Generation開源框架[3,4]

論文鏈接:Unbiased Scene Graph Generation from Biased Training

論文代碼:https://github.com/KaihuaTang/Scene-Graph-Benchmark.pytorch

來自作者本人的詳細解讀:

CVPR2020 | 最新最完善的場景圖生成 (SGG)開源框架,集成目前最全metrics,已開源

本文提出了一種基於因果推理的新穎SGG框架。選擇2019年熱門框架facebookresearch/maskrcnn-benchmark作爲基礎,在其基礎上搭建了Scene-Graph-Benchmark.pytorch。該代碼不僅兼容了maskrcnn-benchmark所支持的所有detector模型,且得益於facebookresearch優秀的代碼功底,更大大增加了SGG部分的可讀性和可操作性。

Recall:

file



8. Learning to Shade Hand-drawn Sketches[5]

論文地址:Learning to Shade Hand-drawn Sketches

代碼:https://github.com/qyzdao/ShadeSketch

本文提供了一種全自動方法,可以從成對的線描草圖和照明方向生成詳細而準確的藝術陰影。還提供了一個新的數據集,其中包含了用照明方向標記的成對的線描和陰影的一千個示例。值得一提的是,生成的陰影可以快速傳達草繪場景的基礎3D結構。因此,本文的方法產生的陰影是可以直接使用的。本文生成的陰影尊重手繪線和基礎3D空間,幷包含複雜且準確的細節,例如自陰影效果。此外,生成的陰影還包含藝術效果,例如邊緣照明或背光產生的光暈,這也是傳統3D渲染方法可以實現的。

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-4iA4D6CK-1584415938966)(http://bbs.cvmart.net/uploads/images/202003/17/11/QzX3cfsHq9.gif?imageView2/2/w/1240/h/0)]

生成的陰影手繪草圖



7. SAM: The Sensitivity of Attribution Methods to Hyperparameters[6]

論文地址:http://s.anhnguyen.me/sam_cvpr2020.pdf

代碼:https://github.com/anguyen8/sam

本文中對現有歸因方法的敏感性進行了透徹的實證研究,發現了一個趨勢:許多方法對它們共同的超參數的變化高度敏感,例如即使更改隨機種子也會產生不同的解釋!有趣的是,這種敏感性沒有反映在文獻中通常報道的數據集的average explanation accuracy scores 中。

[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-j3pmCOII-1584415938967)(http://bbs.cvmart.net/uploads/images/202003/17/11/PtG0BOSsE9.png?imageView2/2/w/1240/h/0)]



6.High Frequency Component Helps Explain the Generalization of Convolutional Neural Networks

論文地址:High Frequency Component Helps Explain the Generalization of Convolutional Neural Networks

本文研究了圖像數據的頻譜與卷積神經網絡(CNN)的泛化之間的關係。我們首先注意到CNN捕獲圖像高頻分量的能力。這些高頻分量幾乎是人類無法察覺的。因此,觀察結果導致了與CNN泛化相關的多種假設,包括對對抗性示例的潛在解釋,對CNN魯棒性和準確性之間的權衡的討論,以及在理解訓練啓發式方法方面的一些證據。

file

5.Reinforced Feature Points: Optimizing Feature Detection and Description for a High-Level Task

論文地址:Reinforced Feature Points: Optimizing Feature Detection and Description for a High-Level Task

本文解決了計算機視覺的核心問題之一:用於圖像匹配的2D特徵點的檢測和描述。長期以來,像SIFT這樣的算法在準確性和效率上都是無與倫比的。近年來,出現了使用神經網絡來實現檢測和描述學習型特徵檢測器,但用於訓練這些網絡low-level matching scores的改進並不一定會在高級視覺任務中有着更好的性能。本文提出了一種新的訓練方法,該方法將特徵檢測器嵌入完整的視覺管道中,並以端到端的方式訓練可學習的參數。並利用這一方法解決了一對圖像之間的姿態估計任務。該訓練方法幾乎沒有學習任務的限制,並且適用於預測key point heat maps以及descriptors for key point locations。



4.AdderNet: Do We Really Need Multiplications in Deep Learning?

論文地址:AdderNet: Do We Really Need Multiplications in Deep Learning?

代碼:https://github.com/huawei-noah/AdderNet

沒有乘法的神經網絡,你敢想象嗎?去年年底,來自北京大學、華爲諾亞方舟實驗室、鵬城實驗室的研究人員將這一想法付諸實踐,他們提出了一種只用加法的神經網絡AdderNet(加法器網絡)。一作是華爲諾亞方舟實習生,正在北大讀博三。

在加法器網絡的新定義下,AdderNet的特徵可視化以及特徵向量的空間分佈也和CNN有很大的不同。

file

在CIFAR-10的圖像分類任務中,AdderNet相比當初Bengio等人提出的加法神經網絡BNN性能有大幅提升,並且已經接近了傳統CNN的結果。在ImageNet的圖像分類任務中,AdderNets可以達到74.9%的top-1正確率和91.7%的top-5正確率,與CNN接近。



3.BBN: Bilateral-Branch Network with Cumulative Learning for Long-Tailed Visual Recognition

論文地址:http://www.weixiushen.com/publication/cvpr20_BBN.pdf

代碼:Megvii-Nanjing/BBN

曠視 魏秀參 團隊的paper,主要關注視覺識別任務中普遍存在的長尾問題

詳細的可以看作者本人的解讀: https://www.zhihu.com/question/379109637/answer/1080076071



2.Cascade Cost Volume for High-Resolution Multi-View Stereo and Stereo Matching

論文地址:Cascade Cost Volume for High-Resolution Multi-View Stereo and Stereo Matching

代碼:alibaba/cascade-stereo

主要解決問題:目前基於Deep learning的方法構建的3D Cost Volume需要3D卷積來做cost aggregation消耗顯存非常大,爲了節省內存一般最終輸出的depth/disparity map限制爲輸入的1/4。

詳細的可以看作者本人的解讀: https://www.zhihu.com/question/379109637/answer/1083127862



1.RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds

論文地址:RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds

代碼:QingyongHu/RandLA-Net

提出了一種針對大規模三維點雲場景的輕量級、高效點雲語義分割算法RandLA-Net。通過對現有的採樣策略進行全面綜合的分析,我們採用簡單高效的隨機採樣來顯著地減少計算量以及內存消耗,並且引入了局部特徵聚合模塊持續地增大每個點有效的感受野,保留大多數有效的信息。在Semantic3D,S3DIS以及SemanticKITTI等多個數據集上都取得了不錯的效果,而且相比於現有的處理大規模點雲的算法SPG在速度上有近200倍的提升。

詳細的可以看作者本人的解讀:

Qingyong Hu:[CVPR 2020 Oral] RandLA-Net:大場景三維點雲語義分割新框架(已開源)


參考文獻
[1] https://zhuanlan.zhihu.com/p/84890413
[2] PolarMask: Single Shot Instance Segmentation with Polar Representation
[3] https://zhuanlan.zhihu.com/p/109657521
[4] Unbiased Scene Graph Generation from Biased Training
[5] Learning to Shade Hand-drawn Sketches
[6] http://s.anhnguyen.me/sam_cvpr2020.pdf
[7] High Frequency Component Helps Explain the Generalization of Convolutional Neural Networks
[8] Reinforced Feature Points: Optimizing Feature Detection and Description for a High-Level Task
[9] AdderNet: Do We Really Need Multiplications in Deep Learning?
[10] https://www.zhihu.com/question/379109637/answer/1080076071
[11] https://www.zhihu.com/question/379109637/answer/1083127862
[11] Qingyong Hu:[CVPR 2020 Oral] RandLA-Net:大場景三維點雲語義分割新框架(已開源)
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章