原创 16-Scribblesup_Scribble-supervised_convolutional_networks_for_semantic_segmentation

這篇文章提出了一種基於用戶交互的圖片分割訓練方法(ScribbleSup)。即訓練者只需要在圖片上的小部分區域進行標註(scribble annotation)即可訓練分割網絡。如下圖所示的標註方式(左圖:原圖;中圖:傳統的語義分

原创 17-WILDCAT-Weakly-Supervised-Learning-of-DeepConvNets

who(對誰有效) 弱監督 圖像語義分割 where 只有圖像級標籤的數據 when CVPR 2017 what(WILDCAT是什麼) 這篇論文提出了一個框架,可以使用弱監督的方法識別一個物體顯著的局部特徵。 首先我

原创 18-Object Region Mining with Adversarial Erasing

CVPR 2017-oral 背景 圖像語義分割是計算機視覺領域的核心研究問題之一。一般來講,訓練高性能的語義分割模型需要依賴於大量的像素級的人工標註(即標註每個像素點的語義信息)。然而,標註這類的訓練樣本非常困難,往往需要大

原创 18-Learning Deep ResNet Blocks Sequentially using Boosting Theory

文章指出一種基於 boosting(提升)原理,逐層訓練深度殘差神經網絡的方法,並對性能及泛化能力給出了理論上的證明 參考 方法 框架 殘差網絡: gt+1(x)=f(gt(x))+gt(x)g_{t+1}(x)=f(g

原创 18-Effective Use of Synthetic Data for Urban Scene Semantic Segmentation

動機 以前的方法(DeepLab)在合成數據訓練,在真實數據上不好 之前使用了domain adaptation解決,但是需要再訓練中使用真實數據 我們提出一種方法,基於 背景和前景在domain adaptation中影響不同,

原创 《17.Deep Pyramidal Residual Networks》

what 殘差結構對比 本文也是一種殘差結構,只是逐漸增加特徵通道數,而不是像以前的一樣,在下采樣之後雙倍特徵圖。 why ResNet參數多了,刪除下采樣單元(雙倍特徵維度)仍然導致表現下降 how 每一個單元特徵

原创 分類網絡綜述2

歡迎大家隨時交流,添加,轉發,微信:woxinxie1234

原创 《18.CBAM- Convolutional Block Attention Module》

動機 之前有一篇論文提出了SENet,在feature map的通道上進行attention生成,然後與原來的feature map相乘。這篇文章指出,該種attention方法只關注了通道層面上哪些層會具有更強的反饋能力,但是在空

原创 《2017-Xception Deep Learning with Depthwise Separable Convolutions》

本論文追求的不是準確率的提高,而是不降低準確率的前提下,減少參數數量,尋找更有的結構; 這篇論文是不錯的實驗模仿對象,以後做實驗可以按照本論文的思路探索; 動機 要解決什麼問題? 探尋Inception的基本思路,並將這

原创 《18.BAM- Bottleneck Attention Module》

動機 SENet在調整特徵權值的時候只是關注了通道間的信息, 本文將通道信息和位置信息分別用兩個注意力模型實現,然後融合來調整輸入特徵圖的權重。 網絡結構 下面是block可以加入的方式,在原來的網絡中加入來調整某些層的權重。

原创 《Squeeze-and-Excitation Networks(SENet)》

解讀Squeeze-and-Excitation Networks(SENet) 動機 卷積神經網絡已被證明是解決各種視覺任務的有效模型。對於每個卷積層,沿着輸入通道學習一組濾波器來表達局部空間連接模式。 換句話說,期望卷積濾波

原创 《17.Residual Attention Network for Image Classification》

動機 深度學習中的Attention,源自於人腦的注意力機制,當人的大腦接受到外部信息,如視覺信息、聽覺信息時,往往不會對全部信息進行處理和理解,而只會將注意力集中在部分顯著或者感興趣的信息上,這樣有助於濾除不重要的信息,而提升信息

原创 《2017-Dual Path Networks》論文解讀

解讀Dual Path Networks(DPN,原創) 動機 以前方法的不足 ResNet: 側重於特徵的再利用,但不善於發掘新的特徵; DenseNet: 側重於新特徵的發掘,但又會產生很多冗餘; 優點 關於模型

原创 《Learning to Compare: Relation Network for Few-Shot Learning》論文閱讀

通過對比實現少樣本或零樣本學習Learning to Compare: Relation Network for Few-Shot Learning 動機 我們就發現了,我們人之所以能夠識別一個新的東西,在於我們人的視覺系統天生

原创 《2018-Deep Progressive Reinforcement Learning for Skeleton-based Action Recognition》

動機 這篇文章開篇就指出,我們的模型是要從人體動作的序列中選取出最informative的那些幀,而丟棄掉用處不大的部分。但是由於對於不同的視頻序列,挑出最有代表性的幀的方法是不同的,因此,本文提出用深度增強學習來將幀的選擇模擬爲一