2019年頂級機器學習和深度學習研究論文和源碼分享總結

 

2019年的最後一個月裏面我們收集了許多有關先進機器和深度學習研究的文章以及其開源代碼,希望對大家有所幫助。

 

Contrastive Representation Distillation

 

本文在模型蒸餾領域利用對比目標族來捕獲相關性和高階輸出相關性。它們在本文中被改編成從一個神經網絡到另一個神經網絡的知識提取。

本文考慮了三個階段:

 

  •  模型壓縮

  •  將數據從一種格式(比如RGB)轉移到另一種格式(例如深度)

  •  將一組網絡精簡成一個網絡

 

對比學習的主要思想是在一定的度量空間內學習一個接近正對的表示,同時去掉負對之間的表示。

 

論文地址:

https://arxiv.org/pdf/1910.10699.pdf

源碼地址:

https://github.com/HobbitLong/RepDistiller

 

Network Pruning via Transformable Architecture Search

 

這是一篇在網絡剪枝領域的論文。提出了將神經網絡搜索直接應用於具有靈活信道和層大小的網絡。最小化剪枝網絡的損失有助於學習信道的數量。

剪枝網絡的特徵映射由K個特徵映射片段組成,這些片段基於概率分佈進行採樣。損失被反向傳播到網絡權重和參數化分佈。

 

本文提出的修剪方法分爲三個階段:

 

 

  • 訓練不按標準分類培訓程序運行的大型網絡。

  • 使用可切換架構搜索(TAS)搜索小型網絡的深度和廣度。TA的目標是找到網絡的最佳規模。

  • 利用簡單(KD)方法將非操作網絡中的信息傳遞到搜索到的小網絡中。

 

論文地址:

https://arxiv.org/pdf/1905.09717.pdf

源碼地址:

https://github.com/D-X-Y/NAS-Projects

 

 

Learning Data Augmentation Strategies for Object Detection

 

雖然這本身不是一個模型體系結構,但是本文介紹了創建可用於對象檢測數據集的轉換的方法,並且這些轉換可以傳輸到其他對象檢測數據集。變換通常在訓練期間應用。

 

該模型將增廣策略定義爲訓練過程中隨機選擇的n個策略集。該模型中應用的一些操作包括扭曲顏色通道、幾何扭曲圖像以及僅扭曲邊界框批註中的像素內容。

 

論文地址:

https://arxiv.org/pdf/1906.11172.pdf

源碼地址:

https://github.com/tensorflow/tpu/tree/master/models/official/detection

 

XLNet: Generalized Autoregressive Pretraining for Language Understanding

 

 XLNet是一篇激動人心的論文,XLNET是一種一般的自迴歸預訓練方法,它通過最大化分解因子的所有排列的期望似然來學習雙向上下文。它不使用固定的正向或反向分解順序。

它解決了所有可能的排列順序,以最大限度地提高序列的預期日誌可能性。由於這些排列,每個位置的上下文可以由左標記和右標記組成。由於每個位置都學習使用來自所有位置的上下文信息,因此會捕獲雙向上下文。

 

論文地址:

https://arxiv.org/pdf/1906.08237.pdf

源碼地址:

https://github.com/zihangdai/xlnet

 

Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context (ACL 2019)

 

Transformer XL可以用來學習固定長度以外的依賴關係,而不會破壞時間一致性。它結合了段級遞歸和位置編碼方案。TransformerXL的依賴比RNN長80%,比RNNs Transformers長450%。TensorFlow和Pythorch都可用。

 

作者將遞歸引入其深層自我注意網絡。它們不再從頭開始計算每個新段的隱藏狀態,而是重用在前一段中獲得的隱藏狀態。重用的隱藏狀態充當循環段的內存。

這將在段之間建立循環連接。建模長期依賴關係是可能的,因爲信息是通過循環連接傳遞的。作者還介紹了一種更有效的相對位置編碼方法,該方法可以將注意力集中到比訓練時所觀察到的注意力長度更長的位置上。

 

論文地址:

https://arxiv.org/pdf/1901.02860.pdf

源碼地址:

https://github.com/kimiyoung/transformer-xl

 

Depth Prediction Without the Sensors: Leveraging Structure for Unsupervised Learning from Monocular Videos (AAAI 2019)

 

本文研究的是場景深度和機器人自運動的無監督學習任務,其中監控由單目視頻提供。這是通過在學習過程中引入幾何結構來實現的。它包括對場景和單個對象建模、相機的自運動以及從單目視頻輸入中學習到的對象運動。介紹了一種在線優化方法。

 

介紹了一種與自運動網絡結構相同的對象運動模型。然而,它是專門爲預測三維中單個物體的運動而設計的。

 

 

 

它以一系列RGB圖像作爲輸入。這由預先計算的實例細分掩碼補充。運動模型的工作是學習預測三維空間中每個物體的變換矢量。這將在各種目標框中創建觀察到的對象外觀。

 

論文地址:

https://arxiv.org/pdf/1811.06152.pdf

源碼地址:

https://github.com/tensorflow/models/tree/master/research/struct2depth

 

Auto-Keras: An Efficient Neural Architecture Search System

 

本文提出了一個貝葉斯優化的框架來指導網絡形態的有效NAS。基於這種方法,作者構建了一個名爲Auto-Keras的開源AutoML系統。

 

該方法的主要組成部分是在貝葉斯優化(BO)算法的指導下,通過變形神經網絡結構來探索搜索空間。由於NAS空間不是歐幾里德空間,作者通過設計神經網絡核函數來解決這一問題。核函數是用來將一種神經結構轉換成另一種神經結構的編輯距離。

 

論文地址:

https://arxiv.org/pdf/1806.10282.pdf

源碼地址:

https://github.com/keras-team/autokeras

 

Depth-Aware Video Frame Interpolation (CVPR 2019)

 

提出了一種利用深度信息檢測遮擋的視頻幀插值方法。作者開發了一個深度感知流投影層,它可以合成一個即時流,對較近的對象進行採樣,而不是對較遠的對象進行採樣。

 

通過從相鄰像素中收集上下文信息來學習層次特徵。然後,基於光流和局部插值核,通過扭曲輸入幀、深度圖和上下文特徵來生成輸出幀。

 

提出了一種深度感知視頻幀內插(DAIN)模型,該模型可以有效地利用光流、局部內插核、深度圖和上下文特徵生成高質量的視頻幀。

 

 

論文地址:

https://arxiv.org/pdf/1904.00830.pdf

源碼地址:

https://github.com/baowenbo/DAIN

 

OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields

 

open pose是一個開放源碼的實時多人二維姿態估計系統,包括身體、腳、手和臉的關鍵點。提出了一種實時檢測圖像和視頻中二維人體姿態的方法。

 

該方法使用一種稱爲零件關聯域(PAF)的非參數表示。本文的一些作者來自IEEE。該方法以圖像作爲CNN的輸入,預測用於檢測人體部位的置信圖和用於部位關聯的PAF。本文還提出了一個帶有15K個人類腳實例的帶註釋的腳數據集。

 

 

論文地址:

https://arxiv.org/pdf/1812.08008.pdf

源碼地址:

https://github.com/CMU-Perceptual-Computing-Lab/openpose_train

 

FastFCN: Rethinking Dilated Convolution in the Backbone for Semantic Segmentation

 

本文提出了一種聯合上採樣模塊,稱爲聯合金字塔上採樣(JPU),以取代耗時和內存密集的擴展卷積。它的工作原理是將提取高分辨率映射的函數表示爲一個聯合上採樣問題。

 

 

 

 

該方法以全連通網絡(FCN)爲骨幹網絡,利用JPU對低分辨率的最終特徵圖進行上採樣,得到高分辨率的特徵圖。用JPU替換膨脹卷積不會導致性能損失。

 

 

論文地址:

https://arxiv.org/pdf/1903.11816.pdf

源碼地址:

https://github.com/wuhuikai/FastFCN

總結

更多論文或源碼:關注“圖像算法”wx公衆號,這些可以讓你對2019年的機器和深度學習研究領域有所瞭解。希望對各位同學有所幫助。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章