- 論文題目:RL-GAN-Net: A Reinforcement Learning Agent Controlled GAN Network for Real-Time Point Cloud Shape Completion
所解決的問題
用強化學習控制GAN
網絡,以使得GAN
更快,更魯棒。將其用於點雲數據生成。全網第一次用RL
控制GAN
。通過數據驅動的方法填補三維數據中的數據缺失。
所採用的方法?
預訓練階段,訓練一個自編碼器,用於生成隱空間的表示,之後用這個去訓練GAN
網絡。強化學習智能體用於選擇合適的向量,去合成隱空間的表示。與之前的反向傳播發現向量不同,本文采用RL
的方法進行選擇。
主要由三個模塊組成:1. 自編碼器;2. -GAN;3. 強化學習智能體(RL
)。
自編碼器
自編碼器用的損失函數如下:
其中和代表點雲的輸入和輸出。
-GAN
結合GFV
來訓練GAN
。
- Chamfer loss:
輸入點雲數據和生成器和解碼器輸出數據做loss
:
- GFV loss:生成
CFV
和輸入點雲
- Discriminator loss 判別器損失函數:
強化學習
強化學習用於快速選擇GAN
生成器的輸入:
獎勵函數定義爲:
其中 ,,。智能體用DDPG
算法。
取得的效果?
參考資料
相似文獻:
- Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas J. Guibas. Representation learning and adversarial generation of 3d point clouds. CoRR, abs/1707.02392, 2017. (有提到用隱空間數據訓練GAN會更穩定)。
相關GitHub
鏈接:
- https://github.com/lijx10/SO-Net
- https://github.com/heykeetae/Self-Attention-GAN
- https://github.com/sfujim/TD3