GAN前沿問題討論:GAN的訓練和batch size的關係

我們知道在圖像分類任務中,較大的batch size有助於提升分類性能,那麼我們的問題是較大的batch size是否能提升GAN的性能呢?

有人或許覺得這個答案應該是肯定的。畢竟大多數GAN中,discriminator就是一個圖像分類器。如果大的batch size能夠對梯度噪聲有一定減緩作用的,那麼它應該可以加速訓練過程。

但是,GAN還有一個問題是普通分類器所沒有的:GAN的訓練可能會發散(損失是震盪的),而不像普通分類器那樣理論上可以收斂到某一個點(如損失爲0).基於此,我們可以提出新的問題:我們應該如何調整GAN中的batch size?梯度噪聲在訓練GAN的過程中有多大的作用?GAN的訓練是否可以通過調整batch size來優化呢?

目前已經有些實驗表明提高batch size有助於提高生成圖片的質量,也有助於減少訓練的時間(可見參考論文【1】)。如果這個現象是普遍的話,這表明在GAN訓練過程中梯度噪聲是一個顯著的影響因素。但是目前這並沒有被大量研究,我們相信這個問題仍然是值得做的。

大的batch size是否有助於訓練呢?論文【2】似乎說明了它似乎比其他GAN有更好的收斂特性。但是他們增加batch size是因爲想對更多的訓練數據做配準。我們認爲有可能這會是一個潛在的方案來提升GAN的訓練。

參考文獻

  1. Large Scale GAN Training for High Fidelity Natural Image Synthesis
  2. IMPROVING GANS USING OPTIMAL TRANSPORT
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章