讀InfoGan文章

    InfoGan,是在GAN是用到了信息論的算法,能夠通過非監督的方式學習到特徵的含義。非監督學習是ill-posed(解是不唯一的),因爲在訓練的時候,下游的任務是未知的,如果能從數據樣本的找到代表的特徵,那麼對於那些位置的任務也是非常有幫助的,例如對在一些人臉的數據集上,有用的disentagled representation可能會有不同的維度來表示人臉,眼睛的顏色,髮型,是否帶眼鏡等。我們希望一個好的生成模型能夠自動的學習到disentagled representation。最重要的生成模型是VAE 和 GAN。這篇文章,我們在GAN的目標函數上做了簡單的修改去學習有可解釋性、有意義的representation 。 通過最大化一部分噪音輸入變量和觀察值的互信息。

   如果能學習到c1,c2,c3,c4表示某些有意義的特徵,那麼就是disentagled representation

 

   GAN中的G的輸入是噪音z,z中的每個維度和數據的特徵不相關,所以這篇文章提出,將輸入的z拆分成兩部分,第1部分z就是噪音數據,第2部分c 是一個潛在的編碼可以對應到某些數據特徵 。

那麼如何度量c 和 G(z,c) 之間的關係呢,我們利用mutual information,和信息增益是一樣的,即可以衡量Y對於減少X不確定的大小,如果X和Y是獨立的話,那麼I(X;Y)=0 ,我們希望mutual information越小越好,即PG(c|x)越小越好,換句話說,生成的數據不丟失c的信息,也就是x 與 c 越像越好。

所以InfoGan的目標函數轉換爲

但是上述公式第二項難以直接最大化,所以可以定義一個下界來轉換下

其中L1 有如下表示:

 

 

~ 其他待補充

 

 

 

 

refer:https://arxiv.org/pdf/1606.03657.pdf

Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章