自編碼Auto-Encoders
自編碼(Auto-Encoders)是非監督學習領域中的一種, 可以自動從無標註的數據中學習特徵, 是一種以重構輸入信號爲目標的神經網絡, 它可以給出比原始數據更好的特徵描述, 具有較強的特徵學習能力, 在深度學習中常用自編碼網絡生成的特徵來取代原始數據, 以得到更好的結果。長被用於生成類模型。
如下圖所示:
輸入一張圖片,通過一個 Encoder 網絡,輸出一個壓縮後的特徵。之後將這個壓縮特徵通過一個 Decoder 網絡,又將這張圖片還原回去了。
我們知道,PCA是可以做降維的,不過PCA降維依賴線性性,本質仍然是線性變換,而自編碼是通過神經網絡降維,由於激活函數所以自編碼有非線性性,理論上可以有更好的降維效果,事實也是如此。下圖展示了二者重建圖像的區別:
自編碼器原理
讓我們來考慮有監督學習的神經網絡的功能:
是輸入的向量長度, 是網絡輸出的向量長度。對於分類問題,網絡模型通過把長度爲 輸入特徵向量 變換到長度爲 的輸出向量 ,這個過程可以看成是特徵降維的過程,把原始的高維輸入向量𝒙變換到低維的變量𝒐。特徵降維(Dimensionality reduction)在機器學習中有廣泛的應用, 比如文件壓縮(Compression),數據預處理(Preprocessing)等。
自編碼網絡利用數據 本身作爲監督信號來指導網絡的訓練,即希望神經網絡能夠學習到映射,我們把網絡 切分爲 2 個部分,前面的子網絡嘗試學習映射關係: ,後面的子網絡嘗試學習映射關係 ,我們把 看成一個數據編碼(Encode)的過程,把高維度的輸入 編碼成低維度的隱變量 (Latent variable,或隱藏變量),稱爲 Encoder 網絡(編碼器); 看成數據解碼(Decode)的過程,把編碼過後的輸入 解碼爲高維度的 , 稱爲 Decoder 網絡(解碼器)。
編碼器和解碼器共同完成了輸入數據𝒙的編碼和解碼過程,我們把整個網絡模型 叫做自動編碼器(Auto-Encoder),簡稱自編碼器。 如果都使用深層神經網絡來參數化 和 函數,則稱爲深度自編碼器(Deep auto-encoder),如下圖所示。
自編碼器能夠將輸入變換到隱藏向量 ,並通過解碼器重建(Reconstruct,或恢復)出 。我們希望解碼器的輸出能夠完美地或者近似恢復出原來的輸入,即 ,那麼,自編碼器的優化目標:
其中表示 和 的距離度量(Distance metric)。
自編碼器網絡和普通的神經網絡並沒有本質的區別, 只不過訓練的監督信號由標籤 變成了自身 。
去噪自編碼Denoising Auto-Encoders
要想取得好的特徵只靠重構輸入數據是不夠的, 在實際應用中, 還需要讓這些特徵具有抗干擾的能力, 即當輸入數據發生一定程度的擾動時, 生成的特徵仍然保持不變在這種情況下訓練出來的模型纔會有更好的魯棒性。
Denoising Auto-Encoders 給輸入數據添加隨機的噪聲擾動,如給輸入添加採樣自高斯分佈的噪聲
添加噪聲後,網絡需要從 學習到數據的真實隱藏變量 ,並還原出原始的輸入
變分自編碼Variational Auto-Encoders
基本的自編碼器本質上是學習輸入,隱藏變量 之間映射關係, 它是一個判別模型(Discriminative model),並不是嚴格的生成模型(Generative model)。 於是考慮將模型變爲生成模型,我們可以學習到給定 , 隱藏變量的條件概率分佈 , 在學習到這個分佈後, 通過對進行採樣可以生成不同的樣本。 這就是變分自編碼器(Variational Auto-Encoders,VAE)。
VAE原理
從概率的角度, 我們假設任何數據集都採樣自某個分佈 , 是隱藏的變量,代表了某種內部特徵, 比如手寫數字的圖片 , 可以表示字體的大小,書寫風格,加粗、斜體等設定,它符合某個先驗分佈 ,在給定具體隱藏變量 的情況下,我們可以從學到的分佈 中採樣一系列的生成樣本,這些樣本都具有 所表示的共性。
在 已知(比如)的條件下, 我們的目的就是希望能學會生成概率模型 。這裏我們可以採用最大似然估計(Maximum likelihood estimation): 一個好的模型,應該擁有很大的概率產生已觀測的樣本。 如果我們的生成模型 是用 來參數化,比如我們通過一個神經網絡 Decoder 來學習 ,那麼 就是此 decoder 的權值 等,那麼我們的神經網絡的優化目標是:
注意上式的含義, 是聯合概率密度,對聯合概率密度積分可得到邊緣概率密度。
很遺憾的是,由於 是連續變量,上述積分沒法轉換爲離散形式,所以直接優化上式幾乎是不可能的。
換一個思路,利用 變分推斷(Variational Inference) 的思想,我們通過分佈 來逼近真實的後驗概率 ,即需要優化 和 之間的距離:
其中KL散度定義爲:
嚴格來說距離應該是對稱的,但是KL散度並不對稱。
將min式的KL散度展開:
進一步由 :
上式中 部分, 相對於積分變量 是常數,剩餘部分由概率密度定義,積分爲 。
我們將 項定義爲 ,上式即爲:
其中:
考慮到 ,故有 。
也就是說, 是 的下界(Lower bound),優化目標 稱爲Evidence Lower Bound Objective(ELBO),爲了最大化似然 或 ,可以通過 實現。
現在我們分析如何最大化 ,將其展開可得:
因此:
因此可以用編碼器網絡參數化 函數,解碼器網絡參數化 函數,通過計算解碼器的輸出分佈 與先驗分佈 之間的 KL 散度,以及解碼器的似然概率 構成的損失函數,即可優化 目標。
當 和 都假設爲正態分佈時:
Reparameterization Trick
隱變量採樣自編碼器的輸出 ,如下圖左所示,編碼器輸出正態分佈的均值 和方差 ,解碼器的輸入採樣自 。由於採樣操作的存在,導致梯度傳播是不連續的,無法通過梯度下降算法訓練 VAE 網絡。原VAE論文中提供了一種連續可導的解決方案,稱爲 , 它通過 方式採樣隱變量 ,從而將梯度傳播連接起來。如下圖右所示, 變量採樣自標準正態分佈 , 和 由編碼器網絡產生,通過 即可獲得採樣後的隱變量。
VAE 網絡模型如下圖所示,輸入 通過編碼器網絡 計算得到隱變量 的均
值與方差,通過 方式採樣後送入解碼器網絡,獲得分佈 ,
並通過損失函數 計算誤差優化參數。