理解auto-encoder自編碼神經網絡

      想象這樣一個網絡,輸入是一組全部爲一的向量,目標是一張人臉,經過好多好多輪的訓練。我們只要輸入這個全部唯一的向量就可以得到這張你熟悉的臉。其實這是因爲在訓練的過程中,我們通過不斷地訓練,網絡已經將這張人臉圖片的參數保存起來了。

     這個工作其實已經可以看出他的意義所在了,通過一個網絡,將一個高維空間的人臉映射爲低維空間的一個向量。那麼如果我將這個向量定義爲四維,採用one-hot的表達方式表達四張不同的臉,那麼這個網絡就可以表達四個臉,emm,你輸入不同的數據,他就會輸出不同的臉來。

       你也許會說,那這個幾維向量又代表什麼呢?如果每增加一個臉就要相應增加空間的維度,那麼這個過程也就太不科學了吧。嗯,科學的是,以上只是我隨手爲了方便大家理解舉的例子,其實,在實際應用中,這個維度往往代表的是決定最後成型的各個因素,大家往往稱之爲隱形因素,也就是在大量的博客推導中我們所看到的Z。在下面這個圖中,我們通過六個因素來描述最終的人臉形狀,而這些因素不同的值則代表了不同的特性。

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章