cnn\rnn\LSTM\\自編碼\gan

 

最近看了莫煩Python的《瞭解機器學習部分》,雖然講的內容是基礎的,但是,自己總結一下才知道自己是不是記住啦,我總結的可能有錯誤或者不合適的地方,希望大家及時批評指正啦。https://morvanzhou.github.io/tutorials/machine-learning

一、卷積神經網絡cnn

卷積神經網絡主要在圖像和語音識別方面表現比較出色,卷積就是圖像上的各個像素通過卷積核做卷積運算,通過不同大小的卷積核會得到不同大小的結果,當然,如果你想通過卷積覈計算後的圖片大小仍然與原圖像大小一樣,可以使用padding = "same",在計算卷積的時候會在原圖像周圍添加黑邊,莫煩講的是通過對圖片上每一塊的像素進行處理,也就是說這個卷積核就是一個批量過濾器,滾動的在圖片上收集信息,然後得到最終的信息,不斷得到更高的信息結構,如邊緣等。然後再將這些信息放到全連接層進行分類,得到最終結果。

但我不太能理解他講的通過每次卷積之後我們得到的是更深度的圖片。

那麼在每次卷積的時候,都會丟失一些信息,通過池化層可以將篩選layer中有用的信息,也就是說不壓縮長寬儘可能保留儘可能多的信息,那麼池化層就負責壓縮的工作,減輕神經網絡的負擔。

經典的結構是:圖像輸入》卷積》池化》卷積》池化》全連接》全連接》分類器

二、循環神經網絡rnn

rnn主要用來處理序列數據,主要考慮到數據的關聯性,也就是之前的數據分析後,在後面rnn會把之前的也進行分析。

但rnn會對之前的記憶有所遺忘,所以可能會丟失一些信息,在反向誤差的時候,每次乘以一個權重,如果權重是一個小於1的小數,不斷乘以誤差值,最終的誤差會非常小,如果權重爲1.幾不斷乘以誤差值,誤差結果可能無窮大,所以就會出現梯度消失或者梯度爆炸的情況。

三、循環神經網絡LSTM

LSTM爲了解決rnn的梯度彌散或者梯度爆炸的情況,多加入了三個控制器(輸入控制、輸出控制、忘記控制),莫煩的解釋是下面的:

他多了一個 控制全局的記憶, 我們用粗線代替. 爲了方便理解, 我們把粗線想象成電影或遊戲當中的 主線劇情. 而原本的 RNN 體系就是 分線劇情. 三個控制器都是在原始的 RNN 體系上, 我們先看 輸入方面 , 如果此時的分線劇情對於劇終結果十分重要, 輸入控制就會將這個分線劇情按重要程度 寫入主線劇情 進行分析. 再看 忘記方面, 如果此時的分線劇情更改了我們對之前劇情的想法, 那麼忘記控制就會將之前的某些主線劇情忘記, 按比例替換成現在的新劇情. 所以 主線劇情的更新就取決於輸入 和忘記 控制. 最後的輸出方面, 輸出控制會基於目前的主線劇情和分線劇情判斷要輸出的到底是什麼.基於這些控制機制, LSTM 就像延緩記憶衰退的良藥, 可以帶來更好的結果.

雖然說的很通俗易懂,但是,我還是覺得沒有很好的讓我理解這個玩意。

四、自編碼

自編碼就解釋的很簡啦,那就是網絡只提取重要的的信息,然後得到結果再與原始信息計算誤差。

五、gan

前面的網絡都有輸入數據,gan是一種生成網絡,生成數據,其中的就是一種生成對抗,生成器與鑑別器之間的對抗,生成器生成,鑑別器鑑別,將鑑別的結果返回給生成器,生成器根據這次學習經驗改進,再重複上面的過程。

六、遷移學習

我理解的就是借鑑現在已經有的神經網絡,自己修改修改變成自己需要的

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章