【吳恩達深度學習】【神經網絡和深度學習】 第三章 第四節 多個例子中的向量化

一、爲什麼能夠向量化

大部分原因和前面blog中描述是一致的,這裏又有了一點心得思考。

如果我們在後面要進行梯度下降法或者別的什麼方法進行迴歸計算或者別的深度學習的時候,我們總是要對整個神經網絡的參數進行調整的,那麼這個調整的過程需要確定兩件事,調整誰,調多少,以及想明白一件事,爲什麼要調。

顯然,這個問題過於複雜,而且即使想出來了也沒有太多的意義,畢竟神經網絡中的某個神經元的意義沒有過多的價值。

而在向量化之後,我們處理的是所有參數和在一起形成的向量,就不需要考慮單個向量的問題了,也就一定程度上規避了上述的問題。

不過我還是保留之前的主要看法,向量化方便了機器運算。

二、不同視頻中w的一些問題

在不同的視頻中,w往往有兩層含義。其一是表示一個具體的實數作爲參數,其二是多個前者形成的參數列向量。而不知爲何,在不同的視頻中基本上都是使用了一個簡單的w,或許有大小寫的區別,但真的看不清。希望看到這邊blog的同學在看視頻的時候可以留意這一點,不要再關鍵問題的理解上出現偏差。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章