原创 1.激活函數

Sigmoid   Tanh:     Rectified Linera Unit  (ReLU)   Leaky Linear Unit (Leaky ReLu)

原创 RMSprob & Adam

RMSprob  (root mean square prob)   Adam: adam 結合了Momentum和RMSprop兩種算法: # GRADED FUNCTION: update_parameters_with_ada

原创 機器學習之神經網絡

5.神經網絡     對於單個人工神經網絡ANN(Artificial Neural Network)來說,他們往往都是通過多層神經元結構連接組成,並且神經網絡中的每層神經元網絡都擁有輸入和輸出,每層都是由多個神經元結構組成。一般多層人工

原创 Dropout 正則化 隨機失活

在每次迭代中,隨機失活(1-keep_prob)%的神經元,使得keep_prob%的神經元保持正常運轉。這些失活的神經元將不會接下來的前向傳播和反向傳播傳遞數據。 當關閉一些神經元時,你實際上修改了你的模型。隨機失活背後的思想是,在

原创 梯度消失/梯度爆炸

訓練神經網絡,尤其是深度神經網絡所面臨的一個問題就是梯度消失和梯度爆炸,也就是當訓練神經網絡的時候,導數或者坡度有時會變得非常大,或者非常小,甚至於以指數方式變大或者變小,這加大了訓練的難度。   神經網絡的權重初始化:

原创 梯度下降

梯度下降     Mini-Batch Gradient Descent 1.打亂數據。  將輸入的數據x和結果y,進行同步的隨機打亂。 2.分區。 將打亂後的數據進行分區,每個含有mini_batch_size大小個數據。 3.按照

原创 DCGAN 生成二次元頭像

8.  DCGAN   2019/11/10 GAN, 又稱生成對抗網絡, 也是 Generative Adversarial Nets 的簡稱   我們知道自然界的生物無時無刻都不在相互對抗進化,生物在往不被天敵發現的方向進化, 而天敵

原创 動量梯度下降法: Gradient Descent With Momentum

動量梯度下降法:  Gradient  Descent With  Momentum 1.指數加權移動平均:   2.指數加權平均的偏差修正: 如圖所示:紫色圖爲這些點集的加權平均,但很顯然在剛開始的時候,加權平均不能很好估測數據。所

原创 機器學習之神經網絡

神經網絡 對於單個人工神經網絡ANN(Artificial Neural Network)來說,他們往往都是通過多層神經元結構連接組成,並且神經網絡中的每層神經元網絡都擁有輸入和輸出,每層都是由多個神經元結構組成。一般多層人工神經網絡

原创 機器學習之誤差反向傳播算法

誤差反向傳播算法   我們知道神經網絡是由大量的參數即權重構成,神經網絡的學習過程則是這些參數的變化更新過程。誤差反向傳播算法就是用於更新這些參數的。這裏我們假設激活函數爲Sigmoid。 Ps:  在吳恩達機器學習反向傳播算法課

原创 機器學習之正則化

正則化可以用來改善或者減少過擬合問題 處理過擬合問題有以下方法: 1.丟棄一些不能幫助我們正確預測的特徵 2.正則化。保留所有的特徵,但是減少參數大小   過擬合問題:一般是因爲擬合函數參數過多,含有過多高次項參數,使得擬合函數盡

原创 機器學習之梯度下降

Batch 梯度下降(Batch Gradient Descent) 擬合函數   損失函數    是第i個訓練樣本的目標輸出                                           是第i個訓練樣本的實際

原创 機器學習之特徵縮放

特徵縮放使得梯度下降速度更快,迭代次數更少   1.特徵縮放: 將特徵取值縮放到[-1, 1]   2.均值歸一化:  x = (x - average) / (max - min)   3.標準化: 量化的特徵將服從標準正態分佈   

原创 機器學習之邏輯迴歸

由於Logistic迴歸面對的是分類問題,其結果是離散的,因此我們使用Sigmoid函數進行擬合分類。 if g > 0.5 Y = 1 if g <= o.5 Y = 0 在線性迴歸中我們使用

原创 自定義控件繼承View------Music

public class MusicView extends View { private Paint paint; private int count; private float offetx; private float left