原创 斯坦福大學機器學習第四課“邏輯迴歸(Logistic Regression)”

          斯坦福大學機器學習第四課“邏輯迴歸(Logistic Regression)” 本次課程主要包括7部分: 1) Classification(分類) 2) Hypothesis Representation

原创 斯坦福大學機器學習第五課"正則化“

斯坦福大學機器學習第五課"正則化“ 本次課程主要包括4部分: 1)  The Problem of Overfitting(過擬合問題) 2)  Cost Function(成本函數) 3)  Regularized Linear Re

原创 Python對象類型

                                                                             Python對象類型 Python進階(二)——Python對象類型

原创 反向傳播算法(BP)

  BP算法淺談(Error Back-propagation) 通過帶*的權重值重新計算誤差,發現誤差爲0.18,比老誤差0.19小,則繼續迭代,得神經元的計算結果更加逼近目標值0.5   感想  在一個複雜

原创 線性代數導論4——A的LU分解

                                                   線性代數導論4——A的LU分解 一、A=LA分解 消元的目的,只是爲了更好正確的認識矩陣的概念,A=LU是最基礎的矩陣分解。L

原创 最大似然估計和最大後驗概率估計的理解與求解

1. 最大似然估計的理解 最大似然估計(Maximum likelihood estimation, 簡稱MLE)和最大後驗概率估計(Maximum a posteriori estimation, 簡稱MAP)是很常用的兩種參數估計方法

原创 信息熵,交叉熵,相對熵,KL散度

        熵,信息熵在機器學習和深度學習中是十分重要的。那麼,信息熵到底是什麼呢?   首先,信息熵是描述的一個事情的不確定性。比如:我說,太陽從東方升起。那麼這個事件發生的概率幾乎爲1,那麼這個事情的反應的信息量就會很小。如果我說

原创 few-shot learning 1.1——零樣本學習

                         few-shot learning 1.1——初識零樣本學習   1. 什麼是few-shot learning        小樣本學習問題是指只給定目標少量訓練樣本的條件下,如何訓練一