原创 斯坦福大學機器學習第四課“邏輯迴歸(Logistic Regression)”
斯坦福大學機器學習第四課“邏輯迴歸(Logistic Regression)” 本次課程主要包括7部分: 1) Classification(分類) 2) Hypothesis Representation
原创 斯坦福大學機器學習第五課"正則化“
斯坦福大學機器學習第五課"正則化“ 本次課程主要包括4部分: 1) The Problem of Overfitting(過擬合問題) 2) Cost Function(成本函數) 3) Regularized Linear Re
原创 Python對象類型
Python對象類型 Python進階(二)——Python對象類型
原创 反向傳播算法(BP)
BP算法淺談(Error Back-propagation) 通過帶*的權重值重新計算誤差,發現誤差爲0.18,比老誤差0.19小,則繼續迭代,得神經元的計算結果更加逼近目標值0.5 感想 在一個複雜
原创 線性代數導論4——A的LU分解
線性代數導論4——A的LU分解 一、A=LA分解 消元的目的,只是爲了更好正確的認識矩陣的概念,A=LU是最基礎的矩陣分解。L
原创 最大似然估計和最大後驗概率估計的理解與求解
1. 最大似然估計的理解 最大似然估計(Maximum likelihood estimation, 簡稱MLE)和最大後驗概率估計(Maximum a posteriori estimation, 簡稱MAP)是很常用的兩種參數估計方法
原创 信息熵,交叉熵,相對熵,KL散度
熵,信息熵在機器學習和深度學習中是十分重要的。那麼,信息熵到底是什麼呢? 首先,信息熵是描述的一個事情的不確定性。比如:我說,太陽從東方升起。那麼這個事件發生的概率幾乎爲1,那麼這個事情的反應的信息量就會很小。如果我說
原创 few-shot learning 1.1——零樣本學習
few-shot learning 1.1——初識零樣本學習 1. 什麼是few-shot learning 小樣本學習問題是指只給定目標少量訓練樣本的條件下,如何訓練一