- 機器學習的領域
- 基本的機器學習算法的分類
- 得分函數
如圖,經過一系列的計算,最後得到的概率就叫得分函數
- 損失函數
得分函數與真實數據比較之後的誤差叫做損失函數
- 機器學習中的算法簡介
無監督學習(連續型):SVD、PCA、K-means
無監督學習(離散型):Apriori、FP-Growth、Hidden Markov Model
監督學習(連續型):Regression(Linear、Polynomial)、Decsion Trees、Random Forests
監督學習(離散型):Classification(KNN、Trees、Logistic Regression、Native-Bayes、SVM)
- Scikit-learn Algorithm Cheat sheet
- 兩邊夾定理/夾逼定理
- 導數
導數是曲線的斜率,二階導數是斜率變化快慢的反映
9. 方向導數
10. 梯度
11. 凸函數
12. 琴生不等式
如果是凸函數
13. 常見的概率分佈
14. 概率
15. 常見函數的導數
16. 泰勒公式
17. 概率與統計的關注點
18. 概率統計與機器學習的關係
19. 方差
20. 協方差
協方差矩陣的特徵分解-SVD
協方差是用來評價兩個隨機變量的線性關係
方差同時除以X的標準差和Y的標準差得出來的是相關係數
21. 期望
22. SVD的幾何意義
原始數據,比如每一行都是一個文本,每列都是一個單詞,實際上,我們對於每一個文本都可以用裏面所有的單詞出現的次數的一個向量作爲表示,向量的每一行都對應的一個文本,變成一個矩陣,但是有一個問題,假設詞語的個數有60個億,那麼有60億的詞語就有60億的列,因爲太大,所以放不下,因此需要使用方法截短,怎麼挑出來?就是一個降維的問題
23. 矩陣乘法在計算中的優勢
內積:向量和矩陣相乘