機器學習中的必修數學(一)

  1. 機器學習的領域
    這裏寫圖片描述
  2. 基本的機器學習算法的分類
    這裏寫圖片描述
  3. 得分函數
    如圖,經過一系列的計算,最後得到的概率就叫得分函數
    這裏寫圖片描述
  4. 損失函數
    得分函數與真實數據比較之後的誤差叫做損失函數
    這裏寫圖片描述
  5. 機器學習中的算法簡介
    無監督學習(連續型):SVD、PCA、K-means
    無監督學習(離散型):Apriori、FP-Growth、Hidden Markov Model
    監督學習(連續型):Regression(Linear、Polynomial)、Decsion Trees、Random Forests
    監督學習(離散型):Classification(KNN、Trees、Logistic Regression、Native-Bayes、SVM)
    這裏寫圖片描述
  6. Scikit-learn Algorithm Cheat sheet
    這裏寫圖片描述
  7. 兩邊夾定理/夾逼定理
    這裏寫圖片描述
  8. 導數
    導數是曲線的斜率,二階導數是斜率變化快慢的反映

這裏寫圖片描述
9. 方向導數
這裏寫圖片描述
10. 梯度
這裏寫圖片描述
11. 凸函數
這裏寫圖片描述

這裏寫圖片描述
這裏寫圖片描述
12. 琴生不等式
如果是凸函數

這裏寫圖片描述
13. 常見的概率分佈
這裏寫圖片描述

這裏寫圖片描述
這裏寫圖片描述
14. 概率
這裏寫圖片描述
15. 常見函數的導數
這裏寫圖片描述
16. 泰勒公式
這裏寫圖片描述
17. 概率與統計的關注點
這裏寫圖片描述
18. 概率統計與機器學習的關係
這裏寫圖片描述
19. 方差
這裏寫圖片描述
20. 協方差
協方差矩陣的特徵分解-SVD
協方差是用來評價兩個隨機變量的線性關係
方差同時除以X的標準差和Y的標準差得出來的是相關係數

這裏寫圖片描述
21. 期望
這裏寫圖片描述
22. SVD的幾何意義
原始數據,比如每一行都是一個文本,每列都是一個單詞,實際上,我們對於每一個文本都可以用裏面所有的單詞出現的次數的一個向量作爲表示,向量的每一行都對應的一個文本,變成一個矩陣,但是有一個問題,假設詞語的個數有60個億,那麼有60億的詞語就有60億的列,因爲太大,所以放不下,因此需要使用方法截短,怎麼挑出來?就是一個降維的問題
23. 矩陣乘法在計算中的優勢
內積:向量和矩陣相乘
這裏寫圖片描述

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章