[面試筆記] 面試知識點準備-機器學習基礎

摘要

要找工作啦,心累,持續更新中。。。

以下內容大部分來自李航老師的《統計學習方法》,以及各大博主文章

面經

  1. http://www.svgrimconsulting.com/nd.jsp?id=65

基礎知識點

《輕鬆看懂機器學習十大常用算法》: http://blog.jobbole.com/108395/

  • 生成模型和判別模型
    這裏寫圖片描述

  • 二分類中的準確率與召回率
    這裏寫圖片描述

  • 正則化項

    參考文章(這裏面關於L1L2的求導部分講的不錯,也包含了其他的正則化方法):
    http://blog.csdn.net/u012162613/article/details/44261657

    經驗風險最小化是沒有加正則化的損失函數最小優化,
    結構風險最小化就是加了正則項的損失函數最小優化
    這裏寫圖片描述

    • L1範數對參數權值進行直接懲罰,所以會有部分參數趨向於0
    • L2範數對參數平方值進行懲罰,所以全體參數會整體趨向於0
  • 樸素貝葉斯(NB分類器)

    • 我們的目標是給定X(i)來計算以下條件概率:
      這裏寫圖片描述
    • 根據貝葉斯定理,可變換爲如下形式:
      這裏寫圖片描述
    • 但是,條件概率分佈P(X = x | Y = ck)有指數級數量的參數:
      這裏寫圖片描述
    • 因此,NB做了一個合理的假設,即條件獨立性假設(假設事件之間發生的關聯性爲0,事件之間互相獨立):
      這裏寫圖片描述
    • 因此,第二步的公式可以表示爲:
      這裏寫圖片描述
    • 最後,得到NB分類器的公式:
      這裏寫圖片描述
    • 極大似然估計(假設先驗分佈概率就是期望的分佈概率)
    • 貝葉斯估計(用於解決概率值爲0時,乘積爲0的問題):
      這裏寫圖片描述
      當Lambda爲1時,即爲拉普拉斯平滑
      注意:添加Lambda後,需要保證概率之和爲1
    • 拉普拉斯平滑的作用:
      問: 有兩隻球隊A和B,在過去的7場比賽中A獲勝7次,B獲勝0次,那麼下一次比賽A和B獲勝的概率各是多少?
      答:根據先驗概率,A獲勝的概率是7/7,B獲勝的概率爲0/7,顯然這是不合理的,雖然B真的菜,但是下一場沒準真的能獲勝,因此,使用拉普拉斯平滑進行調整,得到A獲勝的概率爲7/8,B獲勝的概率爲1/8。不僅保留了概率上的特徵,同時保證了合理性。
  • 二項邏輯斯蒂迴歸模型

    • 概率分佈:
      這裏寫圖片描述
    • LR將線性函數值轉化爲了事件發生的概率
      這裏寫圖片描述
    • 得到LR的損失函數爲:
      這裏寫圖片描述
    • 將LR用於多分類:
      這裏寫圖片描述
    • 最大似然估計:MLE是通過概率去求參數,使得模型的分佈結果最大程度地與當前數據的分佈相接近
  • SVM模型

    戳這裏->參看July大神的SVM博客

    • 核心思想:
      這裏寫圖片描述
    • 函數間隔和幾何間隔
      爲了找到最大化間隔的超平面,我們需要一個合理的間隔度量來進行評價,首先想到的最簡單的就是函數間隔,即評價函數wx+b的值的絕對值大小
      這裏寫圖片描述
      但是,函數間隔無法作爲最大化超平面間隔的度量,因爲其會隨着w、b值的縮放而跟着縮放,顯然不好,因此引入幾何間隔
      這裏寫圖片描述
      幾何間隔引入了向量w,因此是實質上幾何空間的距離度量,而且不會被w、b影響,只與超平面的位置有關,完全可以作爲超平面的度量方法
    • 關於拉格朗日乘子法和對偶問題:
      這裏寫圖片描述
      也可以參考:《拉格朗日乘子法、KKT條件、拉格朗日對偶性》
    • 非線性問題
      首先,我們在已知拉格朗日系數a的前提下,通過求偏導數可以得到權重係數w可以用如下公式得到:
      這裏寫圖片描述
      這裏寫圖片描述
      因此,分類函數可以表示爲內積的形式( 這裏的形式的有趣之處在於,對於新點 x的預測,只需要計算它與訓練數據點的內積即可;此外,所謂 Supporting Vector 也在這裏顯示出來——事實上,所有非Supporting Vector 所對應的a係數都是等於零的,因此對於新點的內積計算實際上只要針對少量的“支持向量”而不是所有的訓練數據即可):
      這裏寫圖片描述
    • 對於非線性問題,可以使用一個映射函數將數據點投影到高維空間中:
      這裏寫圖片描述
      考慮我們可愛的內積形式:
      這裏寫圖片描述
  • EM算法

    http://blog.csdn.net/zouxy09/article/details/8537620/

    • 雖然很牛逼,但我看不懂
    • 簡單的說就是先猜,後調整,再猜,再調整,最後win
    • 用於混合高斯模型的時候,與K-means差不多,也是找類別中心,但是Km無法給出後驗概率,EM卻可以
  • 隱式馬爾科夫模型(HMM)

    • 簡單易懂的解釋:
      https://www.cnblogs.com/skyme/p/4651331.html
    • 三個基本問題
      這裏寫圖片描述
    • 概率計算問題
      • 直接計算:算出整體解空間 ,然後用條件解的個數除以整體解的個數。缺點是整體解空間太大,算法太複雜
      • 前向算法:對每一步的每一個狀態序列中的狀態進行概率計算,求和,然後進一步計算,最後累加出結果。避免了對非必要狀態的概率計算。
    • 預測問題
      • 直接計算:算出可能產生該序列的所有隱序列的數量,然後除一下即可,但是解空間依然很大
      • Viterbi 算法:對每一步觀測狀態進行概率計算,取當前概率最大的作爲下一步觀測狀態計算的前提,直到停止
    • HMM用於NLP的最簡單的應用:
      這裏寫圖片描述
  • 條件隨機場 CRF

    https://zhuanlan.zhihu.com/p/25558273


發佈了72 篇原創文章 · 獲贊 66 · 訪問量 13萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章