原创 Google推薦系統Wide & Deep Learning for Recommender Systems論文翻譯&解讀

Wide & Deep Learning for Recommender Systems 推薦系統中的Wide & Deep Learning 摘要 Generalized linear models with nonlinear f

原创 帶你搞懂支持向量機SVM算法原理

感知機是SVM的基礎,詳細介紹請戳http://blog.csdn.net/akirameiao/article/details/79436859 一、原理 1. 線性可分支持向量機 問題的輸入輸出 X = {x1,x2,...,x

原创 帶你搞懂GBDT算法原理

一、引言   在集成學習原理介紹中,簡單的介紹了根據個體學習器學習方式不同劃分的兩大類集成學習方法,個體學習器間存在強依賴關係、必須串行生成的序列化方法,如Boosting;個體學習器間不存在強依賴關係、可同時生成的並行化方法,如Bagg

原创 帶你搞懂感知機算法原理

很多人可能聽過大名鼎鼎的SVM,這裏介紹的正是SVM算法的基礎——感知機,感知機是一種適用於二類線性分類問題的算法 原理 問題的輸入與輸出: X = {x1,x2,...,xnx1,x2,...,xn } Y = {+1, -

原创 帶你搞懂樸素貝葉斯算法原理

一、樸素貝葉斯是什麼,怎麼用? 貝葉斯定理:樸素貝葉斯定理體現了後驗概率 P(y|x)P(y|x) 、先驗概率 P(y)P(y) 、條件概率 P(x|y)P(x|y) 之間的關係: P(y|x)=P(x,y)P(x)=P(x

原创 帶你搞懂Adaboost算法原理

一、引言   在集成學習原理介紹中,簡單的介紹了根據個體學習器學習方式不同劃分的兩大類集成學習方法,個體學習器間存在強依賴關係、必須串行生成的序列化方法,如Boosting;個體學習器間不存在強依賴關係、可同時生成的並行化方法,如Bagg

原创 帶你搞懂決策樹算法原理

一、決策樹是什麼?   顧名思義,決策樹是由一個個“決策”組成的樹,學過數據結構的同學對樹一定不陌生。決策樹中,結點分爲兩種,放“決策依據”的是非葉結點,放“決策結果”的是葉結點。   那麼決策是什麼呢?很好理解,和人一樣,決策就是對於

原创 手把手教你用Python實現感知機

實現 Python代碼 import numpy as np import matplotlib matplotlib.use('TkAgg') from matplotlib import pyplot as plt # 載入數據

原创 機器學習中常見的概率知識

幾個常見概率概念 先驗概率: 事件發生前的預判概率。可以是基於歷史數據的統計,可以由背景常識得出,也可以是人的主觀觀點給出。貝葉斯中的先驗概率一般特指P(y) 後驗概率: 事件發生後求的反向條件概率;或者說,基於先驗概率求得的反向條件概率

原创 帶你搞懂集成學習原理

一、集成學習是什麼? 舉個例子,假設你有一個關於股票的問題,你身邊有10個朋友,他們分別有自己擅長的行業股票,你想得到他們的幫助,你可以這樣做。 (1)選出你最信任的那個朋友,聽從他的建議(普通的學習算法,選擇驗證效果最好的) (2)

原创 手把手教你用Python+樸素貝葉斯實現垃圾郵件分類

用樸素貝葉斯進行簡單的垃圾郵件分類 import numpy as np import re import os import random import numpy as np # 處理給定路徑下的文件 def load_data(f

原创 手把手教你用scikit-learn決策樹算法庫畫出決策樹

想了解決策樹的原理,可以看我關於決策樹理論的介紹 參數的介紹 共同參數 含義 max_depth 決策樹最大深度:默認可以不輸入,決策樹在生成的時候不會限制樹的深度。一般來說,數據少或者特徵少的時候可以不管這個值。如果模型樣本