原创 PAT甲級題目

PAT甲級的題目有關於樹的題目,1053,1086,1090,1102,1106,1115,1119,1110 A1053 這題目比較簡單,給定一棵樹,給定一個數字,要你找到所有和等於給定數字的路徑。這個題目的樹沒有給出是二叉

原创 Hidden Markov Model

HMM隱馬爾科夫模型 ①通俗的理解 首先舉一個例子,扔骰子,有三種骰子,第一個是比較常見的6個面x=[1,2,3,4,5,6]x = [1,2,3,4,5,6]x=[1,2,3,4,5,6],每一個面的概率都是1/6。第二個只有

原创 Radial Basis Function Network

RBF Network 前面的一篇SVM中,最後的分割函數: 使用高斯核函數方式把數據維度擴展到無限維度進而得到一條粗壯的分界線。仔細看一下這個分割函數,其實就是一些Gaussian函數的線性組合,y就是增長的方向。 Gaus

原创 支持向量機(Support Vector Machine)

支持向量機 linear regression , perceptron learning algorithm , logistics regression都是分類器,我們可以使用這些分類器做線性和非線性的分類,比如下面的一個問題:

原创 電影售票系統開發流程及其bug修復日誌--業務開發(1)

傳統業務 傳統業務應用基本把所有的東西都集合在一起,傳統應用帶來的問題,單一業務的開發和迭代困難,這個時候牽扯到兩個部分,第一是有可能只是針對用戶模塊增加了許多需求,其他模塊沒有變更,這種情況下,第一不談開發難度,我們把所以的用戶

原创 EM Algorithm

Expectation Maximization Algorithm EM算法和之前學的都不太一樣,EM算法更多的是一種思想,所以後面用幾個例子講解,同時也會重點講解GMM高斯混合模型。 ①極大似然估計 極大似然估計這裏面用的比較多。假

原创 電影售票系統開發流程及其bug修復日誌--高可用(2)

分佈式事務 首先,事務是用來保證一組數據操作的完整性和一致性。事務的四種特性,Atomicity原子性,consistency一致性,isolation隔離性,durability持久性。 分佈式事務大體可以分成兩部分,首先是事務

原创 Aggregation Model : Blending , Bagging , Boosting

⑴Motivation of Aggregation 比如現在有一支股票,你不知道是跌還是漲。你有T個friends,每一個friend對應的建議分別是g1,g2,g3...gn,那麼你應該怎麼選擇建議? ⑵Blending 1.Sel

原创 Decision Tree

①Aggregation Model 回顧上一篇文章講到的聚合模型,三個臭皮匠頂一個諸葛亮。於是出現了blending,bagging,boost,stacking。blending有uniform和non-uniform,stacki

原创 Matrix Factorization

Matrix Factorization ①linearNetwork Hypothesis 機器學習的作用就是要從一堆數據中學習到學習到某種能力,然後用這種skill來預測未來的結果。比如一個電影推薦的例子,我們手上有很多的電影數據,

原创 Some methods of deep learning and dimensionality reduction

Deep Learning 上一篇主要是講了全連接神經網絡,這裏主要講的就是深度學習網絡的一些設計以及一些權值的設置。神經網絡可以根據模型的層數,模型的複雜度和神經元的多少大致可以分成兩類:Shallow Neural Network和

原创 The Optimization of the Adaboost and Gradient Boosted Decision Tree

The Optimization of the Adaboost 1.對於Adaboost error function的推導 再回到我們上篇文章講到的Adaboost算法,我們要從Adaboost算法推導出GBDT。首先回顧一下上篇文

原创 Finale

Feature Exploitation Techniques 這幾篇博客介紹的第一個feature transform方法就是kernel。kernel先出現是在SVM裏面,原因就是爲了減少 內積計算的複雜度,把特徵轉換和內積計算結合

原创 Neural Network

1.PLA 重新回顧一下一開始學的PLA,preceptron learning Algorithm。PLA適用於二維及高維的線性可分的情況,如果是非線性可分的數據,如果使用PLA可能會無限循環。問題的答案只有同意或不同意:

原创 Hidden Markov Model

HMM隱馬爾科夫模型 ①通俗的理解 首先舉一個例子,扔骰子,有三種骰子,第一個是比較常見的6個面,每一個面的概率都是1/6。第二個只有4個面,,每一個面的概率是1/4。第三個有8個面,,每一個面的概率是1/8。 首先先選擇一