原创 頻繁項集挖掘算法Apriori FPGrowth

參考:http://blog.sina.com.cn/s/blog_5357c0af0101jq6z.html http://blog.csdn.net/huagong_adu/article/details/17739247 Ap

原创 機器學習中常用算法總結

參考:http://www.shuju.net/article/MDAwMDAyM4DM0.html 在垃圾郵件分類器項目中,隨機森林被用作最終的分類器模型。面試官可能會就此提出以下問題:爲什麼選擇隨機森林而非其他模型,比如樸素貝葉斯或者

原创 推薦系統筆記三、基於近鄰的推薦系統(進階篇)

參考:http://blog.csdn.net/wangjian1204/article/details/50490108 一、概述: 基於近鄰的推薦算法在推薦系統中佔有重要的地位,是學術界的一個重點研究方向,在產業界也得到了廣

原创 LDA-math-MCMC 和 Gibbs Sampling

參考:https://cos.name/2013/01/lda-math-mcmc-and-gibbs-sampling/

原创 PCA和SVD區別和聯繫

參考:http://blog.csdn.net/wangjian1204/article/details/50642732 http://www.cnblogs.com/lzllovesyl/p/5243370.html PCA

原创 數據預處理

參考: http://mp.weixin.qq.com/s?__biz=MjM5MTQzNzU2NA==&mid=2651647587&idx=2&sn=d0d3a69ce141f4015d6e0320048fbe63&chksm=bd4

原创 xgboost相比傳統gbdt有何不同?xgboost爲什麼快?xgboost如何支持並行?

鏈接:https://www.zhihu.com/question/41354392/answer/98658997 傳統GBDT以CART作爲基分類器,xgboost還支持線性分類器,這個時候xgboost相當於帶L1和L2正則化項的

原创 Word2vec簡單整理

參考:https://zhuanlan.zhihu.com/p/22477976 http://yobobobo001.github.io/2016/05/26/%E6%88%91%E6%89%80%E7%90%86%E8%A7%A3%E

原创 希臘字母

1 Α α alpha a:lf 阿爾法2 Β β beta bet 貝塔3 Γ γ gamma

原创 神經網絡概念理解

激勵函數有哪些?各有什麼特點? 爲什麼引入非線性激勵函數? 如果不用非線性激勵函數(其實相當於激勵函數是f(x)=x),每一層輸出都是上層輸入的線性函數,無論該神經網絡多少層,輸出都是輸入的線性組合,與沒有隱藏層效果一樣,即爲最原始

原创 FM算法詳解

參考:http://blog.csdn.net/bitcarmanlee/article/details/52143909 http://blog.csdn.net/dream_catcher_10/article/details/508

原创 spark-shell報錯:java.net.UnknownHostException

參考:https://my.oschina.net/heguangdong/blog/13678 啓動spark-shell報錯:java.net.UnknownHostException: 主機名: 主機名 unknown error

原创 受限波爾茲曼機

參考:http://blog.csdn.net/u012333003/article/details/36416027 一、簡述   受限玻爾茲曼機(RBM)是一類具有兩層結構、對稱鏈接無自反饋 的隨機神經網絡模型, 層與層之間是

原创 SVD SVD++

參考: http://www.cnblogs.com/Xnice/p/4522671.html http://blog.csdn.net/dark_scope/article/details/17228643 http://blog.cs

原创 給用戶推薦商品

給用戶推薦商品 地址: http://blog.csdn.net/qq_34264472/article/details/53808876https://www.kaggle.com/c/santander-product-recom