原创 python kmp算法簡單實現

def getnext(a,next): al = len(a) next[0] = -1 k = -1 j = 0 while j < al-1: if k == -1 or a[

原创 統計學習方法 習題5.2 python實現

根據表5.2所示的數據,用平方誤差損失準則生成二叉迴歸樹 二叉迴歸樹的算法爲: 其中公式5.21中的c1,c2分別爲R1和R2上數據的平均值 代碼仿照機器學習實戰上關於決策樹實現(遞歸的建立一棵樹)保存爲cart.py: #codin

原创 條件熵的定義

最大熵模型中使用條件熵作爲模型基礎,決策樹算法中利用經驗條件熵作爲計算信息增益的基礎。當熵和條件熵中的概率由數據估計(特別是極大似然估計)得到時,所對應的熵和條件熵分別成爲經驗熵和經驗條件熵。維基百科中也有對條件熵的定義和相關公式的描述。

原创 tensorflow入門2 幾個函數的總結和手寫數字識別

tensorflow中很多函數是對神經網絡中用到的一些功能的封裝,通過查看這些函數參數的設置,以及返回值可以瞭解這些函數的使用方法,對神經網絡的過程也能更加清楚,寫代碼的時候也能更好的使用這些函數和模型的參數調節。 tf.nn.softm

原创 tensorflow入門3 卷積神經網絡、循環神經網絡以及雙向lstm手寫體識別

上一篇文章中總結了tf中卷積神經網絡的兩個中重要的函數,這篇文章裏展示cnn在手寫體識別中的應用 import tensorflow as tf from tensorflow.examples.tutorials.mnist impor

原创 leetcode 64&70

兩道比較簡單的動態規劃問題,用python實現 64題大概意思是給出一個矩陣,從左上到右下最的和最小,70題就是更熟悉的爬樓梯的問題。其實也是對python語法進行熟悉,不像c語言有數組的概念,python裏面用list實現類似的功能。

原创 python快排

快排最少的時間複雜度是O(n),平均是O(n logn),最壞O(n^2)。 #quick_sort array = [1,5,65,23,57,1232,-1,-5,-2,242,100,4,423,2,564,9,0,10,43,6

原创 詞向量之word2vec(2)

word2vec簡單應用 點贊 收藏 分享

原创 LSTM簡介

資源: Colah博客《Understanding LSTM Networks》: http://colah.github.io/posts/2015-08-Understanding-LSTMs/ Colah博客中文翻譯: http:/

原创 詞向量之加載word2vec和glove

1 Google用word2vec預訓練了300維的新聞語料的詞向量googlenews-vecctors-negative300.bin,解壓後3.39個G。 可以用gensim加載進來,但是需要內存足夠大。 #加載Google訓練的

原创 統計學習方法 習題5.1 c4.5實現

題目要求:根據訓練數據集,利用信息增益比(C4.5算法)生成決策樹。 信息增益比算法是id3算法的改進: 信息增益比的定義: 補充:信息增益計算方式: 代碼實現(機器學習實戰的改編,保存爲tree.py): from math

原创 bp算法推導過程

bp算法的推導過程,留個紀念。參考http://deeplearning.stanford.edu/wiki/index.php/反向傳導算法 點贊 收藏 分享 文章舉報

原创 重啓隨機遊走算法(RWR)

重啓隨機遊走算法(Random Walk with Restart) 1 pagerank算法的基本原理 Pagerank算法是Google的網頁排名算法,由拉里佩奇發明。其基本思想是民主表決。在互聯網上,如果一個網頁被很多其他網頁所鏈

原创 tensorflow入門7 softmax函數和交叉熵損失函數

softmax函數原理 softmax函數又稱爲歸一化指數函數,是邏輯函數的一種推廣。它能將一個含任意實數的K維向量z的“壓縮”到另一個K維實向量f(z)中,使得每一個元素的範圍都是在(0,1)之間,並且所有元素的和爲1。公式爲:

原创 讀論文end-to-end Memory Networks

相關論文 《end-to-end memory networks》 《aspect level sentiment classification with deep memory network》 《entity disambigua