原创 smo算法的c++實現
#include <iostream> #include <fstream> #include <sstream> #include <string> #include <vector> #include <cstring> #inclu
原创 利用gensim主題模型尋找相似的coursera課程
參考http://www.52nlp.cn/如何計算兩個文檔的相似度三 #encoding=utf-8 from nltk.tokenize import word_tokenize from nltk.corpus import sto
原创 帶有O(1)時間返回最小值的stack
主要是在輔助的棧中push當前最小的值,若data棧pop出的數不是當前最小的,則輔助棧不動;若data棧pop出當前最小的值,則輔助棧也pop#include <vector> #include <iostream> using na
原创 算法導論—廣度優先算法
#include <vector> #include <queue> #include <iostream> #include <map> #include <limits.h> using namespace std; enum{W
原创 leetcode第五題—最長迴文字符串
最長迴文字符串(Longest Palindromic Substring ) 1.中心結點法,時間複雜度爲O(n^2) 迴文字符串都是對稱的,有兩種對稱方式,一是關於字符對稱,比如a,aba,cabac,這種迴文字符串長度都是奇數;
原创 算法導論,最優鋼條切分
#include <iostream> #include <algorithm> #include <vector> #include <utility> #include <limits.h> using namespace std;
原创 gensim的LSI模型來計算文檔的相似度
from gensim import corpora,models,similarities dictionary=corpora.Dictionary.load('/tmp/deerwester.dict') corpus=corpor
原创 開始刷刷Leetcode—leetcode第二題
描述 You are given two linked lists representing two non-negative numbers. The digits are stored in reverse order and
原创 Logistic迴歸模型的Python及C++實現
一.基於Logistic迴歸和Sigmoid函數的分類 優點:計算代價不高,易於理解和實現 缺點:容易欠擬合,分類精度可能不高 適用數據類型:數值型和標稱型數據 1.1邏輯斯諦分佈 分佈函數爲: F(x)=P(X≤x)=11
原创 Logistic迴歸模型的訓練與測試,C++ 實現
#include <iostream> #include <fstream> #include <sstream> #include <string> #include <vector> #include <cstring> #inclu
原创 gensim的主題模型LSI
<span style="font-size:24px;">將上問的輸入文檔歸爲兩個主題</span>from gensim import corpora,models,similarities dictionary=corpora.Di
原创 線性時間選出一個數組中第i大的數
利用快排的partition,在線性時間內,選擇出第i大的數template<typename Comparable> int qPartition
原创 SVM算法2
線性可分支持向量機學習算法 輸入:線性可分訓練集T={(x1,y1),(x2,y2),...,(xN,yN)} 其中xi∈Rn,yi∈{−1,+1},i=1,2,..,N 輸出:分離超平面和分類決策函數 (1)構造並求解約束
原创 SVM算法1
支持向量機(support vector machines,SVM)是一種二類分類模型,它的基本模型是定義在特徵空間上的間隔最大的線性分類器,支持向量機還包括核技巧,這使它成爲實質上的非線性分類器。支持向量機的學習策略就是
原创 平方探測哈希表
#include <vector> #include <iostream> #include <string> #include <algorithm> using namespace std; template <typen