原创 smo算法的c++實現

#include <iostream> #include <fstream> #include <sstream> #include <string> #include <vector> #include <cstring> #inclu

原创 利用gensim主題模型尋找相似的coursera課程

參考http://www.52nlp.cn/如何計算兩個文檔的相似度三 #encoding=utf-8 from nltk.tokenize import word_tokenize from nltk.corpus import sto

原创 帶有O(1)時間返回最小值的stack

主要是在輔助的棧中push當前最小的值,若data棧pop出的數不是當前最小的,則輔助棧不動;若data棧pop出當前最小的值,則輔助棧也pop#include <vector> #include <iostream> using na

原创 算法導論—廣度優先算法

#include <vector> #include <queue> #include <iostream> #include <map> #include <limits.h> using namespace std; enum{W

原创 leetcode第五題—最長迴文字符串

最長迴文字符串(Longest Palindromic Substring ) 1.中心結點法,時間複雜度爲O(n^2) 迴文字符串都是對稱的,有兩種對稱方式,一是關於字符對稱,比如a,aba,cabac,這種迴文字符串長度都是奇數;

原创 算法導論,最優鋼條切分

#include <iostream> #include <algorithm> #include <vector> #include <utility> #include <limits.h> using namespace std;

原创 gensim的LSI模型來計算文檔的相似度

from gensim import corpora,models,similarities dictionary=corpora.Dictionary.load('/tmp/deerwester.dict') corpus=corpor

原创 開始刷刷Leetcode—leetcode第二題

描述 You are given two linked lists representing two non-negative numbers. The digits are stored in reverse order and

原创 Logistic迴歸模型的Python及C++實現

一.基於Logistic迴歸和Sigmoid函數的分類 優點:計算代價不高,易於理解和實現 缺點:容易欠擬合,分類精度可能不高 適用數據類型:數值型和標稱型數據 1.1邏輯斯諦分佈 分佈函數爲: F(x)=P(X≤x)=11

原创 Logistic迴歸模型的訓練與測試,C++ 實現

#include <iostream> #include <fstream> #include <sstream> #include <string> #include <vector> #include <cstring> #inclu

原创 gensim的主題模型LSI

<span style="font-size:24px;">將上問的輸入文檔歸爲兩個主題</span>from gensim import corpora,models,similarities dictionary=corpora.Di

原创 線性時間選出一個數組中第i大的數

利用快排的partition,在線性時間內,選擇出第i大的數template<typename Comparable> int qPartition

原创 SVM算法2

線性可分支持向量機學習算法 輸入:線性可分訓練集T={(x1,y1),(x2,y2),...,(xN,yN)} 其中xi∈Rn,yi∈{−1,+1},i=1,2,..,N 輸出:分離超平面和分類決策函數 (1)構造並求解約束

原创 SVM算法1

支持向量機(support vector machines,SVM)是一種二類分類模型,它的基本模型是定義在特徵空間上的間隔最大的線性分類器,支持向量機還包括核技巧,這使它成爲實質上的非線性分類器。支持向量機的學習策略就是

原创 平方探測哈希表

#include <vector> #include <iostream> #include <string> #include <algorithm> using namespace std; template <typen