原创 筆記(總結)-SVM(支持向量機)的理解-3

上篇講述的Soft Margin SVM是爲了解決線性不可分的問題,它解決問題的邏輯是通過允許一部分樣本分得不那麼準確(進入“楚河漢界”)甚至錯分,使得在絕大多數樣本能夠正確地線性可分。本篇引入核函數(kernel),從另一個思維

原创 筆記(總結)-SVM(支持向量機)的理解-4

前三篇主要是介紹SVM的原理。最初SVM的原問題是凸二次優化問題,有現成的算法可以求解,費盡周折轉換到對偶問題,一是在對偶問題形勢下可以使用核函數,二是對偶問題我們可以高效求解。本篇主要介紹如何求解SVM。 SMO:Sequent

原创 筆記(總結)-XGBoost的前世今生

現今的各類數據挖掘比賽中,決策樹模型佔據了半壁江山(另外半壁基本就是神經網絡模型)。決策樹,本質上來說就是通過一系列的“規則”將樣本集不斷劃分歸類,最後歸爲同一類的樣本被認爲是相似的,賦予相同的預測值。 決策樹相對於其他機器學習模

原创 筆記(總結)-SVM(支持向量機)的理解-1

SVM即支持向量機作爲神經網絡復興前的最強大模型,建模和推導有着嚴密的數學推導作爲基礎,在訓練完成後計算速度也較快,得到了廣泛的應用。本文先闡述SVM的基本問題和推導過程,再引入軟間隔的SVM,最後引入核函數和求解方法。 問題引

原创 筆記(總結)-PCA(主成分分析)

主成分分析是一種特徵抽取手段,通過將樣本從原始空間映射到低維空間實現特徵數量的減少,而低維空間中某一維度實際上是原始空間的一種“雜糅”表示。在之前的博客中提到過參考鏈接,由於PCA涉及的數學手段包括矩陣、特徵值和特徵向量,參考筆記

原创 筆記-話題模型&LDA

列出學習LDA過程中參考的鏈接,其中第一條鏈接中的博主講述得十分清晰詳細: 通俗理解LDA主題模型 主題模型-LDA淺析 - CSDN博客

原创 筆記-Python庫-matplotlib, numpy, scipy, pandas

用Python作數據分析時,常用的基礎庫有matplotlib, numpy, scipy, pandas,功能強大且繁雜。記下來所有的用法是不實際的,需要做的是記住每個庫大概有哪些功能,在具體場景中能快速找到相關文檔並使用。知乎

原创 筆記(總結)-SVM(支持向量機)的理解-2

上一篇我們討論了SVM的建模由來與推導過程,最終得出了SVM的對偶問題和解的形式,不過這都基於一個重要前提,即樣本集是線性可分的。爲了解決線性不可分情況下的分類問題,我們引入soft margin SVM,即軟間隔SVM。 爲了

原创 筆記-AlphaGo解析

最近在知乎上看到一篇文章,從minimax入手講AlphaGo。講解通俗易懂,正好最近算法課BDB也講了些minimax,學習之。鏈接如下: 淺述:從 Minimax 到 AlphaZero,完全信息博弈之路(1) 做的筆記如下:

原创 筆記-Capsule

前一篇講述AlphaGo的博主還有一篇專欄,以Capsule爲引子,從最初的BP->RBM->CNN->Capsule詳細講述了神經網絡的發展進程以及當前CNN模型的缺陷,最終分析了Hinton提出的Capsule新概念。參考鏈接

原创 論文列表——NAACL 2019

最近NAACL-2019接收列表出了,列出感興趣的paper,供之後閱讀: 名稱 類型 關鍵字 閱讀價值 筆記 Deep Adversarial Learning for NLP tutorial Transf

原创 論文列表——雜

這篇博文主要是記錄平常通過各類渠道(公衆號推送、知乎瀏覽、博客閱讀等等)獲知的質量較高論文的筆記。可能有各個類別的,可能有幾年的經典論文重讀,或者是2018年好的科研成果,這裏進行簡要記錄,之後基本都是要單開博文來詳細寫筆記的。

原创 論文列表——EMNLP 2018

EMNLP 2018去年十一月開完會了,又出了很多文章。根據自己的興趣點選了一些,平常慢慢讀,持續更新到這篇博文。這篇博文記錄下這些文章的簡要筆記,好的文章會標上“TO BE CONTINUED”,之後會再開單獨的博文來做筆記。列表如

原创 論文列表——stance detection

這學期做了一些和stance detection相關的工作,stance detection,可理解爲“立場檢測”,stance即爲人對個體、事物、事件所表現出的看法或者態度,如“支持、反對”。stance detection雖然也屬

原创 論文列表——sentiment analysis

情感分類屬於文本分類的一個應用場景,一般都是人(用戶)對某些具體事物(商品、事件)表達某些情感。落地場景是很多的。這學期最開始是做stance detection相關的工作,而其中target-specific stance dete