數據競賽——2

“達觀杯”文本智能處理挑戰賽之二

邏輯迴歸(LR)

邏輯迴歸:Logistic regression,名義上帶有“迴歸”字樣,可能會被以爲是預測方法,其實質卻是一種常用的分類模型,主要被用於二分類問題,它將特徵空間映射成一種可能性,在LR中,y是一個定性變量{0,1},LR方法主要用於研究某些事發生的概率。它足夠簡單卻又足夠有效,但是,它對數據和場景的適應能力有侷限性,容易欠擬合。

此處的具體實現

from sklearn.linear_model import LogisticRegression

LR=LogisticRegression(C=1, penalty='l2', tol=1e-6)
LR.fit(X_train, Y_train)
Acc_LR = LR.score(X_test,Y_test)

#此處結果輸出
Out[28]: 0.7621887628731586

支持向量機(SVM)

支持向量機:support vector machine,簡稱SVM,是在分類與迴歸分析中分析數據的監督式學習模型與相關的學習算法。給定一組訓練實例,每個訓練實例被標記爲屬於兩個類別中的一個或另一個,SVM訓練算法創建一個將新的實例分配給兩個類別之一的模型,使其成爲非概率二元線性分類器。SVM模型是將實例表示爲空間中的點,這樣映射就使得單獨類別的實例被儘可能寬的明顯的間隔分開。然後,將新的實例映射到同一空間,並基於它們落在間隔的哪一側來預測所屬類別。(SVM

此處的具體實現

from sklearn.metrics import accuracy_score
from sklearn.svm import SVC

clf = SVC(kernel='linear')
clf.fit(X_train, Y_train)
predict_labels = clf.predict(X_test)
Acc_svm = accuracy_score(Y_test, predict_labels)

參考文獻
[1]: https://blog.csdn.net/lsc989818/article/details/79465260
[2]: https://www.cnblogs.com/lianyingteng/p/7701801.html
[3]: https://www.cnblogs.com/mod109/p/9349710.html
[4]: 《機器學習》——周志華
[5]: https://www.cnblogs.com/zy230530/p/6901277.html
[6]: https://www.cnblogs.com/demo-deng/p/10154222.html
[7]: https://www.jianshu.com/p/f4c7bc6c4ce2
[8]: 《統計學習方法》——李航

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章