weka的算法介紹

1)數據輸入和輸出
WOW():查看Weka函數的參數。
Weka_control():設置Weka函數的參數。
read.arff():讀WekaAttribute-RelationFileFormat(ARFF)格式的數據。
write.arff:將數據寫入WekaAttribute-RelationFileFormat(ARFF)格式的文件。
2)數據預處理
Normalize():無監督的標準化連續性數據。
Discretize():用MDL(MinimumDescriptionLength)方法,有監督的離散化連續性數值數據。
3)分類和迴歸
IBk():k最近鄰分類
LBR():naiveBayes法分類
J48():C4.5決策樹算法(決策樹在分析各個屬性時,是完全獨立的)。
LMT():組合樹結構和Logistic迴歸模型,每個葉子節點是一個Logistic迴歸模型,準確性比單獨的決策樹和Logistic迴歸方法要好。
M5P():M5模型數算法,組合了樹結構和線性迴歸模型,每個葉子節點是一個線性迴歸模型,因而可用於連續數據的迴歸。
DecisionStump():單層決策樹算法,常被作爲boosting的基本學習器。
SMO():支持向量機分類
AdaBoostM1():AdaboostM1方法。-W參數指定弱學習器的算法。
Bagging():通過從原始數據取樣(用替換方法),創建多個模型。
LogitBoost():弱學習器採用了對數迴歸方法,學習到的是實數值
MultiBoostAB():AdaBoost方法的改進,可看作AdaBoost和“wagging”的組合。
Stacking():用於不同的基本分類器集成的算法。
LinearRegression():建立合適的線性迴歸模型。
Logistic():建立logistic迴歸模型。
JRip():一種規則學習方法。
M5Rules():用M5方法產生迴歸問題的決策規則。
OneR():簡單的1-R分類法。
PART():產生PART決策規則。
4)聚類
Cobweb():這是種基於模型方法,它假設每個聚類的模型並發現適合相應模型的數據。不適合對大數據庫進行聚類處理。
FarthestFirst():快速的近似的k均值聚類算法
SimpleKMeans():k均值聚類算法
XMeans():改進的k均值法,能自動決定類別數
DBScan():基於密度的聚類方法,它根據對象周圍的密度不斷增長聚類。它能從含有噪聲的空間數據庫中發現任意形狀的聚類。此方法將一個聚類定義爲一組“密度連接”的點集。
5)關聯規則
Apriori():Apriori是關聯規則領域裏最具影響力的基礎算法,是一種廣度優先算法,通過多次掃描數據庫來獲取支持度大於最小支持度的頻繁項集。它的理論基礎是頻繁項集的兩個單調性原則:頻繁項集的任一子集一定是頻繁的;非頻繁項集的任一超集一定是非頻繁的。在海量數據的情況下,Apriori算法的時間和空間成本非常高。
Tertius():Tertius算法。
6)預測和評估:
predict():根據分類或聚類結果預測新數據的類別
table():比較兩個因子對象
evaluate_Weka_classifier():評估模型的執行,如:TPRate,FPRate,Precision,Recall,F-Measure。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章