誤差有兩個方面:bias和variance。
簡單的模型(如線性模型),variance比較小,且不容易受樣品數據影響,不易過擬合。與此相反,複雜的模型的bias比較小。
如果你的模型都不能擬合訓練數據,訓練error比較大,說明模型欠擬合。這種情況下,需要重新設計你的模型,可能包括增加更多的特徵或增加模型的複雜度。
如果你在訓練集上可以得到很小的error,但在test集上卻error很大,說明模型過擬合導致方差很大。在variance很大的情況下,有三種改進的方法:增大訓練集、正則化、dropout。增大訓練集可以同時降低bias和variance。數據集可能可以用各種方法人工產生。另一種方法是正則化,正則化有可能會傷害bias。
模型誤差的來源
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章
論文翻譯——基於數據的最優直方圖
y小川
2020-07-05 03:49:27
正規化和模型選擇(Regularization and model selection)
y小川
2020-07-05 03:49:27
資料翻譯——核密度估計簡介
y小川
2020-07-05 03:49:27
論文翻譯——用於大型社交網絡的推薦系統:主要挑戰及解決方案回顧
y小川
2020-07-05 03:49:27
MNIST數據集格式轉化
jiarenyf
2020-07-02 01:58:14
機器學習: 邏輯迴歸(Logistic Regression) 小項目
小威威__
2020-07-01 21:05:53
機器學習:手寫數字識別(Hand-written digits recognition)小項目
小威威__
2020-07-01 21:05:52
GBDT- gradient boosting decision tree
BojackHorseman
2020-07-01 03:21:08
1 - 統計學習方法概論
DawnRanger
2020-06-29 14:09:08
LLE(locally linear embedding)原理介紹
清心明月
2020-06-27 04:41:13
method_LLE(Locally linear embdding)
清心明月
2020-06-27 04:41:13
機器學習中的最優化方法進階
前言: 在機器學習方法中,若模型理解爲決策模型,有些模型可以使用解析方法。不過更一般的對模型的求解使用優化的方法,更多的數據可以得到更多的精度。 一、線性規劃 線性規劃、整數規劃、目標規劃等
清心明月
2020-06-27 04:41:13
method_LPP(Locality preserving projections)
清心明月
2020-06-27 04:41:13
algo_KNN(k-nearest neighbor)
清心明月
2020-06-27 04:41:13