原创 聚類分析(一)-K均值

一.K均值的過程 首先,選擇K個初始質心,其中K是用戶指定的參數,即所期望的簇的個數。每個點指派到最近的質心,而指派到一個質心的點集爲一個簇。然後,根據指派到簇的點,更新每個簇的質心。重複指派和更新步驟,直到簇不發生變化,或等價地

原创 推薦系統(一)最通俗易懂的協同過濾算法(CF)

協同過濾算法是典型的基於領域的算法,具體來說協同過濾算法分爲兩種,基於用戶的協同過濾算法和基於物品的協同過濾算法。 一.基於用戶的協同過濾算法 算法步驟: 1.找到和目標用戶興趣相似的用戶集合 2.找到這個用戶集合中用戶喜歡的,而

原创 冒泡、簡單選擇、直接插入、快排(python實現)

冒泡排序 l=[3,5,7,8,4,1,2,9,10] length=len(l) for i in range(length): for j in range(length-i-1): if l[j]>l[j+

原创 支持向量機(SVM)與邏輯迴歸(LR)對比

相同: 1.本質都是線性分類器,都是要求一個最佳分類的超平面 2.都是監督模型 3.都是判別模型 判別模型有:KNN,SVL,LR, 生成模型:樸素貝葉斯, 馬爾可夫 不同點: 1.損失函數不同,lr是交叉熵損失,SVM合頁損失

原创 深度理解牛頓法 and 梯度下降

這裏主要是對比兩者不同,和優缺點,具體的兩者的推導過程可以參考https://blog.csdn.net/weixin_44467105/article/details/104841966 一.對於一階導和二階導的理解。 網上大部

原创 批量梯度下降(BGD),隨機梯度下降(SGD),小批量梯度下降(MBGD)對比理解

1.批量梯度下降(BGD) 我們所說的梯度下降算法一般都默認是批量梯度下降。我們用每個樣本去計算每個參數的梯度後,要將這個梯度進行累加求和 注意這裏有一個求和符號,意思就是我們每次計算參數都是用全部的樣本來計算這個參數的變化。

原创 Python: sklearn庫fit_transform()和transform()函數

fit_transform()和transform()都是做標準化用的。 在做標準化時我們需要求到標準差和均值才能做標準化,而fit_transform()就是先求標準差和均值,再做標準化。對於transform()就沒有求標準差

原创 通俗易懂理解牛頓法

目錄鏈接 (1) 牛頓法 (2) 擬牛頓條件 (3) DFP 算法 (4) BFGS 算法 (5) L-BFGS 算法 作者: peghoty  出處: http://blog.csdn.net/itplus/art

原创 關於邏輯迴歸的理解與筆記

以下爲自己總結邏輯迴歸的一些點,字寫的一般,請見諒。 大致分爲: 1.兩種推出損失函數的方法(本質相同) 2.邏輯迴歸線性分類與非線性分類的理解 3.邏輯迴歸如何做多分類 4.邏輯迴歸正則化 5.邏輯迴歸梯度下降的推導過程 由於是

原创 大數據競賽神器---xgboost與gdbt區別比較

1.從本質上看 gbdt是機器學習算法的一種,xgboost是該算法的具體工程實現 2.基分類器 gbdt採用cart作爲基分類器,而xgboost的基分類器可以是線性的 3.防止過擬合 xgboost在目標函數中顯式的加入了正則