原创 最正確最全面的滿二叉樹,完全二叉樹,平衡二叉樹,二叉搜索樹(二叉查找樹)

二叉樹: 每個結點不超過2個子樹的樹結構。 滿二叉樹:一個結點要麼是葉子節點,要麼有兩個葉子結點。(國內教程定義:一個二叉樹,如果每一個層的結點數都達到最大值,則這個二叉樹就是滿二叉樹) 完全二叉樹:深度爲h,除h層外,h-1層是滿二叉樹

原创 準確率、精確率、召回率、F1值、ROC/AUC

https://blog.csdn.net/u013063099/article/details/80964865

原创 前序遍歷 中序遍歷 後續遍歷 的真正理解

(1)前序遍歷       a、訪問根節點;b、前序遍歷左子樹;c、前序遍歷右子樹。 (2)中序遍歷       a、中序遍歷左子樹;b、訪問根節點;c、中序遍歷右子樹。 (3)後序遍歷       a、後序遍歷左子樹;b、後續遍歷右子樹

原创 softmax損失函數的求導

可以參考:https://blog.csdn.net/qian99/article/details/78046329 第一篇博客中: 將         定義成:         或者:                         將

原创 邏輯迴歸

https://blog.csdn.net/jk123vip/article/details/80591619

原创 線性迴歸

1.假設函數 或者 預測函數: 在一維特徵空間,線性迴歸是通過學習一條直線  ,使得這條直線儘可能擬合所有已有的看到的點y,並且希望看到的(數據)也儘可能落落在這條線上(泛化能力),是預測值,y是實際值。                

原创 python中np.multiply()、np.dot()和星號(*)三種乘法運算的區別

https://blog.csdn.net/zenghaitao0128/article/details/78715140

原创 批量梯度下降,隨機梯度下降,小批量梯度下降

https://www.cnblogs.com/abella/p/10348332.html

原创 K-mean

k-均值是發現給定數據集的k個簇的算法。簇個數k是用戶給定的,每一個簇通過其質心,即簇中所有的中心來描述。 K-均值算法的工作流程是這樣子的:首先,隨機確定k個初始點作爲質心。然後將數據集中的每個點分配到一個簇中,具體來講,爲每個點找距其

原创 K近鄰算法

knn(k_nearest neighbor)是一種基本的分類與迴歸方法。KNN做分類預測時,一般是選擇多數表決法,即訓練集裏和預測的樣本特徵最近的K個樣本,預測爲裏面有最多類別數的類別。而KNN做迴歸時,一般是選擇平均法,即最近的K個樣

原创 xgboost與gdbt

具體的xgboost可見:https://blog.csdn.net/a819825294/article/details/51206410 具體的xgboost的調參可見:https://blog.csdn.net/u013709270

原创 python 生成器 迭代器

看完這個就完全懂生成器和迭代器   生成器: 什麼是生成器?   通過列表生成式,我們可以直接創建一個列表,但是,受到內存限制,列表容量肯定是有限的,而且創建一個包含100萬個元素的列表,不僅佔用很大的存儲空間,如果我們僅僅需要訪問前面幾

原创 python 閉包

  什麼時候閉包? 從上面的例子可以看出,當嵌套函數引用其封閉範圍內的值時,在Python中有使用了一個閉包。 在Python中創建閉包必須滿足的標準將在以下幾點 - 必須有一個嵌套函數(函數內部的函數)。 嵌套函數(裏面的函數)必

原创 AdaBoost、GBDT、RF、XGboost、lightGBM

      AdaBoost 簡單介紹 AdaBoost是基於boosting的思想,通過多個弱分類器的線性組合來得到強分類器,訓練時重點關注被錯分的樣本,準確率高的弱分類器權重大。 更深一步的介紹 在訓練過程中,它不改變所給的訓練數據,

原创 Adaboost

原理介紹: (1)初始化訓練數據(每個樣本)的權值分佈:如果有N個樣本,則每一個訓練的樣本點最開始時都被賦予相同的權重:1/N。  (2)訓練弱分類器。具體訓練過程中,如果某個樣本已經被準確地分類,那麼在構造下一個訓練集中,它的權重就被降