原创 C語言學習筆記之文件I/O(fgets()函數和fputs()函數)

1、fgets()函數 //函數成功將返回buf指針,失敗或讀到文件結尾返回NULL char *fgets(char *buf, int bufsize, FILE *stream); 注意: (1)與gets相比使用這

原创 C語言學習筆記之目標代碼文件、可執行文件、庫

目標代碼文件:源代碼轉換爲機器語言代碼,放置其中。 庫文件:源代碼中用到的庫文件中的函數的預編譯機器語言代碼。 啓動代碼:相當於程序與操作系統之間的接口。 可執行文件:目標代碼文件+庫文件+啓動代碼。

原创 機器學習之線性迴歸python實現

一 理論基礎 線性迴歸 嶺迴歸 lasso迴歸 局部加權線性迴歸 二 python實現 代碼 結果 數據 一. 理論基礎 1. 線性迴歸 損失函數: L(w)=12M∑i=1m(y−xiw)2 閉式解: W

原创 gcc編譯cpp文件爲什麼要加-lstdc++

gcc可以編譯c++文件,也可以編譯c文件,但默認是編譯c文件的,加-lstdc++表示編譯c++文件,即鏈接c++庫,加-lc表示鏈接c庫,默認情況下就是鏈接c庫,所以如果編譯c文件可以不加-lc。

原创 機器學習之支持向量機python實現

前言:紙上得來終覺淺,絕知此事要躬行。 一 理論基礎 函數間隔與幾何間隔 優化目標 推導過程 求解 支持向量 SMO序列最小最優化算法 核技巧 二 python實現引自 一. 理論基礎 1. 函數間隔與幾何間隔

原创 機器學習之KNN算法python實現

機器學習之KNN算法python實現 機器學習之KNN算法python實現 一 理論基礎 距離度量 k值選擇 分類決策規則 kd樹 二 python實現 代碼 結果 數據 一. 理論基礎 1. 距離度量 特

原创 機器學習算法之AdaBoost算法python實現

一 理論基礎 算法描述 算法步驟 訓練誤差分析 算法的理論解釋與推導 前向分步算法 前向分步算法步驟 前向分步算法與AdaBoost 二 python實現 代碼 結果 前言:紙上得來終覺淺,絕知此事要躬行 一.

原创 EM算法——一步步推導

可觀測數據Y,不可觀測數據Z,模型參數爲Θ ,那麼我們的目標就是(極大似然函數): maxΘ∏i=1mp(xi;Θ) log似然函數: maxΘ∑i=1mlogp(xi;Θ) 加入隱變量: maxΘ∑i=1mlog∑zip(xi,zi;Θ

原创 生成式算法與判別式算法

前言:網易公開課機器學習 第五課 生成學習算法的觀後感或者總結筆記 1. 區別 生成式算法:對p(x|y)和p(y)進行建模,也可以說是對p(x,y)進行建模,即求x,y的聯合分佈。比如GDA(Gaussian Discriminant

原创 c++面向對象筆記

1.繼承類型 繼承形式如下: class derived-class: access-specifier base-class 當一個類派生自基類,該基類可以被繼承爲 public、protected 或 private 幾種類型。繼承類

原创 機器學習之決策樹算法python實現

一 理論基礎 特徵選擇 a 信息熵 b 條件熵 c 信息增益 d 信息增益比 決策樹的生成 決策樹的剪枝 二 python實現 代碼 結果 一. 理論基礎 1. 特徵選擇 a. 信息熵 H(D)=−

原创 泰勒公式

泰勒公式就是用某點的導數信息來求附近某點的值,用多項式來逼近函數值。 f(x)在點a處泰勒展開,要求f(x)在x=a處n階可導: f(x)=∑n=0∞f(n)(a)(x−a)nn!=f(a)+f′(a)(x−a)+f′′(a)(x−a)2

原创 機器學習之感知機python實現

機器學習之感知機python實現 機器學習之感知機python實現 一 理論基礎 損失函數 更新參數 二 python實現 代碼 結果 一. 理論基礎 1. 損失函數 L(w,b)=−∑i=0myi(wxi

原创 協方差與相關係數 numpy中cov與corrcoef的使用

協方差與相關係數 協方差與相關係數 協方差 相關係數 1.協方差 如果兩個變量的變化趨勢一致,也就是說如果其中一個大於自身的期望值時另外一個也大於自身的期望值,那麼兩個變量之間的協方差就是正值;如果兩個變量的變化趨勢相反,即其

原创 機器學習之CART算法python實現

#coding=utf-8 ############################################################### #Copyright: CNIC #Author: LiuYao #Date: 2