原创 python基礎

python課件一     基礎語法 https://nbviewer.jupyter.org/github/China-LuoYaxiong/python_ipynb/blob/master/python%E8%AF%BE%E4%BB%B

原创 集成算法之隨機森林

隨機森林jupyter notebook點擊一下連接: https://nbviewer.jupyter.org/github/China-LuoYaxiong/ipynb/blob/master/%E9%9B%86%E6%88%90%E7

原创 sklearn之PCA(主成分分析)

完整的ipynb分析流程,請點擊以下連接: https://nbviewer.jupyter.org/github/China-LuoYaxiong/ipynb/blob/master/Scikit%20Learn%E4%B9%8BPCA%

原创 基於決策樹的保險案列

完整的分析流程,請點擊以下連接: https://nbviewer.jupyter.org/github/China-LuoYaxiong/ipynb/blob/master/%E5%9F%BA%E4%BA%8E%E5%86%B3%E7%A

原创 主成分分析(PCA)Principal Component Analysis

關於主成分分析的理論推導(PCA降維算法) 一 特徵選擇與特徵提取 關於主成分分析,嚴格一點說,它應該屬於特徵提取,而不是特徵選擇。 我們先來看看什麼是特徵選擇? 比如現在我們的訓練數據集是: \[ \left \{ (x_{1},y_{1

原创 梯度下降算法

梯度下降算法詳解 介紹 如果說在機器學習領域有哪個優化算法最廣爲認知,用途最廣,非梯度下降算法莫屬。梯度下降算法是一種非常經典的求極小值的算法,比如在線性迴歸裏我們可以用最小二乘法去解析最優解,但是其中會涉及到對矩陣求逆,由於多重共線性問題

原创 123

  \'x+y=1'\   '\''('  x+y=1 '\'')'   ## 一 阿薩$$x^2+y^2=1$$ $x^2+y^2=1$

原创 Xgboost

原创 Adaboost

原创 關於特徵篩選中的IV值

1 IV的用途 IV的全稱是Information Value,中文意思是信息價值,或者信息量。 我們在用邏輯迴歸、決策樹等模型方法構建分類模型時,經常需要對自變量進行篩選。比如我們有200個候選自變量,通常情況下,不會直接把200個變量直

原创 二 k-means聚類算法的手動實現

一、python實現k-means import numpy as np import pandas as pd import matplotlib as mpl import matplotlib.pyplot as plt %

原创 二 統計量及其抽樣分佈

一 統計量  1. 設 X1,X2,…,Xn 是 從 總 體 X 中 抽 取 的 容 量 爲 n 的 一 個 樣 本 , 如 果 由 此 樣 本 構 造 一 個 函 數 T(X1,X2,…,Xn) , 不 依 賴 於 任 何 未 知 參 數

原创 六 EM算法