原创 python基礎
python課件一 基礎語法 https://nbviewer.jupyter.org/github/China-LuoYaxiong/python_ipynb/blob/master/python%E8%AF%BE%E4%BB%B
原创 集成算法之隨機森林
隨機森林jupyter notebook點擊一下連接: https://nbviewer.jupyter.org/github/China-LuoYaxiong/ipynb/blob/master/%E9%9B%86%E6%88%90%E7
原创 sklearn之PCA(主成分分析)
完整的ipynb分析流程,請點擊以下連接: https://nbviewer.jupyter.org/github/China-LuoYaxiong/ipynb/blob/master/Scikit%20Learn%E4%B9%8BPCA%
原创 基於決策樹的保險案列
完整的分析流程,請點擊以下連接: https://nbviewer.jupyter.org/github/China-LuoYaxiong/ipynb/blob/master/%E5%9F%BA%E4%BA%8E%E5%86%B3%E7%A
原创 主成分分析(PCA)Principal Component Analysis
關於主成分分析的理論推導(PCA降維算法) 一 特徵選擇與特徵提取 關於主成分分析,嚴格一點說,它應該屬於特徵提取,而不是特徵選擇。 我們先來看看什麼是特徵選擇? 比如現在我們的訓練數據集是: \[ \left \{ (x_{1},y_{1
原创 梯度下降算法
梯度下降算法詳解 介紹 如果說在機器學習領域有哪個優化算法最廣爲認知,用途最廣,非梯度下降算法莫屬。梯度下降算法是一種非常經典的求極小值的算法,比如在線性迴歸裏我們可以用最小二乘法去解析最優解,但是其中會涉及到對矩陣求逆,由於多重共線性問題
原创 123
\'x+y=1'\ '\''(' x+y=1 '\'')' ## 一 阿薩$$x^2+y^2=1$$ $x^2+y^2=1$
原创 關於特徵篩選中的IV值
1 IV的用途 IV的全稱是Information Value,中文意思是信息價值,或者信息量。 我們在用邏輯迴歸、決策樹等模型方法構建分類模型時,經常需要對自變量進行篩選。比如我們有200個候選自變量,通常情況下,不會直接把200個變量直
原创 二 k-means聚類算法的手動實現
一、python實現k-means import numpy as np import pandas as pd import matplotlib as mpl import matplotlib.pyplot as plt %
原创 二 統計量及其抽樣分佈
一 統計量 1. 設 X1,X2,…,Xn 是 從 總 體 X 中 抽 取 的 容 量 爲 n 的 一 個 樣 本 , 如 果 由 此 樣 本 構 造 一 個 函 數 T(X1,X2,…,Xn) , 不 依 賴 於 任 何 未 知 參 數