原创 numpy基礎屬性方法隨機整理(六)--- 數組卷積 np.convolve(arr, 卷積核arr_core, 'valid'/'full'..)

卷積的原理理解: 目前還不是很理解 N=3 * * * (標*的爲有效均值) A B C D E F G 0 0 a b c d e 0 0

原创 python基礎2:函數

一、python 的四個作用域: 名稱 描述 L 局部作用域 E 外部嵌套函數作用域 G 全局作用域 B 內建作用域 二、lambda 表達式(又名匿名函數表達式) 作用: 創建一個匿名

原创 python基礎3:文件運算操作

一、常用文件運算: 運算操作 描述 F.read([size]) 讀取字節長度爲size的內容。size爲讀取的長度,以byte爲單位 F.readline([size]) 讀一行,如果定義了size,有可能返回的

原创 numpy基礎屬性方法隨機整理(七)--- np.take() / np.where / np.argmax()/np.argmin()(對照pandas相應功能的屬性和方法對比學習)

Note1: np.take(close_prices, np.where(weekdays==weekday)) pandas中參考 《pandas基礎屬性方法隨機整理(四)—實例梳理(多知識點)》有三種方法實現該條件查詢功

原创 python基礎5:函數參數傳遞方式

python3 函數的參數傳遞方式 位置傳參 序列傳參 關鍵字傳參 字典關鍵字傳參 綜合傳參 1、位置傳參 實際調用參數(實參)的對應關係與形式參數(形參)的對應關係是按位置依次對應傳入。 def infoStudent(na

原创 Bayes、KNN、PCA和異常檢測基礎

Bayes 已知樣本的某些特性,求解該樣本屬於某個類別的後驗概率P(Y|X=x) 先驗概率、條件概率、後驗概率 先驗概率:是指根據以往經驗和分析得到的概率. 後驗概率:事情已經發生,要求這件事情發生的原因是由某個因素引起的可能

原创 邏輯迴歸基礎和SVM基礎

LR: Logistic Regression Model是一種有監督學習方法,主要用於二元分類,也可以進行多元分類。其本質上是一種符合伯努利分佈的線性迴歸模型(Linear Regression Model),不同之處就在於邏輯

原创 分類問題--邏輯迴歸模型(one-vs-all)(2)

在這裏插入圖片描述

原创 機器學習筆記彙總1

1. 機器學習基本類型 有監督學習: 根據已知的輸入和輸出,建立聯繫它們的模型,根據該模型對未知輸出的輸入進行判斷。 1)迴歸:以無限連續域的形式表示輸出 2)分類:以有限離散域的形式表示輸出 監督學習又可以劃分爲生成模型和判別模

原创 boxcox變換python實現

boxcox1p變換參數lambda估算方法: 極大似然估計 或者 貝葉斯估計 (原理略) 極大似然估計: 設總體中含有待估參數theta, 可以取很多值。已知樣本觀察值,求使該樣本值出現概率最大的theta值作爲theta的估計

原创 機器學習sklearn模塊(線性迴歸LinearRegression模型、嶺迴歸Ridge模型、基於LinearRegression的多項式迴歸模型)

對比利用多項式定義進行多項式擬合:筆記代碼:多項式擬合和極值點連接 線性迴歸 sklearn.linear_model.LinearRegression() --> return:線性迴歸器 線性

原创 numpy基礎屬性方法隨機整理(10):間接聯合排序函數np.lexsort和複數直接排序函數np.sort_complex

間接聯合排序函數:np.lexsort((scores, ages)) 複數直接排序函數:np.sort_complex(c).real 獲取array數組的下標:np.where()[0] 通過下標數組返回數組中的元素集:np.ta

原创 pandas基礎屬性方法隨機整理(七):applymap, map, replace

pandas的DataFrame和Series分別有自己的矢量化函數 pandas.DataFrame.applymap() pandas.Series.map() 兩個函數的params不同: map(self, arg, na_

原创 代碼版本管理:Git日常使用指令

關於Git的幾個概念 版本庫(倉庫):儲存代碼文件等的地方 本地倉庫:本機倉庫 遠程倉庫:充當‘中央服務器’,用於不同節點之間進行代碼交換的地方 克隆:複製 分支branch:不同分支做不一樣的事情,用於協同開發 標籤:用於標註版本信息