原创 spring boot 初體驗(一)
目錄Spring boot 初始化和運行方式三種啓動項目方式:SpringBoot 項目屬性配置application.ymlapplication-dev.ymlapplication-prod.ymlGirlModel.jav
原创 機器學習(三) Jupyter Notebook, numpy和matplotlib的詳細使用 (下)
七、Numpy中的矩陣運算 八、Numpy中的聚合運算 九、Numpy中的arg運算 十、Numpy中的比較和Fancy Indexing 十一、Matplotli
原创 機器學習(四) 機器學習(四) 分類算法--K近鄰算法 KNN (下)
六、網格搜索與 K 鄰近算法中更多的超參數 七、數據歸一化 Feature Scaling 解決方案:將所有的數據映射到同一尺度 八、scikit-learn 中的 Scaler preprocess
原创 機器學習(七) PCA與梯度上升法 (下)
五、高維數據映射爲低維數據 換一個座標軸。在新的座標軸裏面表示原來高維的數據。 低維 反向 映射爲高維數據 PCA.py import numpy as np class PCA: def __init__(se
原创 機器學習(六) 梯度下降法 (上)
一、什麼是梯度下降法 梯度下降法 Gradient Descent 1.不是一個機器學習算法 2.是一種基於搜索的最優化方法 3.作用:最小化一個損失函數 4.梯度上升法:最大化一個效用函數 並不是所有函數都有唯一的極值
原创 機器學習(六) 梯度下降法 (下)
梯度下降法的基本思想可以類比爲一個下山的過程。假設這樣一個場景:一個人被困在山上,需要從山上下來(i.e. 找到山的最低點,也就是山谷)。但此時山上的濃霧很大,導致可視度很低。因此,下山的路徑就無法確定,他必須利用自己周圍的信息去找到下山
原创 機器學習(四) 分類算法--K近鄰算法 KNN (上)
一、K近鄰算法基礎 KNN------- K近鄰算法--------K-Nearest Neighbors 思想極度簡單 應用數學知識少 (近乎爲零) 效果好(缺點?) 可以解釋機器學習算法使用過程中很多細節問題 更完整的刻畫機器學習應用
原创 機器學習(七) PCA與梯度上升法 (上)
一、什麼是PCA 主成分分析 Principal Component Analysis 一個非監督學的學習算法 主要用於數據的降維 通過降維,可以發現更便於人類理解的特徵 其他應用:可視化;去噪 第一步:將樣例的均值
原创 機器學習(五) 線性迴歸法 (上)
一、簡單額線性迴歸 解決迴歸問題 思想簡單、實現容易 許多強大的非線性模型的基礎 結果具有很好的可解釋性 蘊含機器學習中的很多重要思想 二、最小二乘法 三、簡單線性迴歸的
原创 機器學習(九) 邏輯迴歸 (上)
一、什麼是邏輯迴歸 邏輯迴歸 Logistic Regression 邏輯迴歸:解決分類問題 迴歸問題怎麼解決分類問題? 將樣本的特徵和樣本發生的概率聯繫起來,概率是一個數。 二、邏輯迴歸的損失函數
原创 機器學習(五) 線性迴歸法 (下)
六、最好的衡量線性迴歸法的指標: R Squared def r2_score(y_true, y_predict): """計算y_true和y_predict之間的R Square""" return
原创 機器學習(八) 多項式迴歸與模型泛化(上)
一、什麼是多項式迴歸 直線迴歸研究的是一個依變量與一個自變量之間的迴歸問題,但是,在畜禽、水產科學領域的許多實際問題中,影響依變量的自變量往往不止一個,而是多個,比如綿羊的產毛量這一變量同時受到綿羊體重、胸圍、體長等多個變量的影響,因此需
原创 機器學習(九) 邏輯迴歸 (下)
五、決策邊界 六、在邏輯迴歸中使用多項式特徵 七、scikit-learn中的邏輯迴歸 八、OvR與OvO 我寫的文章只是我自己對bobo老師講課內容的理解和整
原创 Pycharm配置(二)
1、主題 這部分教程主要介紹如何創建一個Python工程並使其具有Pycharm的代碼風格。你將會看到Pycharm使你的源碼變得非常簡潔美觀,帶有合適的縮進、空格等等,因此Pycharm也是一款代碼質量管理的利器。
原创 Java開發筆記(二)
java筆記目錄一、類和對象1.1 static 使用之靜態變量1.2 static 使用之靜態方法1.3 static 使用之靜態初始化塊二、封裝2.1 java 中的訪問修飾符2.2 java中的 this關鍵字2.3 Jav