原创 python assert斷言 的使用

python中assert的使用 寫代碼過程中經常遇到需要調試的時候,而assert就是一種簡單高效的調試方法 比如寫了一個add()函數,但是你不知道寫的對不對,這時候需要對剛寫完的函數進行調試 assert就可以派上用場了 d

原创 【機器學習】 前向分佈算法與GBDT算法梳理

1.前向分佈算法  基本思想:每次只學習一個基函數及係數,逐步逼近最優解。 如下所示: 其中  爲基函數,爲基函數係數,爲基函數的參數,這樣只需要給定訓練集與損失函數 就可以利用最小化損失函數的原理進行學習,這樣每次新一輪的學習只需要學

原创 python re正則表達式學習

有需求把類似 世界時 ‘2019-06-06-00’ 與北京時 ‘2019/06/06 08:00’ 這樣的進行匹配 雖然可以if else + 索引去改,但是剛好想學一下正則表達式,就記錄一下 re.match(pattern, str

原创 python 利用numpy進行擬合

鏈接:http://blog.sina.com.cn/s/blog_aed5bd1d0102vid7.html import matplotlib.pyplot as plt import numpy as np x = np.ara

原创 【機器學習】logistic迴歸公式推導及python代碼實現

代價函數得來 首先確定: hθ(x)=g(θTx)=11+e−θTx h_{\theta}(x)=g\left(\theta^{T} x\right)=\frac{1}{1+e^{-\theta^{T} x}} hθ​(x)=g(

原创 【機器學習】 XGBoost算法梳理

前言:XGBoost原理上跟普通GBDT一樣,都屬於集成算法中的boost類。boost的原理可以看我的另外兩篇介紹集成學習的文章,這裏不多贅述。所以這篇文章主要在XGB與普通GBDT不同之處進行討論。 1.損失函數 XGB的損失函數是支

原创 【python】set 列表去重、交集、並集、差集

1、去重:set a = [1,2,3,3,3] b = set(a) print(b) {1,2,3} 2、交集:&、set.intersection() a = set([1,2,3,4,5]) b = set([4,5,6

原创 Gamma校正原理及python實現

Gamma校正原理:   假設圖像中有一個像素,值是 200 ,那麼對這個像素進行校正必須執行如下步驟:    1. 歸一化 :將像素值轉換爲  0 ~ 1  之間的實數。 算法如下 : ( i + 0. 5)/256  這裏包含 1 個

原创 【機器學習】集成學習的概念與隨機森林算法梳理

1. 集成學習概念 “三個臭皮匠,頂個諸葛亮”思想 “弱可學習”等價於“強可學習” —— Schapire 可以理解爲就是指採用多個分類器對數據集進行預測,從而提高整體分類器的泛化能力。  集成學習有兩個流派 一個是boosting派系,

原创 【python爬蟲學習】cookie模擬登陸

近期學校要求登陸一個網站學習,要計算在線時長,長時間不對這個頁面進行操作的話就會停止計時。就想着能不能寫個程序模擬登陸並進行一些操作。 模擬登陸的話有很多方法,因爲有驗證碼比較麻煩,所以我是自己先登陸一下,抓取cookie給程序用。 首先

原创 【keras】models.load_model() 報錯問題 Unknown entry in loss dictionary:

在試用tf2.0.keras建立的一個簡單的神經網絡時,發現模型保存之後重新加載會出問題 代碼如下: # 創建模型 inputs = tf.keras.Input(shape= (17,),name= 'inputs') hidden_

原创 雲頂之弈陣容助手-基於遺傳算法

LOL雲頂之弈人工智障助手概述爬取相關網站內容獲取英雄信息陣容搭配與得分遺傳算法設計運行結果完整代碼——Github歡迎star 概述 本人云頂新手,好多年不玩LOL了,被朋友安利雲頂之弈,玩了兩天覺得有點意思。但是這個遊戲陣容可

原创 softmax函數及交叉熵損失函數求導

1.softmax函數 使用softmax函數主要是爲了解決多分類問題,在一個分類神經網絡中,該函數能夠將多個神經元的輸出轉換到(0,1)之間,可以當概率來理解,這樣就可以取其中最大值當做被分到哪一類。 假設一組神經元的輸出爲a[

原创 【機器學習】focalloss原理以及pytorch實現

最近在做一個分類項目,發現很多“難樣本”比較不好處理又特別重要,想試試FocalLoss。沒找到pytorch相關實現,本來想研究pytorch的cross_entropy源碼,稍微改一下(怕手殘自己寫的loss效率比較低),但是

原创 【機器學習】關於pytorch中的分類損失函數cross_entropy使用log_softmax

最近在做一個分類項目,發現很多“難樣本”比較不好處理,想試試FocalLoss。沒找到pytorch相關實現,就研究起cross_entropy源碼,想手動改一下。 def cross_entropy(input, target,