原创 【React】: React的生命週期

概述 生命週期的每個階段總是伴隨着一些方法的調用,這些方法就是生命週期的鉤子函數 鉤子函數的作用:爲開發人員在不同操作階段提供了十幾 只有 類組件 纔有生命週期   生命週期的圖片:  同時有: 1.1 創建時 的生命週期執行順序  

原创 【React】: React 腳手架初始化項目

一共只有兩步。 1.初始化項目 npx create-react-app my-app 2.啓動項目,在項目根目錄當中執行: cd my-appnpm start  

原创 【MySQL】mysql更換root密碼,全網唯一有用!

ALTER USER 'root'@'localhost' IDENTIFIED BY 'your password'; flush privileges; exit; 得解! 然後重新登陸: mysql -u root -p

原创 【leetcode】3: 無重複字串的最長子串(python)

給定一個字符串 s ,請你找出其中不含有重複字符的 最長子串 的長度。   示例 1: 輸入: s = "abcabcbb"輸出: 3 解釋: 因爲無重複字符的最長子串是 "abc",所以其長度爲 3。示例 2: 輸入: s = "bbb

原创 單調神經網絡《 Monotonic Networks》及代碼實現

在金融風控領域當中,模型可解釋性相當重要。我對nips的論文《Monotonic Networks》當中的單調神經網絡進行了復現,在權重爲正的情況下,我們就稱該神經網絡爲單調神經網絡,因爲不管如何進行輸入,我們輸出都會呈現出單調性,也就是輸

原创 Pytorch如何約束和限制權重/偏執的範圍

方法一: 首先編寫模型結構: class Model(nn.Module): def __init__(self): super(Model,self).__init__() self.l1=nn.

原创 Pytorch模型保存和加載

保存模型: torch.save(model, 'model.pth') 加載模型: model = torch.load('model.pth')  

原创 Pytorch中RNN參數解釋

  其實構建rnn的代碼十分簡單,但是實際上看了下csdn以及官方tutorial的解釋都不是很詳細,說的意思也不能夠讓人理解,讓大家可能會造成一定誤解,因此這裏對rnn的參數做一個詳細的解釋: self.encoder = nn.RNN

原创 機器學習算法工程師 知能科技 筆試面經

首先是筆試,通過後才能面試。 筆試題目需要在1.5小時內做完,一共6道題目。兩道簡答題,一道計算題(機器學習的),一道numpy編程題,一道機器學習調參題,最後一道算法leetcode hard題,只需要寫出思路,不需要code。   題目

原创 【機器學習】:特徵篩選方法

一.基於統計值的篩選方法 1.過濾法:選擇特徵的時候,不管模型如何,首先統計計算該特徵和和label的一個相關性,自相關性,發散性等等統計指標。 優點:特徵選擇開銷小,有效避免過擬合 缺點:沒有考慮後續的學習器來選擇特徵,減弱了學習器的學習

原创 【機器學習】:特徵工程

      我總結了以下特徵工程的一些方法,好的數據和特徵往往在數據挖掘當中會給我們帶來更好的acc,尤其對於數據挖掘而言。數據決定了預測準確度的上線,而模型的目的則是去儘量逼近這個上限。由此可見,對數據進行特徵工程,擁有良好的數據是多麼的

原创 【機器學習】:決策樹之CART迴歸樹

在決策樹算法當中,cart迴歸樹是決策樹的一種,它用來做迴歸的策略十分常見。可能還會在後續的GBDT模型當中所運用到,用來作爲我們分裂節點的一個標準,我們來了解了解。                    備註: 在進行計算迴歸樹的c1

原创 【機器學習】:Xgboost和GBDT的不同與比較

【與傳統GBDT相比,XGBoost有何不同】 基函數不同。GBDT只用CART樹,XGBoost除了CART,也支持線性函數。 目標不同。具體體現在結點分裂策略與正則化。GBDT和XGBoost都是根據目標增益分裂結點,GBDT根據均方誤

原创 使用OPTUNA對LightBGM自動調試參數,並進行繪圖可視化

  1.optuna基本使用  Optuna是一個自動幫助我們調試參數的工具,使用起來十分方便。比sklearn的gridsearchcv好用很多,一是因爲optuna相比於sklearn能夠快速進行調參,二是因爲它可以將調試參數的過程進

原创 【自然語言處理】: transformer原理實現

1.seq2seq 一般在我們序列模型當中,都會分爲encoder和decoder兩個部分,如下圖所示:    而我們的transformer變形金剛其實相當於是一種對我們seq2seq的一種升級版本,也就是在seq2seq上加上了sel