原创 金融風控穩定性指標 PSI & CSI

https://zhuanlan.zhihu.com/p/94619990

原创 詳解Pytorch 自動微分裏的(vector-Jacobian product)

https://zhuanlan.zhihu.com/p/65609544

原创 理解用於計算SHAP值的公式

https://baijiahao.baidu.com/s?id=1654791131903418801&wfr=spider&for=pc

原创 分佈式訓練 單機多卡

【分佈式訓練】單機多卡的正確打開方式(一):理論基礎 https://zhuanlan.zhihu.com/p/72939003 【分佈式訓練】單機多卡的正確打開方式(二):TensorFlow https://zhuanlan.zhih

原创 模型可解釋性(SHAP)

https://christophm.github.io/interpretable-ml-book/ https://www.jianshu.com/p/324a7c982034 特徵重要性計算     夏普利值-博弈論 SHAP 

原创 Ring Allreduce

The Communication Problem 當將神經網絡的訓練並行化到許多GPU上時,你必須選擇如何將不同的操作分配到你可用的不同GPU上。在這裏,我們關注一種稱爲數據並行隨機梯度下降( SGD )的技術。與標準SGD一樣,梯度下

原创 並行訓練方法

Take-Away 筆者使用 PyTorch 編寫了不同加速庫在 ImageNet 上的使用示例(單機多卡),需要的同學可以當作 quickstart 將需要的部分 copy 到自己的項目中(Github 請點擊下面鏈接): nn.Dat

原创 Pytorch中多GPU訓練指北

https://www.jianshu.com/p/bb28669018b3 前言 在數據越來越多的時代,隨着模型規模參數的增多,以及數據量的不斷提升,使用多GPU去訓練是不可避免的事情。Pytorch在0.4.0及以後的版本中已經提供了

原创 model.train 和 model.eval

model.train() :啓用 BatchNormalization 和 Dropout model.eval() :不啓用 BatchNormalization 和 Dropout 固化權重,防止在測試的時候改變 sets the

原创 目標檢測中的樣本不平衡處理方法——OHEM, Focal Loss, GHM, PISA

https://www.jianshu.com/p/f305b573df8f  

原创 Self-critical Sequence Training

Self-critical Sequence Training for Image Captioning是IBM研究團隊在CVPR 2017上發表的一篇論文,主要介紹了一種基於self-critical思想的強化學習方法來訓練序列生成模型

原创 What is Teacher Forcing for Recurrent Neural Networks?

Teacher forcing is a method for quickly and efficiently training recurrent neural network models that use the ground tr

原创 GraphSAGE: 算法原理,實現和應用

在上一篇文章中介紹了GCN 淺夢:【Graph Neural Network】GCN: 算法原理,實現和應用​zhuanlan.zhihu.com GCN是一種在圖中結合拓撲結構和頂點屬性信息學習頂點的embedding表示的方法。然而G

原创 模型壓縮總覽

深度學習使得很多計算機視覺任務的性能達到了一個前所未有的高度。不過,複雜的模型固然具有更好的性能,但是高額的存儲空間、計算資源消耗是使其難以有效的應用在各硬件平臺上的重要原因。爲了解決這些問題,許多業界學者研究模型壓縮方法以最大限度的減

原创 一篇理解Message passing算法 | 貝葉斯推斷

https://blog.csdn.net/qq_41603411/article/details/105209622