原创 令人胃痛的protobuf
1 什麼是 Google Protocol Buffer? 什麼是 Google Protocol Buffer? Google Protocol Buffer( 簡稱 Protobuf) 是 Google 公司內部的混合語言
原创 Pytorch模型訓練--數據加載
前面幾篇博客分析Pytorch模型訓練的模型定義,損失函數及優化器,本文則來看看在模型訓練中,又一非常重要的模塊—數據加載 在深度學習模型訓練中,我們面對的訓練任務是多種多樣的,不同任務面對的數據格式也是不同的,甚至相同任務,
原创 Pytorch模型訓練--CPN源碼解析(更新中)
本人在博客2D多人姿態估計–《Cascaded Pyramid Network for Multi-Person Pose Estimation》中簡述了CPN的原理,這裏則來解析下其源碼;論文作者提供的源碼是tensorflow版
原创 Pytorch模型訓練--模型保存與加載(3)
本系列來總結Pytorch訓練中的模型結構一些內容,包括模型的定義,模型參數化初始化方法,模型的保存與加載等 1 模型定義 2 模型初始化 3 模型保存與加載 1 保存和加載 1)首先看Save源碼 save使用pickl
原创 Pytorch模型訓練--Optimizer
本文總結Pytorch中的Optimizer Optimizer是深度學習模型訓練中非常重要的一個模塊,它決定參數參數更新的方向,快慢和大小,好的Optimizer算法和合適的參數使得模型收斂又快又準 但本文不會討論什麼任
原创 Pytorch模型訓練--模型初始化(2)
本系列來總結Pytorch訓練中的模型結構一些內容,包括模型定義,模型參數初始化,模型保存與加載等 1 模型定義 2 模型初始化 3 模型保存與加載 上篇博文簡述了模型定義,嚴格來說,模型參數初始化也是模型構造的一部分,但其又
原创 Pytorch模型訓練--Loss Function
本文總結Pytorch中的Loss Function Loss Function是深度學習模型訓練中非常重要的一個模塊,它評估網絡輸出與真實目標之間誤差,訓練中會根據這個誤差來更新網絡參數,使得誤差越來越小;所以好的,與任務匹
原创 2D多人姿態估計--《Cascaded Pyramid Network for Multi-Person Pose Estimation》
《Cascaded Pyramid Network for Multi-Person Pose Estimation》 機構:Face++ 源碼:https://github.com/chenyilun95/tf-cpn 效果:COC
原创 Pytorch模型訓練--模型定義(1)
本系列來總結Pytorch訓練中的模型結構一些內容,包括模型的定義,模型參數化初始化方法,模型的保存與加載等 1 模型定義–三要素 1)Pytorch模型的定義都需要繼承nn.module這個類 讀者可以在Pytorch源碼
原创 Caffe Prototxt 激活層系列:TanH Layer
TanH Layer 是DL中非線性激活的一種,在深層CNN中,中間層用得比較少,容易造成梯度消失(當然不是絕對不用);在GAN或一些網絡的輸出層常用到 首先我們先看一下 TanHParameter message TanHParam
原创 Caffe Prototxt 激活層系列:Power Layer
TanH Layer 是DL中非線性激活的一種,CNN中比較少見 首先我們先看一下 PowerParameter message PowerParameter { // PowerLayer computes outputs
原创 Caffe Prototxt 激活層系列:Sigmoid Layer
Sigmoid Layer 是DL中非線性激活的一種,在深層CNN中,中間層用得比較少,容易造成梯度消失(當然不是絕對不用);在GAN或一些網絡的輸出層常用到 首先我們先看一下 SigmoidParameter message Si
原创 Caffe Prototxt 特殊層系列:Crop Layer
Crop Layer:剪切 一般:輸入(bottom blobs)有兩個,輸出一個(top blobs) 我們假設輸入:A,B,輸出:C 即將A在參數控制下,按照B的參數進行剪切,輸出給C 首先我們先看一下 CropParameter
原创 Caffe層系列:Dropout Layer
Dropout Layer作用是隨機讓網絡的某些節點不工作(輸出置零),也不更新權重;是防止模型過擬合的一種有效方法 首先我們先看一下 DropoutParameter message DropoutParameter { op
原创 Caffe層系列:Softmax Layer
Softmax Layer作用是將分類網絡結果概率統計化,常常出現在全連接層後面 CNN分類網絡中,一般來說全連接輸出已經可以結束了,但是全連接層的輸出的數字,有大有小有正有負,人看懂不說,關鍵是訓練時,它無法與groundtruth