原创 令人胃痛的protobuf

1 什麼是 Google Protocol Buffer?   什麼是 Google Protocol Buffer?   Google Protocol Buffer( 簡稱 Protobuf) 是 Google 公司內部的混合語言

原创 Pytorch模型訓練--數據加載

  前面幾篇博客分析Pytorch模型訓練的模型定義,損失函數及優化器,本文則來看看在模型訓練中,又一非常重要的模塊—數據加載   在深度學習模型訓練中,我們面對的訓練任務是多種多樣的,不同任務面對的數據格式也是不同的,甚至相同任務,

原创 Pytorch模型訓練--CPN源碼解析(更新中)

 本人在博客2D多人姿態估計–《Cascaded Pyramid Network for Multi-Person Pose Estimation》中簡述了CPN的原理,這裏則來解析下其源碼;論文作者提供的源碼是tensorflow版

原创 Pytorch模型訓練--模型保存與加載(3)

  本系列來總結Pytorch訓練中的模型結構一些內容,包括模型的定義,模型參數化初始化方法,模型的保存與加載等 1 模型定義 2 模型初始化 3 模型保存與加載 1 保存和加載   1)首先看Save源碼   save使用pickl

原创 Pytorch模型訓練--Optimizer

  本文總結Pytorch中的Optimizer   Optimizer是深度學習模型訓練中非常重要的一個模塊,它決定參數參數更新的方向,快慢和大小,好的Optimizer算法和合適的參數使得模型收斂又快又準   但本文不會討論什麼任

原创 Pytorch模型訓練--模型初始化(2)

  本系列來總結Pytorch訓練中的模型結構一些內容,包括模型定義,模型參數初始化,模型保存與加載等 1 模型定義 2 模型初始化 3 模型保存與加載   上篇博文簡述了模型定義,嚴格來說,模型參數初始化也是模型構造的一部分,但其又

原创 Pytorch模型訓練--Loss Function

  本文總結Pytorch中的Loss Function   Loss Function是深度學習模型訓練中非常重要的一個模塊,它評估網絡輸出與真實目標之間誤差,訓練中會根據這個誤差來更新網絡參數,使得誤差越來越小;所以好的,與任務匹

原创 2D多人姿態估計--《Cascaded Pyramid Network for Multi-Person Pose Estimation》

《Cascaded Pyramid Network for Multi-Person Pose Estimation》 機構:Face++ 源碼:https://github.com/chenyilun95/tf-cpn 效果:COC

原创 Pytorch模型訓練--模型定義(1)

 本系列來總結Pytorch訓練中的模型結構一些內容,包括模型的定義,模型參數化初始化方法,模型的保存與加載等 1 模型定義–三要素   1)Pytorch模型的定義都需要繼承nn.module這個類   讀者可以在Pytorch源碼

原创 Caffe Prototxt 激活層系列:TanH Layer

TanH Layer 是DL中非線性激活的一種,在深層CNN中,中間層用得比較少,容易造成梯度消失(當然不是絕對不用);在GAN或一些網絡的輸出層常用到 首先我們先看一下 TanHParameter message TanHParam

原创 Caffe Prototxt 激活層系列:Power Layer

TanH Layer 是DL中非線性激活的一種,CNN中比較少見 首先我們先看一下 PowerParameter message PowerParameter { // PowerLayer computes outputs

原创 Caffe Prototxt 激活層系列:Sigmoid Layer

Sigmoid Layer 是DL中非線性激活的一種,在深層CNN中,中間層用得比較少,容易造成梯度消失(當然不是絕對不用);在GAN或一些網絡的輸出層常用到 首先我們先看一下 SigmoidParameter message Si

原创 Caffe Prototxt 特殊層系列:Crop Layer

Crop Layer:剪切 一般:輸入(bottom blobs)有兩個,輸出一個(top blobs) 我們假設輸入:A,B,輸出:C 即將A在參數控制下,按照B的參數進行剪切,輸出給C 首先我們先看一下 CropParameter

原创 Caffe層系列:Dropout Layer

Dropout Layer作用是隨機讓網絡的某些節點不工作(輸出置零),也不更新權重;是防止模型過擬合的一種有效方法 首先我們先看一下 DropoutParameter message DropoutParameter { op

原创 Caffe層系列:Softmax Layer

Softmax Layer作用是將分類網絡結果概率統計化,常常出現在全連接層後面 CNN分類網絡中,一般來說全連接輸出已經可以結束了,但是全連接層的輸出的數字,有大有小有正有負,人看懂不說,關鍵是訓練時,它無法與groundtruth