原创 論率控的目標方程

在李斌博士的文章“λ Domain Rate Control Algorithm for High Efficiency Video Coding”中,將率控的目標方程定義爲和率失真優化的目標方程: 上面的方程與率失真優化的目

原创 論程序思維與數學物理思維的差異

數學和物理,根本在於描述客觀規律,而客觀規律就是一個方程式。很多時候,依靠思維就能把一個問題想透,並求得閉式解,不需要額外的工具。 程序的思維不一樣,程序在描述一個求得最終解的過程。閉式解我分析不出來,我也不知道它在哪,但我知道

原创 HM代碼閱讀:幀內預測(一)

本文的代碼均是TEncSearch::estIntraPredLumaQT函數或被它調用的函數中的代碼。在TEncSearch::estIntraPredLumaQT函數中,首先確定RMD(Rough Mode Decision)

原创 SEnet

最近看一些人臉識別的論文使用了SEnet,所以認真看了下SEnet的代碼。SEnet使用並聯結構添加了對通道的注意力機制: 這種並聯結構在deformable convolution中也見過:

原创 CNN調參技巧

CNN調參技巧

原创 Session.run與Tensor.eval的區別

在這個問題stackoverflow中說的比較清楚: https://stackoverflow.com/questions/33610685/in-tensorflow-what-is-the-difference-between-s

原创 CNN網絡結構中的領域知識

CNN被普遍認爲可以用於替代人工特徵提取,然而,設計CNN的網絡結構時,其實已經利用了圖像的領域知識。例如: 局部感知:圖像的空域相關性; 權值共享:圖像的平移不變性; 帶孔卷積:擴大圖像感知域; 空域金字塔池化(SPP: Spa

原创 神經網絡的權重初始化

權重初始化的合理與否常常決定了訓練時網絡能否收斂。常用的神經網絡權重初始化方法有xavier和msra。由於基於的激活函數的假設不一樣,msra的方差是xavier的2倍。 xavier初始化基於線性激活函數,線性激活函數相當於沒有激活函

原创 ResNet結構分析

本文主要分析殘差網絡(ResNet)及其變種的結構。殘差網絡在論文Deep Residual Learning for Image Recognition中被提出。論文鏈接:https://arxiv.org/pdf/1512.03385

原创 深度學習網絡搭建與編程範式

TensorFlow搭建網絡時採用static graphs,即先用函數式的編程範式定義網絡,再訓練,定義網絡結構時沒有計算,計算全部在訓練模塊裏。搭建網絡時,函數作爲變量傳遞給函數。 PyTorch搭建網絡時採用dynamic grap

原创 CNN Feature Map維度的一般規律

Feature map的維度在CNN的各層中是變化的,瞭解feature map的維度變化規律是學習網絡結構的一把鑰匙。CNN某一層的Feature map一般是三維的:長、寬、通道數,由於長和寬往往是聯繫在一起的,所以本文從空間分辨率和

原创 Deeplib v1

Deeplib系列目前包括Deeplib v1、Deeplib v2、Deeplib v3、Deeplib v3+,是圖像語義分割中較有影響力的方法。Deeplib v1的論文題目:“Semantic Image Segmentation

原创 論文閱讀:Attention to Scale: Scale-aware Semantic Image Segmentation

論文的下載地址:https://arxiv.org/abs/1511.03339v2 論文的中心思想:將注意力機制用到多分辨率輸入的語義分割網絡中。 注意力機制其實就是對feature map做加權,且加權的權重在訓練的時候學習的。

原创 解卷積的維度計算

解卷積(deconvolution)或者反捲積,類似於卷積的逆運算;如果按照嚴格的數學公式來叫,應該叫做“轉置卷積(transpose convolution)”,也有的地方叫它“分數跨度(fractional strided)卷積”。解

原创 何愷明相關工作小結

本文只總結本人學習到的何愷明的相關工作。 0、PReLU。Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classificati