原创 Caffe解讀(二)

路線圖 http://blog.csdn.net/kkk584520/article/details/41681085 (1)從CAFFE_ROOT/src/caffe/proto/caffe.proto開始,瞭解各類數

原创 查看python,numpy,scipy,matplotlib的版本及版本更新

查看python,numpy,scipy,matplotlib的版本及版本更新 最近運行一個程序需要更新 matplotlib==1.5.3 numpy==1.11.3 scipy==0.17.0 seaborn==0.7

原创 神經網絡壓縮(8)Incremental Network Quantization: Towards Lossless CNNs with Low-precision Weights

Incremental Network Quantization: Towards Lossless CNNs with Low-precision Weights Intro 英特爾中國研究院:INQ神經網絡無損低比特量化技術

原创 Caffe解讀(一)

Caffe 基本架構 理解caffe的架構,包括blob,layer,net,solver,tools的關係等 源碼文件結構 tools 保存的源碼是用於生成二進制處理程序的,caffe在訓練時實際是直接調用這些二進制文件

原创 Caffe解讀(三)

Caffe學習(三) Caffe 梳理 layer.hpp中:Forward和Backward對應前向計算和反向更新,輸入統一都是bottom,輸出爲top,其中Backward裏面有個propagate_down參數,用來表示

原创 神經網絡壓縮:Mimic(二)Distilling the Knowledge in a Neural Network

轉載請註明出處:西土城的搬磚日常原文:arxiv出版源:《Computer Science》, 2015, 14(7):38-39問題摘要:在幾乎所有的機器學習算法當中,我們都可以通過對同一數據集進行多次學習得到數個不同的模型,並將各模型

原创 pycaffe實例

分享一個很不錯的講解pycaffe的鏈接 http://christopher5106.github.io/deep/learning/2015/09/04/Deep-learning-tutorial-on-Caffe-Technol

原创 神經網絡壓縮(7)Soft weight-sharing for neural network compression

Soft weight-sharing for neural network compression Abstract soft weight-sharing achieves both quantization and pruning

原创 神經網絡壓縮(9) WAE-Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

轉載自: http://blog.csdn.net/u011995719/article/details/78900575 WAE(Wavelet-like Auto-Encoder) 是由來自中大、哈工大、桂電等多機構的多名研究人員

原创 神經網絡壓縮(5):BinaryNet

轉載自:http://blog.csdn.net/jackytintin/article/details/53445280 1. 動機 深度學習在圖像、語音、文本等領域都取得了巨大的成功,推動了一系列智能產品的落地。但深度模型存在着參數衆

原创 神經網絡壓縮:Mimic(一)Do Deep Nets Really Need to be Deep

Do Deep Nets Really Need to be Deep? 論文鏈接: http://arxiv.org/abs/1312.6184 文章主旨 Shallow feed-forward nets can learn

原创 神經網絡壓縮(4) Learning Structured Sparsity in Deep Neural Networks

轉載自:http://blog.csdn.net/wangqingbaidu/article/details/56674076 Learning Structured Sparsity in Deep Neural Networks ☛組

原创 【網絡優化】超輕量級網絡SqueezeNet算法詳解

轉自: http://blog.csdn.net/shenxiaolu1984/article/details/51444525 Iandola, Forrest N., et al. “SqueezeNet: AlexNet-lev

原创 【網絡優化】MobileNets

轉自:http://blog.csdn.net/cv_family_z/article/details/70847482?locationNum=1&fps=1 TensorFlow實現:https://github.com/Zehaos

原创 神經網絡壓縮(6):Exploring the Regularity of Sparse Structure in Convolutional Neural Networks

Exploring the Regularity of Sparse Structure in Convolutional Neural Networks 方法介紹 目的: 探索稀疏性和預測精度之間的關係 能不能在稀疏性的規則中找到