原创 論文筆記:Recurrent Models of Visual Attention

Recurrent Models of Visual Attention 戳這裏下載訓練代碼,戳這裏下載測試代碼 【基於torch】 摘要 由於卷積核的計算量跟圖片像素個數大小呈線性關係,卷積神經網絡對大型的圖片的處理計算量巨大

原创 CNN+caffe學習4:自己訓練網絡全過程

本問創建於2017年1月。由於caffe版本更新, 可能部分操作已經過時不能使用,希望大家多看源碼,增強自主學習能力。 資料下載地址:https://github.com/EmmaW8/caffe.git branch選擇

原创 2017.01.06

最近在用caffe跑神經網絡,中間遇到一些問題,記錄下來。 accuracy 爲0 train_val.prototxt文件中,val 數據集寫錯,寫成了test(無標籤),故正確率爲0. caffe 網絡可視化:Netsco

原创 論文筆記:A clockwork RNN

A clockwork RNN(CW-RNN) 本文主要提出了一個新型的RNN模型,跟原始RNN不一樣的地方就在於,因此隱層單元的不同,同時計算是有方向週期的,降低了參數量。 爲什麼有關rnn的文章大多是跟NLP有關的~

原创 論文筆記:Long Short-Term Memory

LongShort-Term Memory 摘要 通過recurrent BP方式來學着存儲隨時間間隔變化的信息會花費很長的時間。我們引進了新奇的,有效的,基於梯度的方法:LSTM(至少在1997年的時候這麼評價還算公正)。 且能

原创 論文筆記:Segmentation as Selective Search for Object Recognition(ICCV2011)

SegmentationasSelectiveSearchforObjectRecognition 摘要 對於物體識別來說,當時的方法是基於窮舉搜索。此處提出了利用更加具有價值的信息的方法:對於一些少量且精確的物體描繪生

原创 Weakly Supervised Object Localization with Multi-fold Multiple Instance Learning

Weakly Supervised Object Localization with Multi-fold Multiple Instance Learning 基於多層多實例學習的弱監督物體定位 摘要——在計算及視覺領域,物體

原创 論文筆記:Network in network

摘要 Network in Network(‘NIN’) 構造了一個複雜的微型網絡結構,用於對數據進行抽象處理(其實就是提取特徵)。利用全局平均池化對特徵圖進行分類,能夠有效避免過擬合問題。 特點 卷積神經網絡的假定是線性可

原创 2017.01.09

最近在用caffe跑神經網絡,中間遇到一些問題,總結下來。 base_line model: trained atypia1_iter_50000.caffemodel loss 很低 accuracy 很高

原创 論文筆記:Visual Domain Adaptation with Manifold Embedded Distribution Alignment

https://www.evernote.com/shard/s698/sh/f34ce50d-a5de-4b1b-8784-2fcff0a88e0c/106224c1bd3c2467aceb83d810b39250

原创 neruel network yricks of the trade 總結

neruel network yricks of the trade 總結 ### back propagation bp算法 + SGD梯度下降法 + betch learning; 輸入數據正則化(均值爲0,方差正則化,輸入變量

原创 ubuntu突然斷電後,重啓失敗解決方案

Attention Please!!! 千萬不要把插排放在腳底下,腳底下,底下,下。。。 前天,正遠程連接服務器調試代碼,突然,屏幕黑了,黑了,了。。。 低頭一看主機,發現所有應該亮着的燈全都滅了。然後主機電源插頭,竟然硬

原创 論文筆記:Spectral Normalization for Generative Adversarial Networks [ICLR2018 oral]

Spectral Normalization for Generative Adversarial Networks 原文鏈接:傳送門 一篇純數學類文章,有興趣的時候再看! Emma CUHK 2018.02.26

原创 論文筆記:Two-level attention model for fine-grained Image classification

The Application of Two-level Attention Models in Deep Convolutional Neural Network for Fine-grained Image Classificatio

原创 論文筆記:i-REVNET: DEEP INVERTIBLE NETWORKS [ICLR2018]

i-REVNET: DEEP INVERTIBLE NETWORKS 原文鏈接:i-REVNET: DEEP INVERTIBLE NETWORKS 論文來自荷蘭 阿姆斯特丹大學 基於已有的工作,RevNet,提出了可逆RevNet,