深度學習:知識整理---更新至2018.03.29

深度學習中一些好的加深理解的文章,全部收錄於互聯網,版權屬原網站所有

 

① 1X1卷積核到底有什麼作用呢?

http://caffecn.cn/?/question/136

② Faster rcnn的特徵圖到原圖區域映射問題?

http://caffecn.cn/?/question/135

③ 基於深度學習的目標檢測研究進展

https://blog.csdn.net/lilai619/article/details/85757503

④caffe的總體流程是怎樣的?

http://caffecn.cn/?/question/123

⑤在caffe中卷積核是三維的還是二維的?

http://caffecn.cn/?/question/158

⑥caffe在做train()時候的詳細流程圖

http://caffecn.cn/?/question/242

⑦caffe的proto裏面的std是什麼意思?怎麼調?

http://caffecn.cn/?/question/37

⑧caffe怎麼單步調試?

https://www.zhihu.com/question/27987666

⑨Softmax和SoftmaxWithLoss的反向誤差傳遞的原理分別是什麼?

http://freemind.pluskid.org/machine-learning/softmax-vs-softmax-loss-numerical-stability/

⑩caffe進行fineture的小技巧

http://www.caffecn.cn/?/question/9

11.fine_tuning原理問題

http://www.caffecn.cn/?/question/12

12.caffe中image_mean的作用是什麼?

http://www.caffecn.cn/?/question/15

13.圖像分類中,類別個數不均勻,相差很大,該怎麼處理?

http://www.caffecn.cn/?/question/20

14.caffe裏sigmoidCrossEntropyLoss層計算

http://www.caffecn.cn/?/question/25

15.請問在OCR方面caffe有沒有什麼比較好的網絡模型?

http://www.caffecn.cn/?/question/30

16.caffe裏面的誤差的反向傳播怎麼實現來的?

http://www.caffecn.cn/?/question/36

17.Caffe中的各種loss函數適合哪些問題?

http://www.caffecn.cn/?/question/43

18.關於caffe 裏面卷積層featuremap 的問題

http://www.caffecn.cn/?/question/46

19.各種Pooling方法適用哪些情況?

http://www.caffecn.cn/?/question/57

20.假如有兩個model,如何把其中一個model的某一層的權重賦給另一個model的對應層。

http://www.caffecn.cn/?/question/59

21.可視化神經網絡的中間特徵

http://www.caffecn.cn/?/question/70

22.Siamese網絡跑自己的數據

http://blog.csdn.net/gybheroin/article/details/54133556

23.stride的大小來左右滑動窗口,那麼通過修改什麼可以調整上下滑動卷積窗口的步幅

http://www.caffecn.cn/?/question/74

24.caffe框架在添加自己的MFC程序

http://blog.csdn.net/shakevincent/article/details/52115872

25關於message NetState和message NetStateRule

http://www.caffecn.cn/?/question/104

26.新增lmdb格式的訓練樣本的方法

http://www.caffecn.cn/?/question/112

27.momentum的作用是什麼?

http://www.caffecn.cn/?/question/117

28.如何實現在prototxt 中實現多通道呢?

http://www.caffecn.cn/?/question/144

29.[Batch Normalization] Predict中BN是怎麼計算的?

http://www.caffecn.cn/?/question/165

30.請問caffe裏data layer後面有個{layerName}_{topBlobName}_{0}_{split)的層是幹嘛的?

http://caffecn.cn/?/question/198

31. Caffe中的BN層與Scale層再理解

https://blog.csdn.net/wangkun1340378/article/details/77161243

32. Caffe中各層的作用

https://www.cnblogs.com/yinheyi/p/6070213.html

33. 如何根據網絡計算模型大小?

https://www.cnblogs.com/TensorSense/p/7413296.html

34.cnn模型所需的計算力(flops)是怎麼計算的?

https://www.zhihu.com/question/65305385

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章