0421
softmax兩個不同的寫法
https://www.zybuluo.com/nrailgun/note/325347
反向傳播 推導
Keras 中經常可以看到 K.image_data_format() == 'channels_first' 深度學習中 Flatten層 的作用 < GAP Flatten層的實現在Keras.layers.
安裝caffe ImportError: DLL load failed: 找不到指定的模塊 pycaffe import caffe報錯: from ._caffe import Net, SGDSolver, Nesterov
視頻摘要與視頻濃縮(video summarization and video synopsis) 視頻摘要是從原始視頻中提取有代表性的關鍵幀,而視頻濃縮將多幀視頻合併成一幀。 如果是在低維度的小數據集中,可以使用線性查找(Lin
原先pytorch 是在官網下載的 pytorch1.4+cud9.2 但是在運行一個代碼時加載的預訓練參數模型是pytorch1.0版本的 因爲版本不匹配所以在運行時報錯 'AvgPool2d' object has no attrib
--------------------- Pytorch 與 numpy 區別---------------------------- #################################################
0509 https://blog.csdn.net/goldxwang/article/details/78790797 tf.equal(tf.argmax(y, 1),tf.argmax(y_, 1))用法 https:
0506 卷積神經網絡 傳統神經網絡與卷積神經網絡的對比 組成 Input –conv –relu – pool – FC 輸入層 卷積層 激活函數 池化層 全連接層 卷積核 即 濾波器 也就是權重參數
0418 B站深度學習視頻https://www.bilibili.com/video/BV1ht411i7Ld?p=1 0-11 總結 計算機視覺識別圖像都是轉換成三維數組。 K-近鄰算法 KNN K近鄰
今天0416 深度學習與神經網絡的關係,神經網絡的作用,在什麼位置 https://blog.csdn.net/a493823882/article/details/83548447 https://blog.csdn.net/m
0419 B站深度學習視頻https://www.bilibili.com/video/BV1ht411i7Ld?p=1 12-17 總結 神經網絡泛化能力一定要強 激活函數與損失函數 https://www.jians
使用hugo搭建博客 從https://github.com/gohugoio/hugo/releases 下載 推薦選擇 帶有extend擴展包的安裝包 因爲第一次我沒選擇帶有extend的這個,花了一下午時間找原因 然後
0513 感受野 衡量某一層的feature map 中的某一個cell 對應到原圖輸入的響應區域大小 如圖 輸入層11*11 沒有zero-padding 經過第一層5*5 conv 得到feature map
視覺單詞 可以 理解爲就是 Local Feature 什麼是Local Feature 呢 包含兩個信息: 座標位置(x,y) 描述符(描述算子 descriptor) 這個描述符是用來可以被量化比對的 做match
----------------------------- Save and reload ------------------------- ###############################################
------------------optimizer----------------------------------------------- Python中Zip() 函數 >>>a = [1,2,3] >>> b = [