原创 linux下c++編譯opencv簡單命令

g++ mnistToimg.cpp -o mnistToimg 'pkg-config --cflags --libs opencv' 要注意命令中的“引號”是`而不是’哦,不然會報錯~

原创 目標檢測二階段網絡(faster-rcnn)的端到端訓練方式

簡明扼要說一下二階段網絡訓練的pipeline,一些基本概念還需要自行去查詢一下,這裏就不做介紹了 RPN網絡的訓練 需要的輸入有之前卷積層得到的featuremap,anchor的規格(size,scale等能表達anchor大小的參數

原创 簡單明瞭理解交叉驗證

爲了方便調試超參數,從訓練集中劃分一部分作爲驗證集,但是由於劃分出一個驗證集調節的參數可能受到驗證集數據影響有偏差不夠準確,於是進行交叉,如圖,其中fold1-fold5可以進行任意4個組合作爲訓練集,剩下一個作爲驗證集,這樣得到不同的

原创 在目標檢測任務中如何計算評價指標-Recall,Precision以及畫出PR曲線

好久沒寫博客了,最近在評價結果的時候發現目標檢測的評價結果還是比較難以考慮的,研究了好長時間終於明白了! 和單純的計算Recall和Precision相比,多類的目標檢測的Recall和Precision計算有如下幾個難度: 1,二類

原创 DeepLearning Trick

轉載自: 深度學習(deep learning)優化調參細節(trick) 深度學習中的技巧: 初始化參數儘量小一些,這樣 softmax 的迴歸輸出更加接近均勻分佈,使得剛開始網絡並不確信數據屬於哪一類;另一方面從數值優化上看我們希

原创 本地瀏覽器遠程使用linux下的jupyter

1,首先在本地安裝xshell,遠程連接到Linux機器、 2,啓動ipython $ ipython 3,創建遠程連接密碼 In [1]: from notebook.auth import passwd; passwd() 輸入兩次

原创 VGG學習總結

論文題目:Very Deep Convolutional Networks for Large-Scale Image Recognition 論文使用的VGG網絡在ILSVRC2014圖像分類比賽中獲得了第二名的成績,後來的許多網絡結

原创 神經網絡的一些超參數重要度排序

超參數重要度: 1,學習率lr 2,動量參數beta(一般爲0.9),batchsize大小,隱藏層神經單元個數 3,學習率衰減,隱藏層的層數 4,如果使用的是adam優化,則就是其參數beta1,beta2,epsilon

原创 帶有動量的梯度下降的優勢

普通的梯度下降算法在尋找最優解的過程中會醬紫:可以看到是存在不斷抖動的使用了帶動量的梯度下降,由於梯度的計算使用了指數加權平均方法,使得本次梯度的計算和之前是有關聯的,這樣就能抵消比如梯度在上下襬動的這種狀況,而真正的下降方向(朝右邊走)

原创 Tanh激活函數比Sigmoid優點在哪

Sigmoid函數:Tanh函數:優勢:Tanh函數是0均值的更加有利於提高訓練效率,由於Sigmoid輸出是在0-1之間,總是正數,在訓練過程中參數的梯度值爲同一符號,這樣更新的時候容易出現zigzag現象,不容易到達最優值。具體推導詳

原创 神經網絡解決過擬合的幾種方式

1,data augmentation2,L2 norm3,drop out4,early stopping

原创 矩陣求導簡單理解

轉自知乎:https://www.zhihu.com/question/39523290

原创 關於深度學習中訓練集,驗證集,測試集那些事

1,劃分比例:對於小型數據集,train,validate,test劃分一般爲:60%,20%,20%對於大型數據集,一般驗證集和測試集沒必要太多,因爲只要滿足其作用就行,一般不到20%甚至不到10%2,確保驗證集和測試集分佈相同,這樣方

原创 簡單明瞭的C++文件操作之寫文件

#include<io.h> #include<iostream> #include<fstream> //文件操作必須的頭文件 using namespace std; int main() { ofstream outfi

原创 使用linux命令獲取文件夾下所有文件的絕對路徑

比如獲取/home/yrs/img/,所有的jpg文件絕對路徑並且輸入到data.txt文件: ls /home/yrs/img/*.jpg > data.txt