20200216畢設日記-關於pytorch中的卷積操作

從今天開始學習pytorch,在論文進度更新的同時也更新pytorch的學習過程。

在CNN中,有個重要的操作成爲卷積,尤其是在圖像處理中使用的最多,這裏是對torch中nn模塊的二維卷積的介紹。

torch.nn.Conv2d()函數詳解

這裏是一個計算公式,是比較複雜的計算公式,正常的話輸出形狀爲圖像和過濾器相加+1

output_shape = (image_shape-filter_shape+2*padding)/stride + 1

爲了讓程序能夠在後臺良好的運行,可以使用這個命令,nohup命令,具體可以參考這裏:https://www.jb51.net/article/169825.htm

論文討論結果

probeset和galleryset的詳細定義實在是太難找了,我弄了半天也怎麼整明白,probe是探針的意思,galley是畫廊的意思,我們需要以probe作爲探測數據集,向gallery中進行查詢,一般來說,probeset的規模要比galleryset的規模要小,今天對數據集進行了反轉,居然發現mAp的值有所提高,顯然這樣確實會讓map的值有所提高,也就是說每次查詢不回稀釋mAp的值,具體的定義還要再和老師以及學姐進行討論,暫時先按照目前的理解來記錄算了。

另外就是關於loss的,昨天重新看了一下網絡結構,發現只是看懂代碼的話好像也沒有那麼難,你只需要定義網絡的結構,然後利用pytorch中nn模塊的squatial這個函數將網絡模型展開就可以,DCNN中網絡中最後提高算法精度的話着重還是要看最後的部分和loss計算的部分,loss這塊有好幾種,無非就是爲了收斂起來快,計算的合理這樣。

其中之前有個點一直不太理解,就是CNN和NN是不太一樣的,在CNN中,w指的是卷積核,我們要訓練的也是這個,那麼在nn中,指的就是這樣的一條條線代表的數字,最後輸出的特徵和softmax之後點的那個一維的值也是不一樣的,要區分清楚自己提取的是特徵還是網絡最後要進行預測的值,2048-1024這種稱爲全連接層也就不奇怪了。

代碼處理部分

學校遲遲不開學,導致服務器也沒人開,這就很尷尬了,老的服務器連起來真的是比較難頂,這邊要使用ssh去連接服務器,那麼ssh連接服務器的命令是ssh username@ip 這種形式,然後會要求你輸入密碼。文件傳輸命令是scp -r localfile username@ip:location。另外在這種形式下爲了讓服務器能夠後臺執行任務,需要使用這個命令nohup,jobs 查看任務,然後fg %jobnumber可以將這個放到前臺上了並終止掉,在linux中ctrl c是強制終止,然後ctrl z是暫停,關於nohup的詳細使用可以查看這裏 nohup命令使用

就這樣,加油!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章