原创 特徵圖先進行全局平均池化(GAP)之後進行全連接層,而不是直接在特徵圖上進行全連接的原因

這樣做是因爲經過cnn提取得到的特徵圖,其實包含了原始圖片的空間信息(也就是位置信息),如果直接做了由特徵圖到特徵向量的轉換,會破壞空間信息,而先做了全局平均池化,再做全連接層,效果會好一些。 這個內容是在看 Class Activate

原创 windows10 原版 純淨版 下載

最近在整理自己的電腦,想下載一個純淨的64位windows10系統,我就在網上搜啊,下載一個安裝以後,就發現一大堆的軟件,360金山毒霸什麼玩意的,根本是刪除都刪除不掉,太可惡了,沒辦法,我就到微軟中國的官網上利用他的一個工具下載了64位

原创 python模擬簡單的撲克牌遊戲

這個代碼實現的是J來家遊戲,規則是這樣的: 兩個玩家隨機平分一副撲克牌中的紙牌,然後從最上面出牌,名牌擺出,如果玩家出的牌是J,則將已經落地的名牌全部收歸自己,放到自己牌的最下方,再出一張牌;如果出的牌在擺出的牌中存在了,則將剛出的牌和相

原创 pytorch中的 scatter_()函數使用和詳解

scatter(dim, index, src)的三個參數爲: (1)dim:沿着哪個維度進行索引 (2)index: 用來scatter的元素索引 (3)src: 用來scatter的源元素,可以使一個標量也可以是一個張量 官方給的例子

原创 backbone、head、neck等深度學習中的術語解釋

我們在閱讀文章的時候,經常看到backbone head  neck 這一類的術語,但是我們可能並不知道是什麼意思,這篇文章就是對這些術語進行解釋: backbone:翻譯爲主幹網絡的意思,既然說是主幹網絡,就代表其是網絡的一部分,那麼是

原创 REID triplet loss 圖片按照N * K 進行預處理

我們在進行triplet loss 的計算時候,必須使得送入網絡的mini_batch中的數據是按照N 個ID,每個ID存在K個不同個體的方式進行的,但是如果我們按照普通的dataloader 獲取方式,無法保證這樣的劃分,因此需要進行處

原创 python 單線劃線和雙下劃線在變量名和方法中的使用

https://blog.csdn.net/Treasure99/article/details/91345293   除了上文博主說的情況,在有的軟件包中的一些方法裏,舉個例子. import  package   x = 88 pac

原创 標量對向量,標量對矩陣,向量對向量,向量對矩陣求導

https://www.cnblogs.com/pinard/p/10750718.html https://www.cnblogs.com/pinard/p/10773942.html https://www.cnblogs.com/p

原创 多分類問題的soft cross entropy 損失函數

在做多分類問題的時候,分類結果的損失函數經常使用交叉熵損失函數,對於預測結果,先經過softmax,然後經過log,然後再根據One hot向量只取得其中的一個值作爲損失函數的吸收值,比如,logsoftmax後的值爲[-0.6, -0.

原创 AE學習節點記錄

跟着B站上面的  影視後期系統教學  學習內容,地址爲: https://www.bilibili.com/video/BV1qi4y1b7XA?p=7 裏面的內容很多,不可能都記住,應該是一邊做視頻一邊學習,有些技能得知道在哪找到,直接

原创 加入triplet loss的 reid Pytorch實現

把triplet loss加到reid的實現中了,工程目錄結構如下圖所示: loss.py代碼如下: import torch import torch.nn as nn import torch.nn.functional as F

原创 利用kmeans對iris數據集進行分類,kmeans聚類算法實例

上課,老師讓做作業,kmeans分類,將iris進行聚類分類,於是就做了這個作業。很簡單,我就將其設置爲分三類,重點是我在選擇初始center的時候,嘗試了使用隨機選取和使用大招選取兩種方式,隨機選擇初始點的效果不如放大招。這個大招是這樣

原创 pytorch的數據增強

在利用Pytorch進行深度學習的時候,經常是在固定的數據集上進行epoch次訓練,常用代碼如下所示: import torch import torch.nn as nn from torchvision import datase

原创 nn.CrossEntroyLoss nn.NLLoss nn.LogSoft pytorch損失函數

nn.NNLoss(x,y_target) = -x[y_target] x=[1,2,3] y_target=[2] 則loss = x[2]=3 nll = nn.NLLLoss() x = torch.randn(3,3) y_t

原创 np.nean()

numpy中的mean()函數輸入的是一個array類型,返回的是這個array中所有元素的平均值,實例如下: import numpy as np x1 = np.random.randint(0,2,(3,4)) print(x1