原创 pytorch的paramter

register_parameter nn.Parameters 與 register_parameter 都會向 _parameters寫入參數,但是後者可以支持字符串命名。 從源碼中可以看到,nn.Parameters爲Module添

原创 numpy.stack ,nstack,vstack,cat,concatnate,argsort小結

np.stack 理解:axis參數指的是增加的維度 每次按對應維數取出來相應的數據並加括號組合起來: 如下例: a = np.array([[1,2,3,4], [5,6,7,8]]) b = np.array([[2,2,1,4],

原创 Invariance Matters: Exemplar Memory for Domain Adaptive Person Re-identification理解

行人重識別之監督學習與無監督學習結合(CVPR2019) 貢獻 該論文提出了存儲器的概念用來優化特徵提取網絡。 改論文將監督學習與無監督學習結合起來了。 部分論文翻譯          在此基礎上,我們提出了一種新的無監督域自適應方法,在

原创 pytorch .item() 張量

  item是得到一個元素張量裏面的元素值 torch.Tensor.item() 坑,注意只能是一個值,適合返回loss,acc

原创 lce損失與軟交叉熵損失函數

區別 lce就是交叉熵損失函數 在pytorch中可以有兩個實現的方式: 採用nn.logsoftmax(),然後採用nn.nn.NLLLoss (負對數似然損失) 直接採用nn.CrossEntropyLoss()   軟交叉熵損失函數

原创 python導包的總結

關於__init__ 在python中是有模塊一說的,文件夾test想要變成模塊就必須要有__init__函數,這個函數裏面可以爲空,同樣這個函數裏面可以加入語句例如 from import來導入包,如果這樣做了,這個文件變成的模塊就可以

原创 行人重識別綜述

研究對象 人的整體特徵,包括衣着、體形、發行、姿態等等 一、技術難點: 無正臉照,姿態,配飾,遮擋;拍色角度,圖片模糊,室內外環境和光線變化,服裝搭配,穿衣風格 二、數據集: Market1501(清華),DukeMTMC-reID(Du

原创 GAN網絡評價指標

一、IS(Inception loss)         GAN(生成對抗網絡)中生成器通過目標函數來優化生成的圖片騙過判別器的性能,判別器則通過損失函數來增強自己判別生成圖片的性能。但是這並不能很好地判別生成圖片的質量以及多樣性。於是便

原创 Joint Discriminative and Generative Learning for Person Re-identification閱讀筆記

總結 一.各個損失函數的定義 1.生成模型的損失函數 類似於GAN的思想,生成模型要能首先還原出原本的圖像,論文中將其稱爲Self-Identity generation,這種自生成包括兩種情況,一種是使用外觀編碼器與結構編碼器對輸入的圖

原创 反轉鏈表

鏈接:https://www.nowcoder.com/questionTerminal/75e878df47f24fdc9dc3e400ec6058

原创 二進制中一的個數

int count2(int n){    int res = 0;    while(n != 0)    {        n -= n & (~n + 1);        res++;    }    return res;}每次

原创 調整數組順序使奇數位於偶數前面

鏈接:https://www.nowcoder.com/questionTerminal/beb5aa231adc45b2a5dcc5b62c93f5

原创 斐波那契數列迭代算法

鏈接:https://www.nowcoder.com/questionTerminal/72a5a919508a4251859fb2cfb987a0

原创 pytorch中數據結構與numpy的區別

pytorch中 a.resize() 不會改變a本身,和reshape()的區別只是resize不必嚴格遵守形狀的規則 上述兩個方法都有返回值,與a.view一樣,和a共用一片內存,改變之後a也會改變   numpy中 a.resize

原创 opencv調用攝像頭的問題

#include  #include  #include  using namespace cv; using namespace std; int main() { char c; VideoCapture inputVideo(1);