原创 ReID相關知識

文章目錄概念評價標準precision & recallF1 ScoreROC&AUCmAP(mean Average Precision)計算方式CMC(Cumulative Match Characteristic curve

原创 邊邊角角c++

宏定義函數 省略參數類型 ()裏是返回值 #define EXTERN16BYTE(x) ((x + 15) / 16 * 16) #define isLeap(n) (n%400==0||(n%4==0&&n%100!=0)

原创 GAN 原理

文章目錄各種散度熵交叉熵KL散度JS 散度GAN 原理訓練產生問題WGANEarth-Mover(EM)距離WGANWGAN-GPRelativistic GANs 各種散度 熵 S(p)=−∑ip(xi)logbp(xi)S(p

原创 項目相關被問到的

Resnet-50 Motivation: 深層次的網絡往往能夠提取到更豐富的特徵,但是隨着網絡層數的加深會出現 網絡退化的現象,也就是隨着網絡的加深性能變弱了。 Resnet50在網絡層間加shutcut connection,

原创 Unsupervised 論文記錄

Deepcluster Deep Clustering for Unsupervised Learning of Visual Features 鏈接:Deepcluster 使用聚類算法產生標籤(pseudo-labels)指導

原创 GCN論文閱讀記錄

文章目錄basic model半監督分類GCN in re-id對身體部位建圖 basic model 半監督分類 Semi-Supervised Classification with Graph Convolutional N

原创 來捋一捋SVM吧

SVM,go~硬間隔優化目標KKT 條件對偶問題強對偶條件構造對偶問題對偶問題求解凸優化問題 硬間隔 優化目標 能將所有樣本點正確分類的幾何間距最大的超平面。 argmaxw,bγs.t.yi(wT∣∣w∣∣xi+b∣∣w∣∣)≥

原创 深度學習優化方式

如何提高網絡性能訓練集上表現不好(high bias)更換激活函數sigmoid 函數tanhReLULeakly ReLU & Parametric ReLUExponential ReLUMaxout學習率優化學習率衰減自適應

原创 Applyment of I2I(Style Transfer)

Applyment of I2I(Style TransferCartoonGAN1.Style:normal->cartoon2.Network Strucure3.Loss Func4.Metric5.DataSets6.Ot

原创 Style transfer GAN

Style transfer GANcganpix2pixcycle ganstargan cgan y:條件 x:gt pix2pix x:cGAN的條件 y:gt cgan: 輸入圖片&gt, 虛假圖片&gt l1:

原创 深度學習訓練過程中的問題&解決

初始學習率設定 可以從0.0001到0.1每次擴大10倍試驗,直到驗證集上的loss增大。 一般0.01-0.1左右 樣本不平衡問題 解決方式 採樣層面 過採樣&降採樣 基礎版本的過採樣:隨機過採樣訓練樣本中數量比較少的數據

原创 Classification loss

爲何在識別領域表現不好? 其原因在於Softmax本身的定義,它正式是softmax函數加上交叉熵損失。其目的是使所有類在概率空間中具有最大的對數似然性,即確保所有類別都被正確分類,以及撤銷和驗證任務需要的是具有更好泛化性能的度量

原创 C++知識

文章目錄C++編譯過程條件編譯作用局部變量 全局變量靜態局部變量靜態全局變量、靜態函數靜態/全局變量初始化時間靜態成員 C++編譯過程 預處理 展開所有宏定義,沒有條件編譯指令,刪除特殊符號 編譯 將預處理完的文件進行一系列詞

原创 深度學習re-id綜述

related work 多尺度網絡 參數過多 1.另外加局部特徵分支 使用多尺度的卷積流 OSnet 多層級 使用附加的屬性信息 融合多層信息 deep supervision 特徵提取 global

原创 其他流行網絡

SE-Net 在通道方向上的注意力機制 流程 首先對圖片進行卷積運算,然後對於feature map進行global average pooling(squeeze),把它變成1x1xC的向量,然後通過兩層FC(excita