原创 ubuntu16.04下安裝caffe2的安裝

caffe2安裝 安裝前說明:到目前日期爲止,大多數博客中介紹的方法是從 {git clone --recursive https://github.com/caffe2/caffe2.git} 中進行git代碼,然而我們可以從

原创 在ubuntu下安裝Detectron

安裝Detectron 1)前提條件: a) NVIDIA GPU, Linux, Python2 b) Caffe2, various standard Python packages, and the COCO API 2)檢

原创 TCSVT論文結構整理

官網要求看這裏。 TCSVT論文結構整理論文結構摘要問題綜述算法概括(算法細節)實驗結果Index TermsIntroduction引子 + 應用場景現狀概述論文結構介紹示例Experiments and Discussion第一段

原创 人像分割專欄

人像分割數據集 對於人像分割任務,可以利用human parsing的幾個公開數據集,如LIP、ATR、Multi-parsing數據集。 可以在其官方網站中下載對應數據集,也可以在CSDN中的連接下載, 人像分割代碼: https:

原创 docker的安裝與常見語法

1、安裝docker docker的安裝參考: docker安裝 $ sudo apt-get remove docker docker-engine docker-ce docker.io 更新apt $ sudo apt-g

原创 pychram2018永久破解的方法 Pycharm2018永久破解方法

Pycharm2018永久破解方法 有效期到2099年12月31日,適用於JetBrains的所有開發工具(如:IDEA、webstorm、phpstorm、pycharm等等) 下面以Pycharm

原创 CUDA的幾個知識點

知識點1: ncvv編譯步驟: nvcc對CUDA代碼段進行編譯,所有非CUDA的代碼均交給通用的C編譯器,windows下是C1編譯器,Linux下是gcc編譯器。 若想要了解nvcc的編譯步驟: 1, 在cmd下輸入nvcc -

原创 LSTM的基本架構以及幾種變形LSTM

本文內容及圖片主要參考:Understanding LSTM Networks LSTM核心思想 LSTM最早由 Hochreiter & Schmidhuber 在1997年提出,設計初衷是希望能夠解決神經網絡中的長期依賴問題,

原创 讓我們深入到vector中看一下softmax做了什麼

Outline:softmax迴歸和caffe實現 softmax的數學原理 caffe的SoftmaxWithLoss層的實現 1.softmax的數學原理 與logistic regression相比,softmax的不同之處在於

原创 caffe在windows端配置的全部流程

caffe在windows下配置 outlines: 配置流程分爲: (1)nvidia顯卡驅動與CUDA安裝 (2)cudnn安裝(對於部分caffe工程需要) (3)caffe-windows編譯 (4)常見編譯錯誤 nvid

原创 目標檢測:SSD的數據增強算法

SSD的數據增強算法 代碼地址 https://github.com/weiliu89/caffe/tree/ssd 論文地址 https://arxiv.org/abs/1512.02325 數據增強: SSD數據增強有兩種新方法:(

原创 CenterLoss的caffe實現與深入理解

CenterLoss的caffe實現與深入理解 目的: 打算將centerloss與SSD的multibox_loss融合,或者與faster-rcnn的softmax迴歸融合。 項目代碼將會發布到:https://github.com

原创 ubuntu16.04 + OpenCv 2.4.13安裝

安裝包下載 https://pan.baidu.com/s/1_H5tYfC0iwyOWZJAIX6-NA 下載安裝一些一類包 以及編譯工具 安裝編譯工具 sudo apt-get install build-essential 安裝

原创 caffe-ssd修改solver.cpp來繪製每一個類的pr曲線

caffe-ssd繪製每個類的pr曲線 1 solver.cpp 進入到caffe-ssd/src/caffe目錄下,打開solver.cpp。查看第540行,不同版本可能所在行不同 if (param_.show_per_class_r

原创 SSD的MultiBoxLoss層的multibox_loss_param說明

參數說明 multibox_loss_param { loc_loss_type: SMOOTH_L1 conf_loss_type: SOFTMAX loc_weight: 1.0 num_classe