原创 【linux】PATH、 LIBRARY_PATH、 LD_LIBRARY_PATH的區別

1. PATH PATH是可執行路徑,一般在該路徑下的二進制文件或者shell腳本,我們可以在打開任意終端的情況下運行得到結果。 結論: 在終端的任意目錄下都能執行PATH路徑下的二進制文件,shell腳本等。 2.LD_LIBR

原创 【OPENCV】運行opencv時找不到Qt庫

問題描述: 這裏複製一下問題,來源:https://www.cnblogs.com/guiguzhixing/p/6347602.html g++ -o opencv_test opencv_test.cpp `pkg-confi

原创 【OPENCV】顏色通道YUV420與RGB的轉換

1. YUV420p 這裏不詳細介紹YUV420, 簡單的介紹一下,比如有一個 HxW 大小的圖,如果是RGB顏色分量,那麼每個通道都是HxW ,對於一個3通道的RGB來說,在傳輸的時候,所消耗的帶寬是HxWx3。爲了節省帶寬,

原创 【pytorch】給訓練踩踩油門-- Pytorch 加速數據讀取

本文轉載於 https://zhuanlan.zhihu.com/p/80695364 訓練模型的時候有時候會發現顯卡的佔用一直跑不滿,會很浪費,往往是因爲IO瓶頸導致的訓練速度降低。 本文可以從以下幾個方面進行對模型加速: 一,

原创 【OPENCV】高斯模糊原理及高斯模糊核

高斯模糊 高斯模糊可以看作是一種卷積的實現,可以將高頻信息進行平滑。 2維分佈的高斯模糊的函數: G(x,y)=Aexp(−(x−μ)2∗σx2+−(y−μ)2∗σy2) G(x, y) = A exp(\frac{-(x-\mu

原创 【圖像處理】圖像濾鏡的實現方法

無意中發現的網站,裏面有各種圖像濾鏡的實現方法: https://www.kancloud.cn/trent/hotoimagefilter/102786

原创 【C++】令operator= 返回一個reference to *this

這幾天看到《Effective C++》中條款10中, 令operator= 返回一個reference to *this, 說這個是協議, 並沒有強制性,這個協議被所以內置類型和標準程序庫提供的類型如string, vector

原创 【Pytorch】實現subpixle上採樣及下采樣

Pytorch 實現subpixle上採樣及下采樣, 類似與tensorflow的tf.depth_to_space , tf.space_to_depth def shuffle_down(inputs, scale):

原创 【深度學習】多版本的Cuda及Cudnn的切換

1. cuda的切換 cuda的切換比較簡單,無需刪除之前的cuda,只要修改軟連接的指向即可 rm -rf /usr/local/cuda#刪除之前創建的軟鏈接 sudo ln -s /usr/local/cuda-8.0 /u

原创 【TensorRT】tensorRT 7.0的安裝配置

前幾天老黃髮布了tensorRT 7.0, 對於模型服務器部署來說,tensorRT是真的香啊。先放官網鏈接,https://docs.nvidia.com/deeplearning/sdk/tensorrt-developer-

原创 【pytorch】由dataloader引發的死鎖

問題闡述: pytorch在訓練過程中由於dataloader 多進程加載數據 導致的死鎖, 使得程序訓練暫停。該問題在pytorch的官方github上的issue上有提到, 這裏不再贅述。 https://github.com

原创 【Git】把git的分支號加到linux終端前

把下面的代碼加入到 ~/.bashrc的文件最後 function git_branch { branch="`git branch 2>/dev/null | grep "^\*" | sed -e "s/^\*\ //"`

原创 【C++】在子函數中調用malloc申請內存的方法

在函數體內申請內存。 解決辦法 1. 在函數體內申請完內存後,將地址返回 int* test(){ int *p = (int*)malloc(sizeof(int)*100); return p; } 2. 用二級指針修改

原创 【模型壓縮】知識蒸餾-Distilling the Knowledge in a Neural Network

這篇文章是Hinton的大作,採用了一個很特別的方式(知識蒸餾,KT, Knowledge distillation)來進行模型壓縮。言而總之,就是預先訓練一個大模型去調教小模型,使得小模型更夠在應用端更好的跑起來。 文章地址:D

原创 【pytorch】凍結網絡參數訓練

假設我們想finetune一個網絡,僅僅去訓練conv8, prelu8, conv9,prelu9, conv10。在Pytorch中,一般是設置該variable的require_grad爲False。 1.設置變量的vari