原创 機器學習中的L1正則,L2正則的理解
一.在深度學習中,影響整個模型最後效果的我認爲有3個因素: 1.數據的質量,多少. 2.網絡的結構,網絡的深度等. 3.損失函數的設計. 最常用也是最容易想到的損失函數就是L1損失和L2損失.這也是很多深度學習論文的損失函數的基礎項目
原创 matlab將Y,U,V三個通道合成YUV視頻文件
最近做圖像壓縮方面的一些工作,處理的是yuv格式的視頻,這也是HEVC編碼中常用的壓縮格式. 問題,從yuv視頻流中讀取到Y,U,V,三個分量後,進行處理.有了處理後的Y,U,V三個,分量怎麼可以快速合成yuv視頻,進行壓縮編碼,查了
原创 pytorc加載多GPU模型和單GPU模型
有時候,我們用pytorch進行多卡GPUs訓練時候,保存模型應該用下面語句: torch.save(model.module.state_dict(), model_out_path) 但是忘記加module了,直接用 torch
原创 python畫分佈圖(hist)等等
參考鏈接:https://blog.csdn.net/jinruoyanxu/article/details/53390943
原创 保存malab imagsc()顯示的圖像
深度學習中有時候想查看網路中的某一蹭課的特徵圖,可以借用matlab 的imagesc()查看,但是用image()函數查看後,並不能用imwrite()函數保存,只能手動另存爲,這樣很麻煩,特別是遇到大批量操作的時候: 下面說說解決
原创 GAN_loss的構建
GAN_loss的構建. tendorflow:參考鏈接:https://blog.csdn.net/qiu931110/article/details/80181212 pytorch參考鏈接:https://blog.csdn.n
原创 加載和調用VGG19模型計算VGG_loss
1.加載代碼 # Assume input range is [0, 1] class VGGFeatureExtractor(nn.Module): def __init__(self, f
原创 pytorch:一行代碼查看網絡參數總量
netG = Generator() print('# generator parameters:', sum(param.numel() for param in netG.parameters())) netD = Discrim
原创 當python遇到h5py,h5py數據集的製作
製作可變大小的數據集h5文件,可以參考下面的博客鏈接: https://www.jishux.com/p/c11fa4f31d757d5c dset = f.create_dataset('mydata', shape=(1, 1,1
原创 Ubuntu建立新用戶教程
博客鏈接:https://blog.csdn.net/longgeaisisi/article/details/78879119
原创 visio2013安裝
1.visio2013下載地址:https://www.99down.com/soft/4736.html 2.破解教程地址:https://blog.csdn.net/peiwang245/article/details/79940
原创 putorch的pre-train函數模型或者舊的模型的引用及修改(增減網絡層,修改某層參數等) finetune微調
對於想直接用已有的網絡模型,只是增加,減少或者修改某幾層,可以參考下面兩篇博客.介紹了兩種方法: 1.常用的方法,好理解: https://blog.csdn.net/qq_27292549/article/details/78937
原创 pytorch讀取數據集
下面這篇博客講解很詳細:https://zhuanlan.zhihu.com/p/37131822
原创 反捲積和卷積的輸出和輸入尺寸關係
1.反捲積: 利用反捲積求輸出尺寸的大小爲N(out) = (N(in)-1)× s +k -2p s:stride k:kernel_size p:padding 2.卷積: N(out) = (N(in) − k + 2p )
原创 conda建立虛擬環境並安裝相應包
1.ubuntu下conda建立虛擬環境: 建立環境: conda create -n your_env_name python=X.X(2.7、3.6等) 使用激活(或切換不同python版本)的虛擬環境: Linux: sou