原创 機器學習中的L1正則,L2正則的理解

一.在深度學習中,影響整個模型最後效果的我認爲有3個因素: 1.數據的質量,多少. 2.網絡的結構,網絡的深度等. 3.損失函數的設計. 最常用也是最容易想到的損失函數就是L1損失和L2損失.這也是很多深度學習論文的損失函數的基礎項目

原创 matlab將Y,U,V三個通道合成YUV視頻文件

最近做圖像壓縮方面的一些工作,處理的是yuv格式的視頻,這也是HEVC編碼中常用的壓縮格式. 問題,從yuv視頻流中讀取到Y,U,V,三個分量後,進行處理.有了處理後的Y,U,V三個,分量怎麼可以快速合成yuv視頻,進行壓縮編碼,查了

原创 pytorc加載多GPU模型和單GPU模型

有時候,我們用pytorch進行多卡GPUs訓練時候,保存模型應該用下面語句: torch.save(model.module.state_dict(), model_out_path) 但是忘記加module了,直接用 torch

原创 python畫分佈圖(hist)等等

參考鏈接:https://blog.csdn.net/jinruoyanxu/article/details/53390943

原创 保存malab imagsc()顯示的圖像

深度學習中有時候想查看網路中的某一蹭課的特徵圖,可以借用matlab 的imagesc()查看,但是用image()函數查看後,並不能用imwrite()函數保存,只能手動另存爲,這樣很麻煩,特別是遇到大批量操作的時候: 下面說說解決

原创 GAN_loss的構建

GAN_loss的構建. tendorflow:參考鏈接:https://blog.csdn.net/qiu931110/article/details/80181212 pytorch參考鏈接:https://blog.csdn.n

原创 加載和調用VGG19模型計算VGG_loss

1.加載代碼 # Assume input range is [0, 1] class VGGFeatureExtractor(nn.Module): def __init__(self, f

原创 pytorch:一行代碼查看網絡參數總量

netG = Generator() print('# generator parameters:', sum(param.numel() for param in netG.parameters())) netD = Discrim

原创 當python遇到h5py,h5py數據集的製作

製作可變大小的數據集h5文件,可以參考下面的博客鏈接: https://www.jishux.com/p/c11fa4f31d757d5c dset = f.create_dataset('mydata', shape=(1, 1,1

原创 Ubuntu建立新用戶教程

博客鏈接:https://blog.csdn.net/longgeaisisi/article/details/78879119

原创 visio2013安裝

1.visio2013下載地址:https://www.99down.com/soft/4736.html 2.破解教程地址:https://blog.csdn.net/peiwang245/article/details/79940

原创 putorch的pre-train函數模型或者舊的模型的引用及修改(增減網絡層,修改某層參數等) finetune微調

對於想直接用已有的網絡模型,只是增加,減少或者修改某幾層,可以參考下面兩篇博客.介紹了兩種方法: 1.常用的方法,好理解: https://blog.csdn.net/qq_27292549/article/details/78937

原创 pytorch讀取數據集

下面這篇博客講解很詳細:https://zhuanlan.zhihu.com/p/37131822

原创 反捲積和卷積的輸出和輸入尺寸關係

1.反捲積: 利用反捲積求輸出尺寸的大小爲N(out) = (N(in)-1)× s +k -2p s:stride k:kernel_size p:padding 2.卷積: N(out) = (N(in) − k + 2p )

原创 conda建立虛擬環境並安裝相應包

1.ubuntu下conda建立虛擬環境: 建立環境: conda create -n your_env_name python=X.X(2.7、3.6等) 使用激活(或切換不同python版本)的虛擬環境: Linux: sou