原创 PyTorch權重初始化的幾種方法

PyTorch在自定義變量及其初始化方法: self.fuse_weight_1 = torch.nn.Parameter(torch.FloatTensor(1), requires_grad=True) self.fuse_weig

原创 關於650w電源能否帶動兩個GTX 1070ti顯卡

首先說一下本人的機器配置: i7 8700 + GTX AORUS小雕 1070ti,主板爲技嘉 Z370 HD3,可以安裝三個顯卡。電源爲振華Leadex G650 650w。現在想加裝一個GTX AORUS小雕 1070ti顯卡,組成

原创 PyTorch利用多GPU訓練深度學習網絡

PyTorch深度學習框架可以利用GPU加速網絡訓練,網絡太深,參數太多的話,很可能在利用GPU訓練網絡的時候導致GPU顯存不夠,無法繼續訓練。GPU的顯存大小几乎與其價格成正比,顯存越大,也就越貴。但是爲了利用GPU訓練深度學習網絡模型

原创 關於Visio畫圖與GSview轉換爲eps格式圖片問題

在使用Visio畫圖時,如果畫的圖比較大,比如超過A4紙的大小時(默認的紙張是A4),會顯示明顯的分頁符,並且在將visio畫圖保存爲圖片時會顯示不全。解決的方法爲在Visio菜單欄中的【設計】-->【大小】可以設置合適的紙張大小,如A0

原创 Learning to Compare: Relation Network for Few-Shot Learning source code

Paper下載地址:Learning to Compare: Relation Network for Few-Shot Learning 原代碼是基於如下的要求實現的: # Requirements Python 2.7 Pytorch

原创 PyTorch自定義激活函數和爲激活函數添加可學習的參數

在深度學習框架PyTorch中已經內置了很多激活函數,如ReLU等,但是有時根據個人需要,需要自定義激活函數,甚至需要爲激活函數添加可學習的參數,如PReLU,具體參見PyTorch官方激活函數源碼實現。 對於不需要可學習參數的激活函數的

原创 關於Python下空列表,空元組,空字符串,空字典的判斷

在Python中,一個空列表,空元組,空字符串,空字典的布爾值爲False,但是不是None,具體如下所示: 如上所示,Python中判斷一個列表是否爲空,切不可用是否None來判斷,而應該直接判斷,如if a,如果a爲空列表,則不成立

原创 Keras之自定義損失(loss)函數

在Keras中可以自定義損失函數,在自定義損失函數的過程中需要注意的一點是,損失函數的參數形式,這一點在Keras中是固定的,須如下形式: def my_loss(y_true, y_pred): # y_true: True lab

原创 PyTorch之利用預訓練模型進行Fine-tuning教程

在Deep Learning領域,很多子領域的應用,比如一些動物識別,食物的識別等,公開的可用的數據庫相對於ImageNet等數據庫而言,其規模太小了,無法利用深度網絡模型直接train from scratch,容易引起過擬合,這時就需

原创 win10文件夾顯示需要管理員權限才能刪除怎麼辦

win10文件夾顯示需要管理員權限才能刪除怎麼辦?解決辦法如下: 按下鍵盤上的組合鍵win+R,在彈出的運行對話框中輸入gpedit.msc,點擊確定或按下Enter鍵,然後按下圖所示操作: 將紅框中的兩項設置爲啓用即可,然後重啓機器才

原创 在PyTorch中爲可學習參數施加約束或正則項的方法

根據不同的需求,在PyTorch中有時需要爲模型的可學習參數施加自定義的約束或正則項(regular term),下面具體介紹在PyTorch中爲可學習參數施加約束或正則項的方法,先看一下爲損失函數(Loss function)施加正則項

原创 PyTorch之圖像和Tensor填充的實例

今天小編就爲大家分享一篇PyTorch之圖像和Tensor填充的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧 在PyTorch中可以對圖像和Tensor進行填充,如常量值填充,鏡像填充和複製

原创 Multiplication in PyTorch

1. Element-wise Multiplication * torch.Tensor.mul() torch.mul() 2. Matrix Multiplication torch.Tensor.matmul() torc

原创 通道隨機混合操作(Channel Shuffle Operation)

通道隨機混合操作(Channel Shuffle Operation)可以看成“重塑-轉置-重塑”(“reshapetranspose- reshape”)操作。這裏假設把4個Feature Maps級聯後,共1024個Channels。

原创 關於LaTex下插入的圖片排列問題及圖片與文本排列問題

\begin{figure*}[tb] \centering \setlength{\abovecaptionskip}{0pt} \setlength{\belowcaptionskip}{0pt} \subfigure[sh