原创 torch中view函數的用法

import torch import numpy x = torch.tensor(2,2,2) t = x.view(1,8)#輸出數組的大小爲1*8 t = x.view(-1,4)#輸出數組的大小爲2*4, -1表示自行判

原创 python中yeild的用法

應用場景:爲了減少數據存儲,利用yeild構建生成器,與next配合使用,數據用多少,讀多少,不需要一次性將所有的數據讀進來。 與return的聯繫與區別:聯繫:都有返回函數值的功能。 區別:yield是一個生成器,生成器中由函數

原创 pytorch 基本函數中的 dim說明

dim:表示維度,0:行,1:列 示例代碼:

原创 一文讀懂深度學習算法中的優化算法發展史

深度學習優化算法發展史優化算法的目的重要概念所有優化算法的目的各種優化算法梯度下降法GDSGD動量梯度法動量梯度法Nesterov MomentumAdam優化算法 優化算法的目的 重要概念 梯度:損失函數對於權重函數的導數 梯度

原创 pytorch中contiguous()的理解

功能:將tensor的內存變爲連續的。 有些tensor並不是佔用一整塊內存,而是由不同的數據塊組成,而tensor的view()操作依賴於內存是整塊的,這時只需要執行contiguous()這個函數,把tensor變成在內存中連

原创 小白學隨機變量

隨機變量的理解背景知識概率論研究目標隨機試驗概率分佈數字特徵產生背景定義 背景知識 概率論研究目標 隨機試驗 滿足三個條件: (1)可重複性:相同條件下可重複進行。 (2)每次試驗的結果不唯一:從兩方面理解,每次試驗的結果不止一

原创 Linux下運行Python代碼遇到cannot connect to X server這個問題的解決辦法

在Linux下運行Python代碼遇到了這個問題。 調查後發現,X server是Linux系統上提供圖形用戶界面的服務程序。當客戶端主機Client訪問服務器Server上的圖形程序時,需要Server對該Client賦能訪問圖

原创 pytorch中nn.Conv2d卷積的padding的取值問題

明確卷積的計算公式:d = (d - kennel_size + 2 * padding) / stride + 1 保證輸入輸出的分辨率大小一致,padding的取值:如果kernal_size = 3, padding =

原创 pytorch中交叉熵的妙用

注:對於圖像分割而言,交叉熵的輸入:通過深度學習模型的預測樣本的輸入爲:SCHW,其中,S爲樣本數目,C爲分類數目,H和W爲圖像樣本尺寸。 樣本標籤的輸入爲:SH*W, 其中,S爲樣本數,H和W爲圖像樣本尺寸。 參考鏈接:

原创 pytorch損失函數之nn.CrossEntropyLoss()理解

功能:綜合了softmax和交叉熵的功能。 https://blog.csdn.net/geter_CS/article/details/84857220

原创 numpy數組轉化爲列表

使用**tolist()**完成數組轉換,使用astype 能夠指定數據類型 from numpy import * #tolist astype a = array([1,2,3,4,5,6]) print(

原创 神經網絡中偏差和方差的定義

**偏差定義:**偏差的定義由訓練集的誤差與人類誤差比較來定義,訓練集的誤差低,偏差低,訓練集的誤差高,稱爲高偏差,高偏差也稱之爲過擬合。 **方差定義:**方差的定義,源於比較訓練誤差和驗證集誤差的差異,若差異較大,則稱之爲高方

原创 深度學習中的權重初始化策略

深度學習初始化目的方法深度學習初始化策略2級標題3級標題四級標題五級標題六級標題 目的 方法 深度學習初始化策略 2級標題 3級標題 四級標題 五級標題 六級標題 目的:降低梯度消失和梯度爆炸的可能性。 方法:每一層權重輸出的均