原创 python中使用matlabplit繪製動態直方圖

通過這樣的動態作圖,可以用來分析深度學習模型的性能。 示例代碼1: 動態直方圖 import matplotlib.pyplot as plt fig, ax = plt.subplots() y1 = [] for i in

原创 圖像分割中涉及的損失函數(主要用來處理樣本不平衡)

圖像分割中的損失函數前言解決辦法損失函數1. log loss損失函數2. WBE loss3. Focal loss應用場景思想公式Dice lossDice 係數Dice 差異函數 前言 圖像分割中的loss函數繼承了深度學習

原创 windows10上安裝使用pytorch(pycharm也可以採用這種方法安裝)

進入pytorch官網。 https://pytorch.org/ 找到適合自己的版本,CUDA、平臺、Python等,然後會自動提示“Run this command” 命令指令進行安裝。我的是Python3.5(Anaco

原创 一文讀懂深度學習模型中損失函數(均方誤差,log loss和交叉熵)

誤差函數理解定義功能與BP算法,激活函數的關係誤差函數的特點常見誤差函數均方誤差函數公式應用場景pytorch實現代碼log loss(二分類交叉熵)意義公式缺點交叉熵意義公式應用場景pytorch實現代碼損失函數的選取方法 定義

原创 matlabplit顏色控制

參考鏈接: https://blog.csdn.net/CD_Don/article/details/88070453?depth_1-utm_source=distribute.pc_relevant.none-task&utm

原创 Python保留指定位數的小數

方法: ’%.2f’ %f 方法(推薦) f = 1.23456 print('%.4f' % f) print('%.3f' % f) print('%.2f' % f) format函數 print(form

原创 pytorch自定義的網絡可以不進行初始化

注:pyttorch自定義的網絡結構,已經進行了初始化。自定義的網絡結構,可以不進行初始化。 參考鏈接: https://blog.csdn.net/u011668104/article/details/81670544?dept

原创 小白初學圖像壓縮算法(一)

圖像壓縮算法引言方法含義概念壓縮比速率失真(保真度,品質)常見的幾種壓縮編碼方法建模與編碼二級目錄三級目錄 引言 圖像壓縮算法的基礎是信息論,由信息論的冗餘度引入了壓縮這個概念。 本質是如何針對給定的數據,給定的場景,建立相應的模

原创 pytorch中進行深度學習的權重初始化策略

深度學習初始化目的方法深度學習初始化策略模型策略1:全部初始化爲0或固定值策略2:隨機初始化參數策略3:Xavier initialization策略4:凱明初始化 目的 降低梯度消失和梯度爆炸的可能性。 方法 每一層權重輸出的

原创 如何在CSDN中編輯公式

使用......插入公式。 (1)使用LATEX在線編輯器。 (2)熟悉其語法之後,可以直接在CSDN界面編輯公式。 示例: c=a+bc = a + bc=a+b 參考鏈接: https://blog.csdn.net/lh

原创 pytorch學習之優化器torch.optim

功能:優化更新深度學習模型的參數 介紹:實現了深度學習中絕大多數的優化方法,例如RMSProp,Adam,SGD等,更便於應用,所以通常不需要手動寫上述代碼。 示例代碼: import torch.optim as optim #

原创 pytorch可視化深度學習訓練過程

打印關鍵信息的log,l例如loss信息。 引入tqdm模塊可以估計訓練時間。 3.可視化訓練過程。 參考鏈接: https://blog.csdn.net/weixin_38410551/article/details/104

原创 查看內存的方法

查看內存:nvidia-smi

原创 python字典和列表的相互轉換

列表和字典的相互轉換列表轉化爲字典字典轉化爲列表 列表轉化爲字典 使用zip函數完成轉換 a = ['a1','a2','a3','a4'] b = ['b1','b2','b3'] d = zip(a,b) print(

原创 pytorch中tensor和numpy互相轉換

numpy轉化爲tensor. pytorch 基本函數中的 dim【詳細說明】:以torch.argmax爲例 tensor轉化爲numpy model_corr = model_corr.numpy() 參考鏈接: