原创 Pytorch設備選擇,多GPU訓練

To函數 功能:轉換數據類型\設備 1.tensor.to() 2.mouble.to() 例子: torch.cuda 多GPU分發並行機制 把數據等分,給不同的GPU運行 torch.nn.DataParallel #

原创 Pytorch-Model Fintune

Model Finetune Transfer Learning:機器學習分支,研究源域的只是如何應用到目標域 模型微調 首先要加載模型參數 resnet18_ft = models.resnet18() path_pre

原创 Pytorch-模型的保存於加載

簡介 Pytorch中的序列化和反序列化 troch.save 主要參數 obj:對象 f:輸出路徑 torch.load 主要參數 f:文件路徑 map_location:指定存放位置,cpu或者gpu 對於保

原创 Pytorch-TensorBoard

簡介 TensorBoard:Tensorflow中強大的可視化工具 TensorBoard測試代碼 import numpy as np from torch.utils.tensorboard import SummaryW

原创 Pytorch優化器-Optimizer

簡介 pytorch優化器:管理並更新模型中可學習參數的值,是的模型輸出更接近真實標籤。 導數:函數在指定座標軸上的變化率 方向導數:指定方向上的變化率 梯度:一個向量,方向爲方向導數取得最大值的方向 pytorch中的opti

原创 Pytorch損失函數

定義 損失函數(Loss Function) Loss=f(a^,y)Loss=f( \hat{a} ,y)Loss=f(a^,y) 代價函數(Cost Function) Cost=1N∑iNf(yi^,yi)Cost=\fra

原创 Pytorch-學習率調整策略Scheduler

class_LRScheduler 主要方法 step():更細你下一個epoch的學習率 get_lr():虛函數,計算下一個epoch的學習率 學習率調整 1.StepLR 等間隔調整學習率 2.MultiStepL

原创 Pytorch筆記(三)

目錄用例子來學習Pytorch續Pytorch的nn模塊(neural network)Optimization 加速器定製自己的module流程控制與權值共享 用例子來學習Pytorch續 這篇筆記是接着Pytorch筆記(二)

原创 深入理解YOLO-1

深入理解YOLO loss-11.target2.compose taget 本文是對於yolo loss的一個代碼閱讀+理解解析 所參考的代碼爲Pytorch版的yolo v3,附上repository 1.target 首先,

原创 pytorch雜記-torch.max

torch.max的理解 關於這個API,他的名字是torch.max,根據名字不難意識到,它表示尋找最大值 在tf2.0中,對應API的名字是reduce_max,對於這個名字我一開始是無法理解,reduce的含義,但是根據一些

原创 Pytorch筆記(一)

目錄開始學習PytorchTensor如何構建一個TensorTensor的操作Tensor的索引Numpy和Torch Tensor的關係把tensor轉化爲numpy把numpy轉化爲tensor在CUDA上使用Tensor

原创 TF2.0筆記2

TF2.0筆記2Tensor的索引可選擇索引 Tensor的索引 1.經典索引方式 a=tf.ones([1,4,5,12]) a[0][1][2] 2.Numpy風格的索引方式 不同於經典模式,用逗號隔開可讀性更強 a=tf.

原创 TF2.0筆記1

基礎篇Tensor的數據類型張量的創建相關屬性類型轉換tf.VariableTensor的創建從numpy和list創建一個tensor從api創建 Tensor的數據類型 張量的創建 數據類型: 1.int32 2. float

原创 Pytorch筆記(二)

目錄用例子來學習Pytorch張量熱身活動:用numpy構建神經網絡Torch-Pytorch的基本組件自動求導機制定義新的自動求導函數 用例子來學習Pytorch 第二篇教程主要是通過例子來介紹Pytorch 教程傳送門 文中