原创 Pytorch學習(七)跨設備保存和加載模型

在某些情況下,您可能需要在不同的設備上保存和加載您的神經網絡。 介紹 使用PyTorch在不同設備之間保存和加載模型相對簡單。在本菜譜中,我們將嘗試跨cpu和gpu保存和加載模型。 步驟 1. 導入包 2. 定義和初始化神經網絡 3. 在

原创 Python隨記(一)列表和元組

Python中最基本的數據結構就是序列了。Python一共包含6種內建序列:列表、元組、字符串、Unicode字符串、xrange對象、buffer對象。序列都可以進行的操作包括索引,切片,加,乘,檢查成員。   本篇隨記先講兩個最基礎的

原创 Pytorch學習(五)在一個文件中保存和加載多個模型

保存和加載多個模型有助於重用您之前訓練過的模型。 介紹 在保存由多個torch.nn.Modules組成的模型時。如GAN、sequence-sequence模型或模型集合,必須保存每個模型的state_dict和相應的優化器的字典。您還

原创 Pytorch學習(六)在PyTorch中使用不同模型的參數來預熱啓動模型

在遷移學習或訓練一個新的複雜模型時,部分加載模型或部分加載模型是常見的場景。利用訓練過的參數,即使只有少數是可用的,也將有助於熱身訓練過程,並有望幫助您的模型比從頭開始訓練更快地收斂。 介紹 無論您是從缺少一些keys的部分state_d

原创 Pytorch學習(四)保存和加載模型

在PyTorch中有兩種保存和加載用於推理的模型的方法。第一個是保存和加載state_dict,第二個是保存和加載整個模型 介紹 使用torch.save()函數保存模型的state_dict將爲以後恢復模型提供最大的靈活性。這是保存模型

原创 Pytorch學習(二)定義神經網絡

Pytorch中定義神經網絡 深度學習使用人工神經網絡(模型),它是由許多層相互連接的單元組成的計算系統。通過將數據傳遞給這些相互連接的單元,神經網絡能夠學習如何近似計算將輸入轉換成輸出。在PyTorch中,神經網絡能夠使用torch.n

原创 Pytorch學習(一)加載數據

在Pytorch中加載數據 pytorch具有廣泛的神經網絡構建模塊和一個簡單、直觀、穩定的API。Pytorch包括爲您的模型準備和加載通用數據集的包。 介紹 Pytorch加載數據的核心是torch.utils.data.DataLo

原创 Pytorch學習(三)static_dict

在PyTorch中,一個torch.nn.Module可學習參數(即權重和偏差)。模型包含在model的參數中(使用model.parameters()訪問)。state_dict只是一個Python字典對象,它將每一層映射到其參數張量。

原创 編碼規範------華爲篇

編碼規範很重要,其實他直接影響到了代碼迭代更新的效率和出問題的概率。以下爲本人對網上廣爲流傳的華爲編碼規範的個人總結。(ps:其中有幾個原則實在是精闢的不能再精闢了,當然也有一些存在疑惑,還希望各位大佬不吝賜教) 1.不要使用難懂的技巧性

原创 YOLO論文閱讀

              yolo1: Unified, Real-Time Object Detection 參考: http://blog.csdn.net/u011534057/article/details/51244354 h

原创 Keras vs PyTorch:誰是「第一」深度學習框架?

https://www.jiqizhixin.com/articles/keras-or-pytorch

原创 圖像數據增強(縮放)

import cv2 from PIL import Image import math import numpy as np import os import pdb import xml.etree.ElementTree as E

原创 Python 數據結構(棧)

         可以看到,如果把棧底位置的下標標註爲-1, 那麼數據1所在的位置下標爲0,數據2所在的位置下標爲1,;以此類推,數據n所在的位置下標爲n-1。實際上,數據1~數據n的存儲形式就是列表,只不過這種列表裏面的數據操作是受限制

原创 Python列表中存在的方法

方法名 用法 解釋 append alist.append(item) 在列表末尾添加一個新項 insert alist.insert(i,item) 在列表的某個位置插入一個項 pop alist.pop() 移除並返回列表的最後一項

原创 YOLO - YOLOV3 .cfg 配置文件 參數含義

https://blog.csdn.net/qq_35872456/article/details/84216129