原创 Python實驗隨手小筆記(三)

python中OrderedDict的使用 很多人認爲python中的字典是無序的,因爲它是按照hash來存儲的,但是python中有個模塊collections(英文,收集、集合),裏面自帶了一個子類 OrderedDict,實現了對字

原创 pytorch 多GPU使用

單GPU: import os os.environ["CUDA_VISIBLE_DEVICES"] = "0"   多GPU: device_ids = [0,1,2,3] model = model.cuda(device_ids[0

原创 C++結構體

一、結構體 1、結構體概念 結構體(struct):是由一系列具有相同類型或不同類型的數據構成的數據集合,叫做結構。 結構體(struct):是一種複合數據類型,結構類型。 注:“結構”是一種構造類型,它是由若干“成員”組成的。 每一個成

原创 python排序總結

https://www.cnblogs.com/feixuelove1009/p/6143539.html

原创 Python 除法

1、除法   在python 2.5版本中存在兩種除法運算,即所謂的true除法和floor除法。   1)當使用x/y形式進行除法運算時      如果x和y都是整形,那麼運算的會對結果進行截取,取運算的整數部分,比如2/3的運算結果是

原创 Python進制轉換和補零

1、補零 1)字符串 python中有一個zfill方法用來給字符串前面補0,非常有用 n = "123" s = n.zfill(5) assert s == "00123" zfill()也可以給負數補0 n = "-123" s

原创 Leetcode 160 相交鏈表

題目:給兩個單鏈表,如何判斷兩個單鏈表是否相交?若相交,則找出第一個相交的節點。 這道題的思路和解法有很多,在這把這道題的解法做一個詳細的總結。 解這道題之前,我們需要首先明確一個概念: 如果兩個單鏈表有共同的節點,那麼從第一個共同節點開

原创 vim全選功能

全選:ggVG  解釋  gg 讓光標移到首行,在vim纔有效,vi中無效  V   是進入Visual(可視)模式  G  光標移到最後一行  選中內容以後就可以其他的操作了,比如:  d  刪除選中內容  y  複製選中內容到0號寄存

原创 Python 開頭語句解釋

#!/usr/bin/env python # -*- coding:utf-8 -*- # Author:XXX 1. #!/usr/bin/env python 與 #!/usr/bin/python 的區別 這些註釋並不僅僅是寫給

原创 pytorch保存和導入模型

Pytorch官方的加載和保存模型的方式有兩種: 1、保存和加載整個模型 這種方式再重新加載的時候不需要自定義網絡結構,保存時已經把網絡結構保存了下來,比較死板不能調整網絡結構。 注:torch.load 返回的是一個 OrderedDi

原创 Latex使用

一、安裝 軟件下載地址:  清華大學鏡像網站https://mirrors.tuna.tsinghua.edu.cn/ctex/legacy/2.9/ 根據個人需求下載不同的版本  安裝完成後我們需要使用的是這個軟件WinEdt: 

原创 python導入上級目錄中的模塊

1、python導入同級別模塊很方便:   import xxx 2、要導入下級目錄頁,需要在下級目錄中寫一個__init__.py文件   from dirname import xxx 3、要導入上級目錄,可以使用sys.path:

原创 Pytorch 顯存規劃

前言 在上篇文章《淺談深度學習:如何計算模型以及中間變量的顯存佔用大小》中我們對如何計算各種變量所佔顯存大小進行了一些探索。而這篇文章我們着重講解如何利用Pytorch深度學習框架的一些特性,去查看我們當前使用的變量所佔用的顯存大小,以及

原创 Pytorch 保存和加載模型

pytorch的模型和參數是分開的,可以分別保存或加載模型和參數。   pytorch有兩種模型保存方式: 1、保存整個神經網絡的的結構信息和模型參數信息,save的對象是網絡net 2、只保存神經網絡的訓練模型參數,save的對象是ne

原创 pytorch建立網絡的四種方法

利用pytorch來構建網絡模型有很多種方法,以下簡單列出其中的四種。 假設構建一個網絡模型如下: 卷積層--》Relu層--》池化層--》全連接層--》Relu層--》全連接層 首先導入幾種方法用到的包: import torch i