原创 Python實驗隨手小筆記(三)
python中OrderedDict的使用 很多人認爲python中的字典是無序的,因爲它是按照hash來存儲的,但是python中有個模塊collections(英文,收集、集合),裏面自帶了一個子類 OrderedDict,實現了對字
原创 pytorch 多GPU使用
單GPU: import os os.environ["CUDA_VISIBLE_DEVICES"] = "0" 多GPU: device_ids = [0,1,2,3] model = model.cuda(device_ids[0
原创 C++結構體
一、結構體 1、結構體概念 結構體(struct):是由一系列具有相同類型或不同類型的數據構成的數據集合,叫做結構。 結構體(struct):是一種複合數據類型,結構類型。 注:“結構”是一種構造類型,它是由若干“成員”組成的。 每一個成
原创 python排序總結
https://www.cnblogs.com/feixuelove1009/p/6143539.html
原创 Python 除法
1、除法 在python 2.5版本中存在兩種除法運算,即所謂的true除法和floor除法。 1)當使用x/y形式進行除法運算時 如果x和y都是整形,那麼運算的會對結果進行截取,取運算的整數部分,比如2/3的運算結果是
原创 Python進制轉換和補零
1、補零 1)字符串 python中有一個zfill方法用來給字符串前面補0,非常有用 n = "123" s = n.zfill(5) assert s == "00123" zfill()也可以給負數補0 n = "-123" s
原创 Leetcode 160 相交鏈表
題目:給兩個單鏈表,如何判斷兩個單鏈表是否相交?若相交,則找出第一個相交的節點。 這道題的思路和解法有很多,在這把這道題的解法做一個詳細的總結。 解這道題之前,我們需要首先明確一個概念: 如果兩個單鏈表有共同的節點,那麼從第一個共同節點開
原创 vim全選功能
全選:ggVG 解釋 gg 讓光標移到首行,在vim纔有效,vi中無效 V 是進入Visual(可視)模式 G 光標移到最後一行 選中內容以後就可以其他的操作了,比如: d 刪除選中內容 y 複製選中內容到0號寄存
原创 Python 開頭語句解釋
#!/usr/bin/env python # -*- coding:utf-8 -*- # Author:XXX 1. #!/usr/bin/env python 與 #!/usr/bin/python 的區別 這些註釋並不僅僅是寫給
原创 pytorch保存和導入模型
Pytorch官方的加載和保存模型的方式有兩種: 1、保存和加載整個模型 這種方式再重新加載的時候不需要自定義網絡結構,保存時已經把網絡結構保存了下來,比較死板不能調整網絡結構。 注:torch.load 返回的是一個 OrderedDi
原创 Latex使用
一、安裝 軟件下載地址: 清華大學鏡像網站https://mirrors.tuna.tsinghua.edu.cn/ctex/legacy/2.9/ 根據個人需求下載不同的版本 安裝完成後我們需要使用的是這個軟件WinEdt:
原创 python導入上級目錄中的模塊
1、python導入同級別模塊很方便: import xxx 2、要導入下級目錄頁,需要在下級目錄中寫一個__init__.py文件 from dirname import xxx 3、要導入上級目錄,可以使用sys.path:
原创 Pytorch 顯存規劃
前言 在上篇文章《淺談深度學習:如何計算模型以及中間變量的顯存佔用大小》中我們對如何計算各種變量所佔顯存大小進行了一些探索。而這篇文章我們着重講解如何利用Pytorch深度學習框架的一些特性,去查看我們當前使用的變量所佔用的顯存大小,以及
原创 Pytorch 保存和加載模型
pytorch的模型和參數是分開的,可以分別保存或加載模型和參數。 pytorch有兩種模型保存方式: 1、保存整個神經網絡的的結構信息和模型參數信息,save的對象是網絡net 2、只保存神經網絡的訓練模型參數,save的對象是ne
原创 pytorch建立網絡的四種方法
利用pytorch來構建網絡模型有很多種方法,以下簡單列出其中的四種。 假設構建一個網絡模型如下: 卷積層--》Relu層--》池化層--》全連接層--》Relu層--》全連接層 首先導入幾種方法用到的包: import torch i