原创 訓練過程中Loss函數出現Nan的可能原因

綜合我做過的一些實驗,記錄一下實驗過程中Loss出現Nan的一些可能原因: 最簡單的,學習率過大。 BTW, 學習率過大還可能導致收斂到一個定值之前實驗室的師姐拿雲圖做DNI分類的結果最後都收斂到同一個數值,結果我後來一看也是

原创 Linux常用指令小結(壓縮解壓看佔用空間看運行程序)

查看當前路徑的名稱: pwd 解壓Zip文件 unzip file.zip 列出路徑下的所有文件和文件夾 ls -ld * ls -ld */ 列出該路徑下文件的佔用內存大小 ls -lht 列出該路徑下文

原创 如何將圖像讀取爲numpy矩陣?如何將numpy矩陣變成圖像保存?爲什麼cv2保存的圖片是黑色的?爲什麼cv2顯示的時候會黑屏?如何給灰度圖增加一個維度?

圖像的庫是很多的,我發現自己真的額也是不精通,以後會專門使用幾個庫,讓自己對一個庫的知識體系更加完整,要不然真的很零散。然後在圖像處理這方面,決定好好學習使用一下cv2。 opencv-python的文檔在這裏 安裝 pip in

原创 學習RNN中產生的幾個概念性疑問和解答

通常使用的損失函數——似然函數,爲什麼要加負對數取做負對數似然函數? (我以前一直說使用的是交叉熵,現在想想其實並不準確,從參數估計的角度來看,怎麼也是似然函數對吧?) 原因主要兩點: 如果假設條件是獨立同分布,那麼似然函數

原创 ERROR: Command errored out with exit status 1: python setup.py egg_info Check the logs for full

我發現自己的Debug能力還是不行,特別是環境上的一些問題,以後一定要把錯誤的內容通讀!!!!!通讀!!!!! 我現在是在安裝mmcv,像這裏的錯誤,核心內容是一個WARNING和兩個ERROR,WARNING的內容一般是不重要的

原创 Centos利用yum升級GCC版本,一直啓用,並解決/lib64/libstdc++.so.6: version `GLIBCXX_3.4.20' not found

在深度學習的使用過程中經常會碰到編譯這個問題,對於c語言編譯來說GCC的版本是比較重要的,如果你發現你的linux計算機的gcc版本比較低: 首先挑選一個合適的版本進行安裝,進行這一步操作。鏈接1、鏈接2 2020.4.27更

原创 如何用matplotlib畫雙y軸折線圖

def dual_y_plot(title, X1, Y1, X2, Y2): ''' :param title: tile , string :param X1: axis x1, list

原创 Python中我容易遺忘的基本概念

__iter()__函數與__next()__函數的區別 參考鏈接

原创 python類中下劃線"_"的含義綜合

Python中下劃線的使用是多種多樣的,不是簡單的Python中的雷屬性加了下劃線是私有變量,python中並不存在這個概念。 函數返回值等無用變量,例如 # 函數的兩個返回值這裏就忽略了 a, b, _, _ = funct

原创 Centos與Ubuntu在實際使用中的不同之處(長期更新)

在Ubuntu中運行 apt-get install tk-dev python-tk 的效果和在CentOS上運行 yum install tk-devel python-devel 兩者的效果是相同的,但是兩個包的名稱

原创 Python文件輸入輸出流經常用到的操作

glob 就一個例子,感覺比os模塊方便,舉個栗子: data_path = glob(os.path.join(sample_path, "[0-9]*_[0-9]*.npz")) 上面的代碼可以把類似 89_34.npz

原创 修CentOs服務器用到的一些概念

局域網網址 10.0.0.0/8:10.0.0.0~10.255.255.255 172.16.0.0/12:172.16.0.0~172.31.255.255 192.168.0.0/16:192.168.0.0~192.1

原创 如何找到使用官方的預訓練模型(針對Pytorch)

我們知道在訓練深度學習模型的時候,一個好的與訓練模型可以讓模型收斂的速度更快而且可能會小幅度提升效果,那Pytorch官方的與訓練模型的下載地址如何找呢? 找到Pytorch官網 點擊官網上的Ecosystem下的Models

原创 conda/pip常用指令總結

Pip版本升級或者降級,就算pip指令不可用也可以拿來降級 python -m pip install pip==9.0.3 pytorch的whl文件下載地址: https://download.pytorch.org/whl