原创 已經安裝的anaconda換到另外一個路徑

把anaconda 文件夾換到想要的文件夾,重新配置conda文件 一個寫得更詳細的博主:http://marvin.zone/2018-06-04-change_conda_path/

原创 with open(file_name, mode) as f打開文件的幾種方式

https://blog.51cto.com/weiruoyu/2342514

原创 【numpy】去除array中重複的元素

np.unique(a)

原创 pycharm連接服務器運行,debug卡住

1. 問題描述: pycharm連接服務器運行,run的時候正常運行,debug會卡在斷點,按繼續運行無反應   2. 原因: 還不知道。。。也不知道怎麼解決 重啓pycharm可以解決,可能是因爲一些配置文件?

原创 pycharm配置文件默認佔用系統盤

1.  問題描述 C盤剩餘空間越來越小,查看文件最大的竟然是C:\Users\NAME\.PyCharm2019.2。想把這個文件夾愛遷移到其他盤 2.解決辦法 (1)在pycahrm->help->edit customer prope

原创 實現兩臺服務器之間的數據傳輸

1. 問題描述 需要把一臺服務器的文件傳到另一臺服務器,方然一個辦法是先將發送服務器的數據下載到本地,再從本地上傳到另一個服務器,但這樣太麻煩費時了。怎麼直接取消本地電腦這個“中間商”? 2. 解決辦法: 在傳送電腦命令行窗口輸入  s

原创 深度學習遷移學習 僅更新classifier pytorch

1. 問題描述 希望用預訓練好的模型提取特徵,僅更新classifier部分。但是和常規的不同的是,如果直接用model.load_state_dict(trained_state_dict)會存在key對不上的問題   2. 解決辦法

原创 TED記錄

1. The danger of single story(五顆星)https://www.ted.com/talks/chimamanda_ngozi_adichie_the_danger_of_a_single_story/trans

原创 經典分類深度模型筆記

1. 下面的百度網盤包括VGG, ResNet, GoogLeNet, DenseNet四個網絡的簡單筆記和論文 鏈接:https://pan.baidu.com/s/1utfPgQK42uztrsQ1c1MWyg  提取碼:a3oe  

原创 kill進程後並未結束

1. GPU上跑模型,模型意外中斷後GPU內存沒有釋放,kill PID後內存還是沒有釋放   2. 解決辦法: 改成 kill -9 PID   3. 源於kill -9 PIDhttps://blog.csdn.net/fan3804

原创 模型訓練速度下降

1. 問題描述: 重複訓練之前的模型,發現訓練速度明顯下降,之前尋一個epoch只需要4分鐘,但現在訓一個epoch半個多小時。 2. 解決辦法 排查了一整天,結果在另一個人的程序停止後,我的訓練速度自動回覆了正常。我沒有解決,服務器自己

原创 時間序列的自相關分析參考資料

僅資源的搬運工 1. 怎麼算的https://www.cnblogs.com/noah0532/p/8449638.html 2. 含義和例子https://machinelearningmastery.com/gentle-introd

原创 pycharm的安裝包列表爲 nothing to show

1. 問題描述 新建項目後打開下面的界面,顯示nothing to show,沒有顯示出安裝的包 2. 解決辦法 刪掉原來的編譯器,重新添加

原创 模型訓練時如何設置batch_size和learning_rate

根據下圖中的文章https://arxiv.org/abs/1706.02677提出的Linear Scale Rule: 學習的大小要和總batch_size成正比(同時考慮每個GPU處理的圖片數量和GPU數量)            

原创 np.array()賦值

當一個array的維度很大時,進行賦值會比較費時間 比如下面的簡單賦值會花費約184s. import numpy as np import time beginn = time.time() a = np.zeros((10, 10