原创 已經安裝的anaconda換到另外一個路徑
把anaconda 文件夾換到想要的文件夾,重新配置conda文件 一個寫得更詳細的博主:http://marvin.zone/2018-06-04-change_conda_path/
原创 with open(file_name, mode) as f打開文件的幾種方式
https://blog.51cto.com/weiruoyu/2342514
原创 【numpy】去除array中重複的元素
np.unique(a)
原创 pycharm連接服務器運行,debug卡住
1. 問題描述: pycharm連接服務器運行,run的時候正常運行,debug會卡在斷點,按繼續運行無反應 2. 原因: 還不知道。。。也不知道怎麼解決 重啓pycharm可以解決,可能是因爲一些配置文件?
原创 pycharm配置文件默認佔用系統盤
1. 問題描述 C盤剩餘空間越來越小,查看文件最大的竟然是C:\Users\NAME\.PyCharm2019.2。想把這個文件夾愛遷移到其他盤 2.解決辦法 (1)在pycahrm->help->edit customer prope
原创 實現兩臺服務器之間的數據傳輸
1. 問題描述 需要把一臺服務器的文件傳到另一臺服務器,方然一個辦法是先將發送服務器的數據下載到本地,再從本地上傳到另一個服務器,但這樣太麻煩費時了。怎麼直接取消本地電腦這個“中間商”? 2. 解決辦法: 在傳送電腦命令行窗口輸入 s
原创 深度學習遷移學習 僅更新classifier pytorch
1. 問題描述 希望用預訓練好的模型提取特徵,僅更新classifier部分。但是和常規的不同的是,如果直接用model.load_state_dict(trained_state_dict)會存在key對不上的問題 2. 解決辦法
原创 TED記錄
1. The danger of single story(五顆星)https://www.ted.com/talks/chimamanda_ngozi_adichie_the_danger_of_a_single_story/trans
原创 經典分類深度模型筆記
1. 下面的百度網盤包括VGG, ResNet, GoogLeNet, DenseNet四個網絡的簡單筆記和論文 鏈接:https://pan.baidu.com/s/1utfPgQK42uztrsQ1c1MWyg 提取碼:a3oe
原创 kill進程後並未結束
1. GPU上跑模型,模型意外中斷後GPU內存沒有釋放,kill PID後內存還是沒有釋放 2. 解決辦法: 改成 kill -9 PID 3. 源於kill -9 PIDhttps://blog.csdn.net/fan3804
原创 模型訓練速度下降
1. 問題描述: 重複訓練之前的模型,發現訓練速度明顯下降,之前尋一個epoch只需要4分鐘,但現在訓一個epoch半個多小時。 2. 解決辦法 排查了一整天,結果在另一個人的程序停止後,我的訓練速度自動回覆了正常。我沒有解決,服務器自己
原创 時間序列的自相關分析參考資料
僅資源的搬運工 1. 怎麼算的https://www.cnblogs.com/noah0532/p/8449638.html 2. 含義和例子https://machinelearningmastery.com/gentle-introd
原创 pycharm的安裝包列表爲 nothing to show
1. 問題描述 新建項目後打開下面的界面,顯示nothing to show,沒有顯示出安裝的包 2. 解決辦法 刪掉原來的編譯器,重新添加
原创 模型訓練時如何設置batch_size和learning_rate
根據下圖中的文章https://arxiv.org/abs/1706.02677提出的Linear Scale Rule: 學習的大小要和總batch_size成正比(同時考慮每個GPU處理的圖片數量和GPU數量)
原创 np.array()賦值
當一個array的維度很大時,進行賦值會比較費時間 比如下面的簡單賦值會花費約184s. import numpy as np import time beginn = time.time() a = np.zeros((10, 10