原创 Deepfacelab 小白教程

不小心入了AI換臉的坑,但是感覺AI換臉很有意思,第一次感覺科研使我快樂。 目錄 一、AI換臉軟件簡介 二、Deepfacelab下載安裝 三、Deepfacelab Demo實現 四、Deepfacelab 填坑 五、總結 一、AI換臉

原创 Anaconda 安裝操作及遇到的坑

最近剛用Pytorch,編譯開源代碼的時候發現缺少n個package,原來是之前在Anaconda3 創建的虛擬環境各自是獨立的,tensorflow下安裝的不能在別的環境下使用,所以要重新安裝。然而關鍵是國內各種屏蔽資源,無法FQ去直接

原创 深度學習之pytorch(三) C++調用

玩深度學習,個人覺得基於anaconda的python適合開發與測試,C++適合實際的工程部署!而pytorch官方有編譯好的libtorch,特別方便,適合於我這樣的伸手黨和手殘黨(win10下編譯tensorflow編譯了好久都沒通過

原创 機器學習(一) 基於sklearn庫的數據集劃分(交叉驗證)

機器學習中首要環節就是數據集的處理,其中數據集的處理從個人理解(如有錯誤敬請諒解)的角度來說包括兩個方面:數據集劃分和數據清理。其中數據集劃分是指訓練集、驗證集和測試集的數據類別劃分;數據清理是指數據的清洗、刪除等等方面。這兩天主要學的就

原创 python 使用小知識總結(持續更新ing)

這篇博客主要針對於使用python來進行深度學習/機器學習過程各方面小知識的總結。習慣於使用C++這種嚴謹的語言,改換到python這門相對來說開放式的語言需要很多學習,而作爲一個菜雞,遇到編程問題解決了之後不到一週就會忘記,在此僅作一個

原创 tensorflow2 tensorboard可視化使用

tensorflow2自帶tensorboard,所以不必再自行安裝tensorboard。 一、使用環境 win10 x64; anaconda3+tensorflow2(cpu版本) 二、使用 1.在模型訓練之前插入以下代碼 log

原创 python 製作二進制文件數據集(bin)

爲了方便進行深度學習的程序調用與實現,需要將excel的數據文件轉換爲二進制文件。好處就是接口統一,讀寫速度快,節約空間。 一、調用庫 使用xlrd讀入execel表格,經過處理後轉換爲對應的dataframe結構,再使用pickle庫保

原创 win10 下pycharm+anaconda 編譯生成pyd文件

由於生產部署的問題,需要把用python寫的深度學習代碼編譯爲可被調用的文件。上網搜索了下,暫時瞭解到win10下pyd文件比較流行。下面是直接引用某位博主的結論,個人感覺總結的很好。其中Cython庫將已有的Python代碼轉化爲C語言

原创 深度學習之keras (一) 初探

之前一段時間裏,學習過tensorflow和Pytorch也寫了點心得,目前是因爲項目原因用了一段時間Keras,覺得很不錯啊,至少從入門來說對新手極度友好,由於keras是基於tensoflow的基礎,相當於tensorflow的高級A

原创 深度學習之pytorch(二) 數據並行

又是好久沒更新博客,最近瑣事纏身,寫文檔寫到吐。沒時間學習新的知識,剛空閒下來立刻就學習之前忘得差不多得Pytorch。Pytorch和tensorflow差不多,具體得就不多囉嗦了,覺得還有疑問的童鞋可以自行去官網學習,官網網址包括:

原创 深度學習之pytorch(一) 環境安裝

快2周沒更新博客了,別問爲什麼!我纔不會告訴你領導安排了一堆其他的活給我,比如出差啊、調研pytorch啊、調研Slam還有萬惡的寫文檔!感覺自己想好好的學習下深度學習,一下子就沒有激情了!說心裏話,個人更喜歡用tensorflow來做深

原创 深度學習基礎(三)loss函數

    loss函數,即損失函數,是決定網絡學習質量的關鍵。若網絡結構不變的前提下,損失函數選擇不當會導致模型精度差等後果。若有錯誤,敬請指正,Thank you! 目錄 一、loss函數定義 二、常見的loss算法種類 1.MSE(均值

原创 深度學習基礎(二)激活函數

        激活函數(也被稱爲激勵函數)的意義就是加入非線性因素,使得神經網絡具有非線性表達的能力。其必要條件是激活函數的輸入和輸出都是可微的,因爲神經網絡要求處處可微。(可微是指函數的各個方向可導,可微大於等於可導) 一、激活函數的

原创 深度學習之tensorflow (一) XORerr1 -修改

主要修改有三個地方: 隱藏層一的運算從sigmoid修改爲add運算; 輸出層的運算修改爲sigmoid(原來是什麼運算忘記了。。); 將優化算法從GradientDescentOptimizer修改爲牛逼的Adam算法; # -*-

原创 深度學習基礎(四)優化函數(梯度下降函數)

梯度下降函數也就是優化函數,在神經網絡訓練過程最重要的函數。重要程度類似於調校對於汽車的重要性,搭建模型和參數設置等操作=“造好了一輛汽車”,優化函數=“調校”。因爲汽車最終的操控性和加速性能等指標很大程度取決於調校,調校的好的汽車操控性