DFL2.0的Colab腳本請收好

2.0出來後不少人催更Colab腳本,其實前幾天我已經開始着手更新了,爲了寫上一篇文章消耗了幾天時間。現在我就來通知下,腳本已經更新了,名叫v4。

簡單說下Colab有啥用,這個主要是針對沒有顯卡,沒有N卡,設備不好的朋友,或者不想本地燒機的朋友,Colab有免費版也有Pro版,免費版最長使用時間12小時,12小時後必然斷開,需要重新連接。

Pro使用時長相對比較長,穩定性會有所提高。如果自己真的想玩出點花樣來還是推薦升級顯卡。

項目地址:

https://github.com/dream80/DeepFaceLab_Colab

腳本地址:

https://colab.research.google.com/github/dream80/DeepFaceLab_Colab/blob/master/DeepFaceLab_Colab_V4.ipynb

支持0203,0223,0228,0307,0315以及最新版。DFL1.0的版本請參考v2,v3腳本。

腳本使用方法:

 

這是一箇中文腳本,而且加了很多註釋,應該能看懂。步驟主要分六步,在開始之前可以先點一下“查看分配到的設備” 前的播放按鈕查看分配到的設備,不同型號顯卡,性能差別挺大。

目前最好的設備爲P100, 其次就是T4, 最後還有K80,最後的最後可能就是不分配GPU。

第一步,準備好workspace

 

雲端運行和本地運行基本類似,但是開始的時候多了一個掛載。掛載的意思是把谷歌雲盤插到Colab的服務器上。這個colab的腳本就可以使用谷歌雲盤中的素材了,模型也會保存在雲盤。

掛載成功後,你需要準備好workspace。這裏提供了兩種方式。一種加載默認的workspace,這個就類似本地版裏的默認素材,只需要點一下“加載示例項目workspace即可” 。

還有一種方式,把自己的workspace上傳到谷歌雲盤對應的位置,具體的位置爲DeepFaceLab目錄下面。這裏又會有兩種情況,一種是隻上傳data_src.mp4和data_dst.mp4。還有一種是上傳已經提取好的workspace 。這種情況多文件上傳會非常難受,可以先用打包腳本把aligned下的頭像打包成一個文件。這種情況下面的第三步就不需要做了。

第二步,安裝環境

安裝就是把軟件下載到Colab上,然後安裝一些必要的依賴。這裏可以根據自己的情況選擇版本。last永遠和作者的版本保持一致,其他爲歷史版本。

具體操作就是點一下開始安裝前的播放按鈕,期間可能會出現紅色提示信息,可以忽略。

第三步,提取臉部

 

因爲2.0版本引入了整臉whole_face, 所以這裏提取分成了兩種。一種是提取全臉,一種是提取整臉。兩個二選一,根據自己情況來。不管是什麼都只需點一下就好了。點完後會需要輸入幀率和圖片類型,直接回車可以使用默認參數。推薦jpg格式

這裏需要注意,target的地方,要用src提取一次,然後換成dst再提取一次。排序可點可不點,在雲端查看素材可能會比較吃力。

第四步:訓練模型。

 

這個步驟是最消耗時間的,大部分人用這個腳本也是爲了這一步。2.0版僅支持SAEHD和Quick96. 啓動訓練也就是點一下的事情,第一次訓練需要輸入一些模型參數,回車到底默認即可,除非你知道要改什麼參數。

模型訓練到一半是可以終止的,點一下播放按鈕的地方,就會中斷。模型進度不會丟失,再點一次可以繼續訓練。

第五步,轉換輸出

 

模型訓練完成後,就可以使用了。使用模型的時候是先把所有圖片換臉,然後再把換好臉的圖片合成視頻。所以這一步有兩個小步驟。

第六步,繼續訓練。

這個步驟主要應用於環境中斷時候,比如你練着練着就中斷了,重新分配了GPU,此時就需要點一下這個繼續運行了。

工具的話,主要就是對頭像素材進行打包,解包,增強。這些可用可不用。

整個腳本不需要你寫一句代碼,只需要點點或者選擇一下。如果你熟悉本地電腦版的操作,使用腳本會非常簡單。如果本地沒有用過,那麼也可以看deepfaker.xyz上的入門文章,瞭解整個過程。

Colab的事情大概就是這樣了,目前已經可以使用最新版本。近期內我不會再更新,發現有BUG或者什麼問題,發我郵箱!

=====================================

Deepfake中文網:deepfaker.xyz

個人公衆號:託尼是塔克

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章