一鍵生成視頻!用 PAI-EAS 部署 AI 視頻生成模型 SVD 工作流

SVD技術介紹

Stable Video Diffusion(以下簡稱 SVD),是一個圖像到視頻模型模型,能夠以每秒 3 到 30 幀的可自定義的幀率生成 14 幀和 25 幀的視頻。去年 11 月,Stability.AI 發佈了它的 1.0 版本。

而這個1.1版本的模型經過訓練,可在 1024x576 的分辨率下生成 25 幀。總體上他是一個生成短視頻,類似gif形式的一個模型,而這個也是目前來說開源並且在直接生成視頻的模型效果比較好的一個了。

還有一點需要注意,這個 SVD 和我們常用的生成視頻類的操作,比如它和 AnimateDiff 相比,這是不一樣的技術。但他們也可以同時放在一起使用,比如我們先用 SVD 生成一個視頻,hires提升分辨率後再用 AnimateDiff 重繪等等,這又是後話了。

資源領取

點擊https://click.aliyun.com/m/1000391701/ 領取 PAI-EAS 免費試用 1 個月 A10/V100 資源。注意這個免費每日是有一定限額的,先到先得哦~

等待開通完成,點擊前往控制檯

如果免費額度用完了,可以購買 PAI-EAS 59元抵扣200元資源包 https://www.aliyun.com/activity/2024purchase/bigdata_ai?

來到 PAI 控制檯後,推薦大家在這裏切換區域爲 華北 2(北京),組合開通勾選OSS的選項,因爲已經開通過所以默認勾上了。然後等待部署,部署完成後就可以前往默認工作空間。

找到左側的 EAS 服務來部署一個實例。首次使用的時候我們需要先開通授權一下服務。

部署ComfyUI

點擊部署服務,自定義部署。

自定義輸入實例名稱,然後在鏡像內找到comfyui,版本選擇0.3。

在下面選擇資源信息,注意這裏非常重要,需要選擇試用活動的GPU,推薦大家選擇A10的GPU,如果缺貨也可以選擇 V100、T4 等。

選擇完成,都配置好後,我們點擊部署,等待部署完成。由於這個鏡像預製好了很多節點,所以部署可能要等上幾分鐘到10分鐘左右。如果覺得等了很久也可以點進去服務日誌查看日誌輸出,部署情況。等到看到這行“運行中”,即爲部署完成了,我們就可以直接進入ComfyUI了。

啓動ComfyUI進行模型推理

  1. 單擊目標服務的服務方式列下的查看Web應用

2. 在WebUI頁面進行模型推理驗證。

我們前面提到了SVD是一個圖片生成視頻的模型,所以這裏左側是一個文生圖的工作流,首先生成了一張圖片。然後再把這張圖片輸入到右側的SVD模型,進行視頻生成。

根據需要,選擇文生圖的模型和圖生視頻的模型,本方案使用默認配置。然後在CLIP文本編碼器中輸入Prompts,修改長寬爲16:9(例如384:216),單擊提示詞隊列, 等待工作流運行完成即可獲得AI生成的視頻。

 
 

3. 請在【合併爲視頻】將視頻改爲GIF格式,視頻生成後,右鍵單擊生成的視頻,選擇 Save preview保存圖像,即可將生成的GIF格式視頻保存到本地,通過活動頁【提交作品】參與活動!

 

ComfyUI 參數講解

左側的文生圖可以調節模型,分辨率。然後是正負prompt,採樣時候的種子,採樣器等等。都可以隨意修改。

然後來看SVD這邊的參數。首先就是這個SVD 圖像到視頻的條件。設置寬、高,這個是視頻的分辨率,不要調的太大。然後是幀數,就是一共生成多少幀。動態bucketid這個值越大,畫面運動幅度越大。幀率就不用多說了。

然後是這個線性CFG引導。這個擺的位置有些靠下,其實他是在模型和k採樣器之間的。他的作用是在不同的幀之間,按線性來縮放CFG值,他會從這個最小CFG值隨着幀數按線性增大到K採樣器設置的值。比如我們這個節點設置了爲1,那麼實際上的CFG就是跟隨幀數從1變化到2.5。

整體來說,這個工作流就是一個入門的文生視頻工作流,如果我們有需要,也可以把生成圖像部分換爲自己的一個圖像輸入,就是最原本的SVD圖生視頻了。

那麼後續還有沒有更高級的玩法呢?當然有,這裏採樣器輸出的是每一幀的圖像,我們當然也可以爲他接上高清修復的流程,讓他能放大,再接個其他的重繪流程都是可以的。後續就留給大家任意發揮了~

常見問題

更多操作問題可參考:https://help.aliyun.com/zh/pai/use-cases/deploy-ai-video-generation-application-in-eas?

原文鏈接

本文爲阿里雲原創內容,未經允許不得轉載。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章