擴散模型加速採樣算法 OLSS,大幅提升模型推理速度

論文:
Zhongjie Duan, Chengyu Wang, Cen Chen, Jun Huang, Weining Qian. Optimal Linear Subspace Search: Learning to Construct Fast and High-Quality Schedulers for Diffusion Models. CIKM 2023

背景

近年來,在圖像生成領域,對於擴散模型的成功我們有目共睹。與基於 GAN 的生成模型不同,擴散模型需要多次調用模型進行前向推理,經過多次迭代,才能得到清晰完整的圖像。擴散模型在大幅度提升生成效果的同時,也因其迭代式的生成過程面臨嚴重的計算效率問題。我們希望改進擴散模型的生成過程,減少迭代步數,提升生成速度。

加速算法的統一分析

 

這其實揭示了調度機設計的本質——在由模型輸出值和初始高斯噪聲張成的向量空間中求解下一步的X_{T}。不同的調度機僅在迭代公式的係數上存在不同,我們決定設計一個新的調度機,將迭代公式中的係數設計成可訓練的,使其對應的近似計算過程更加精確。

算法架構

 

此外,爲了進一步降低這個算法的誤差,我們還對 {t(1),...,t(n)} 進行了調整。具體地,設計了一個啓發式的路徑規劃算法,分爲以下三部分:

 

其中算法 1 利用貪心策略搜索下一步的t\left ( i \right ) ,算法 2 調用算法 1 搜索在誤差上屆 D下是否存在這樣的路徑,算法 3 調用算法 2 搜索最低的誤差上界。整個路徑規劃算法可以使 n 步中的最大誤差最小。

實驗結果

我們在主流的 Stable Diffusion 1.4 和 Stable Diffusion 2.1 上進行了實驗,測試了包括 OLSS 和 OLSS-P(無路徑規劃版本)在內的 8 個調度機算法,使用 5 步、10 步、20 步的算法與 100 步、1000 步的算法比較,FID 結果(越小越好)如下表所示:

我們可以明顯看出,在同等步數下,OLSS 比其他調度機算法能夠實現更高的圖像質量,這證明了 OLSS 方法的巨大優越性。此外,從以下例子中我們也可以明顯看出 OLSS 在極少步數下的效果:

目前 OLSS 已經在 EasyNLP(https://github.com/alibaba/EasyNLP/tree/master/diffusion/olss_scheduler)開源。歡迎廣大用戶試用!

參考文獻

● Bingyan Liu, Weifeng Lin, Zhongjie Duan, Chengyu Wang, Ziheng Wu, Zipeng Zhang, Kui Jia, Lianwen Jin, Cen Chen, Jun Huang. Rapid Diffusion: Building Domain-Specific Text-to-Image Synthesizers with Fast Inference Speed. In the 61st Annual Meeting of the Association for Computational Linguistics (Industry Track).
● Chengyu Wang, Minghui Qiu, Taolin Zhang, Tingting Liu, Lei Li, Jianing Wang, Ming Wang, Jun Huang, Wei Lin. EasyNLP: A Comprehensive and Easy-to-use Toolkit for Natural Language Processing. In the 2022 Conference on Empirical Methods in Natural Language Processing (Demo Track).
● Jiaming Song, Chenlin Meng, and Stefano Ermon. 2020. Denoising Diffusion Implicit Models. In International Conference on Learning Representations.
● Tero Karras, Miika Aittala, Timo Aila, and Samuli Laine. 2022. Elucidating the design space of diffusion-based generative models. Advances in Neural Information Processing Systems 35 (2022), 26565–26577.
● Luping Liu, Yi Ren, Zhijie Lin, and Zhou Zhao. 2021. Pseudo Numerical Methods for Diffusion Models on Manifolds. In International Conference on Learning Representations.
● Qinsheng Zhang and Yongxin Chen. 2022. Fast Sampling of Diffusion Models with Exponential Integrator. In The Eleventh International Conference on Learning Representations.
● Cheng Lu, Yuhao Zhou, Fan Bao, Jianfei Chen, Chongxuan Li, and Jun Zhu. 2022. Dpm-solver: A fast ode solver for diffusion probabilistic model sampling in around 10 steps. Advances in Neural Information Processing Systems 35 (2022), 5775–5787.
● Cheng Lu, Yuhao Zhou, Fan Bao, Jianfei Chen, Chongxuan Li, and Jun Zhu. 2022. Dpm-solver++: Fast solver for guided sampling of diffusion probabilistic models. arXiv preprint arXiv:2211.01095

論文信息

論文標題:Optimal Linear Subspace Search: Learning to Construct Fast and High-Quality Schedulers for Diffusion Models
論文作者:段忠傑、汪誠愚、陳岑、黃俊、錢衛寧

點擊立即免費試用雲產品 開啓雲上實踐之旅!

原文鏈接

本文爲阿里雲原創內容,未經允許不得轉載。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章