本論文では、拡散モデルの高速化手法AsyncDiffを提案している。拡散モデルは優れた生成能力を持つが、多段階の逐次的な除雑音処理により高い累積遅延が生じるという課題がある。
AsyncDiffでは、この課題に対処するため、以下の手法を導入している:
これらの手法により、AsyncDiffは大幅な処理時間の短縮を実現しつつ、生成結果の品質を維持することができる。実験では、テキストから画像生成を行うStable Diffusionモデルで最大4倍の高速化を達成し、さらにテキストから動画生成を行うモデルでも大幅な高速化を示した。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Zigeng Chen,... lúc arxiv.org 09-27-2024
https://arxiv.org/pdf/2406.06911.pdfYêu cầu sâu hơn