Core Concepts
Denoising diffusion models have linear convergence bounds in data dimension.
Abstract
最近の研究では、拡散モデルの収束速度に関する多項式の境界が確立されています。本研究は、スムーズさの仮定を最小限に抑えた線形な収束境界を提供します。結果として、データ次元に対して線形な依存性があります。これは、以前の最先端の境界よりも改善されています。
拡散モデルは、高次元データ分布から近似サンプルを生成する強力な手法です。この研究では、データ次元に対して線形な収束境界が提供されます。これまでの最も厳密な境界は、データ次元に対して超線形であるか強い滑らかさの仮定が必要でした。
拡散モデルは、画像やテキスト生成など多くの分野で最先端の結果を生み出しています。これらは通常、OU過程を使用して前進プロセスを初期化し、逆プロセスを学習します。
我々は時間離散化誤差を制御するために鍵となる洞察「Lemma 1」を導き出しました。この結果は確率的局在化から洞察を転送することが可能です。
Stats
拡散モデルは任意の分布をε2内で近似するために˜O( d log2(1/δ) ε2 )ステップが必要です。
データ分布pdataが有限二次モーメントおよびCov(pdata) = Id(標準)であることが前提条件です。
反転SDEのドリフト項に関する制御が期待値で保持されていることから、d/Nオーダーの誤差項が得られます。
Quotes
"Recent results provide polynomial bounds on their convergence rate, assuming L2-accurate scores."
"We provide the first convergence bounds which are linear in the data dimension (up to logarithmic factors)."
"Our proof extends the Girsanov-based methods of previous works."