本研究では、ディフューション・モデル(DM)の学習を効率化する新しい手法を提案している。
まず、サロゲートモデルを用いてデータの特徴を抽出し、スコア基準に基づいてデータセットを剪定する手法を検討する。これにより、DM の学習に必要なデータ量を大幅に削減できる。
しかし、単純な剪定では各クラスの生成性能に偏りが生じる問題がある。そこで、分布頑健最適化(DRO)を用いて、クラス別の重み付けを行うことで、全体の生成性能を向上させる。
実験では、CIFAR-10、ImageNet、ImageNetteのデータセットを用いて、提案手法の有効性を確認している。DDPM、MDT、Stable Diffusionなどのモデルで、データ量を大幅に削減しつつ、元のモデルと同等以上の性能を達成できることを示している。
特に、MDTでは、わずか20%のデータで元のモデルを上回る性能を得られることを明らかにしている。これは、大規模データセットにおける冗長性を示唆している。
全体として、本研究は、ディフューション・モデルの効率的な学習に新しい知見を与えるものであり、スケーラブルで効率的な生成モデルの構築に貢献すると期待される。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Yize Li, Yih... a las arxiv.org 10-01-2024
https://arxiv.org/pdf/2409.19128.pdfConsultas más profundas