核心概念
データセットの剪定とクラス別の再重み付けを通じて、ディフューション・モデルの学習を効率化する。
要約
本研究では、ディフューション・モデル(DM)の学習を効率化する新しい手法を提案している。
まず、サロゲートモデルを用いてデータの特徴を抽出し、スコア基準に基づいてデータセットを剪定する手法を検討する。これにより、DM の学習に必要なデータ量を大幅に削減できる。
しかし、単純な剪定では各クラスの生成性能に偏りが生じる問題がある。そこで、分布頑健最適化(DRO)を用いて、クラス別の重み付けを行うことで、全体の生成性能を向上させる。
実験では、CIFAR-10、ImageNet、ImageNetteのデータセットを用いて、提案手法の有効性を確認している。DDPM、MDT、Stable Diffusionなどのモデルで、データ量を大幅に削減しつつ、元のモデルと同等以上の性能を達成できることを示している。
特に、MDTでは、わずか20%のデータで元のモデルを上回る性能を得られることを明らかにしている。これは、大規模データセットにおける冗長性を示唆している。
全体として、本研究は、ディフューション・モデルの効率的な学習に新しい知見を与えるものであり、スケーラブルで効率的な生成モデルの構築に貢献すると期待される。
統計
ディフューション・モデルの学習を2.34倍から8.32倍高速化できる。
引用
"我々の手法は、DDPM、MDT、Stable Diffusionなどのモデルで、データ量を大幅に削減しつつ、元のモデルと同等以上の性能を達成できることを示している。"
"特に、MDTでは、わずか20%のデータで元のモデルを上回る性能を得られることを明らかにしている。これは、大規模データセットにおける冗長性を示唆している。"