本論文では、Diffscaler と呼ばれる新しい学習戦略を提案しています。Diffscaler は、事前学習済みモデルのパラメータを凍結したまま、新しいタスクに適応するための最小限のパラメータを学習します。これにより、単一のモデルで複数のタスクや データセットにわたって高品質な画像を生成することができます。
具体的には、各層にAffinerと呼ばれる軽量なブロックを追加し、重みのスケーリングと バイアスの学習を行います。さらに、事前学習モデルにない新しい特徴を学習するためのサブスペースも追加します。これらのパラメータは相互に独立しているため、単一の拡散モデルにこれらのタスク固有のパラメータを組み込むことで、複数のタスクを同時に実行できます。
実験では、Diffscalerを用いて、変換器ベースおよびCNNベースの拡散モデルを、顔、花、鳥、建物などの多様なデータセットにわたって高品質に生成できることを示しています。また、テキスト条件付き画像生成タスクでも、ControlNetと比較して大幅に少ないパラメータで同等の性能を達成しています。
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문