Core Concepts
層プルーニングと正規化蒸留を用いて、安定拡散モデルを効率的に圧縮することができる。
Abstract
本論文では、安定拡散モデル(SDM)の圧縮に関する新しい手法「LAPTOP-Diff」を提案している。
層プルーニング:
SDMのU-Netを自動的に圧縮するための層プルーニング手法を提案した。
提案手法は、出力損失を基準とした一回限りのプルーニング基準を用いており、優れた加法性を持つため、他の層プルーニングや手作業による層削除手法よりも優れた性能を発揮する。
正規化蒸留:
従来の蒸留ベースの再学習では、特徴量損失項の不均衡な問題が生じていた。
提案手法では、教師モデルの特徴量のL2ノルムを用いて特徴量損失項を正規化することで、この問題を解決した。
実験の結果、提案手法「LAPTOP-Diff」は、従来手法と比較して、SDXLとSDM-v1.5モデルにおいて、より高い性能を達成できることが示された。特に、SDXLモデルの50%圧縮時に、PickScoreの最小減少率が4.0%と、従来手法の8.2%よりも大幅に優れていた。
Stats
SDXLモデルの50%圧縮時、PickScoreの最小減少率は4.0%
SDM-v1.5モデルの33%圧縮時、PickScoreの最小減少率は1.8%
Quotes
"層プルーニングは、従来の手作業による層削除手法に比べて、自動化、スケーラビリティ、そして高い性能を発揮する。"
"従来の蒸留ベースの再学習では、特徴量損失項の不均衡な問題が生じていたが、提案手法の正規化蒸留によってこの問題を解決した。"