מושגי ליבה
分佈回溯蒸餾(DisBack)通過引入教師模型的整個收斂軌跡來加速和提高擴散模型的蒸餾效果。DisBack包括兩個階段:退化記錄和分佈回溯。退化記錄階段獲得從教師模型到初始學生生成器的退化路徑,並將其視為教師模型的收斂軌跡。分佈回溯階段則沿著收斂軌跡逐步蒸餾學生生成器,以更快更好地收斂到教師模型的分佈。
תקציר
本文提出了分佈回溯蒸餾(DisBack)方法,以解決現有擴散模型蒸餾方法存在的得分不匹配問題。
退化記錄階段:
- 初始化一個輔助擴散模型,並使其擬合初始學生生成器的分佈。
- 保存模型在訓練過程中的多個中間檢查點,形成一條退化路徑。
- 將退化路徑的反向視為教師模型的收斂軌跡。
分佈回溯階段:
- 沿著收斂軌跡逐步蒸餾學生生成器,直到最終收斂到教師模型的分佈。
- 在蒸餾過程中,學生生成器和擬合分佈的輔助模型交替優化。
實驗結果表明,DisBack在保持或提高生成性能的同時,顯著加快了收斂速度。在CIFAR10數據集上,DisBack的收斂速度是現有最佳方法的13.09倍。DisBack還有效緩解了得分不匹配問題,並可以與現有蒸餾方法結合以提升性能。
סטטיסטיקה
DisBack在FFHQ64數據集上的收斂速度是現有最佳方法的2.46倍。
DisBack在CIFAR10數據集上的收斂速度是現有最佳方法的13.09倍。
DisBack在ImageNet64數據集上的收斂速度是現有最佳方法的2.57倍。
ציטוטים
"通過引入教師模型的整個收斂軌跡來加速和提高擴散模型的蒸餾效果。"
"退化記錄階段獲得從教師模型到初始學生生成器的退化路徑,並將其視為教師模型的收斂軌跡。"
"沿著收斂軌跡逐步蒸餾學生生成器,以更快更好地收斂到教師模型的分佈。"