核心概念
本文提出了一種名為 Diff-Instruct++ 的方法,用於訓練單步文字到圖像生成模型,使其生成的圖像更符合人類偏好。
論文概述
本論文介紹了一種名為 Diff-Instruct++ (DI++) 的新方法,用於訓練單步文字到圖像生成模型,使其生成的圖像更符合人類偏好。DI++ 方法的核心思想是將人類偏好整合到模型訓練過程中,通過最大化人類獎勵函數來引導模型生成更受歡迎的圖像。
研究背景
近年來,深度生成模型在圖像生成領域取得了顯著的進展。其中,單步生成器模型由於其快速推理效率、靈活的架構和先進的生成性能而備受關注。然而,現有的單步文字到圖像生成器模型存在一些局限性,例如生成的圖像與用戶提示不符、美學質量欠佳,甚至可能生成有害內容。這些問題的根源在於生成器模型沒有與人類偏好對齊。
方法介紹
DI++ 方法受到強化學習與人類反饋 (RLHF) 在大型語言模型對齊方面取得成功的啟發,將對齊問題表述為在添加積分 Kullback-Leibler 散度項以防止生成器發散的同時,最大化預期人類獎勵函數。DI++ 方法的主要貢獻包括:
首次將人類偏好對齊問題應用於單步文字到圖像生成器模型。
提出了一種基於 IKL 正則化的獎勵最大化目標函數,並推導了相應的梯度公式。
揭示了分類器自由引導 (CFG) 與 RLHF 之間的理論聯繫,表明使用 CFG 進行擴散蒸餾實際上是在執行 DI++。
通過實驗驗證了 DI++ 方法在 UNet-based 和 DiT-based 單步生成器模型上的有效性,並取得了領先的人類偏好評分。
實驗結果
論文在多個基準數據集上對 DI++ 方法進行了評估,並與其他先進的文字到圖像生成模型進行了比較。實驗結果表明,DI++ 方法可以顯著提高單步生成器模型的生成質量,使其生成的圖像更符合人類偏好。
總結
DI++ 方法為單步文字到圖像生成模型的人類偏好對齊問題提供了一種有效的解決方案。該方法具有廣泛的應用前景,可以促進更安全、更可靠、更符合人類價值觀的 AI 圖像生成技術的發展。
統計資料
DiT-based DI++ 模型在 HPSv2.0 評測中取得了 28.48 的領先分數。
DiT-DI++ 模型的 ImageReward 得分为 1.24,Aesthetic score 得分为 6.19。