Belangrijkste concepten
IntLoRA 透過引入整數低秩參數,實現了量化擴散模型的高效微調,同時在模型精度和效率之間取得了平衡。
Samenvatting
文獻資訊
- 標題:IntLoRA: Integral Low-rank Adaptation of Quantized Diffusion Models
- 作者:Hang Guo, Yawei Li, Tao Dai, Shu-Tao Xia, Luca Benini
- 機構:清華大學、蘇黎世聯邦理工學院、深圳大學、鵬城實驗室
- 版本:預印本版本
研究目標
本研究旨在解決大型文字到圖像擴散模型微調效率低下的問題,特別是在個人化定制和資源受限的環境下。
方法
- IntLoRA:提出了一種名為 IntLoRA 的新型整數低秩適應方法,利用整數類型的低秩參數來適應量化擴散模型。
- 適應量化分離(AQS):採用任務無關的輔助矩陣,在不破壞原始 LoRA 梯度軌跡的情況下,實現量化友好的低秩參數。
- 乘法低秩適應(MLA):將 LoRA 的數學結構從加法重新表述為乘法,允許獨立優化適應權重,無需與預訓練權重共享相同的量化器。
- 方差匹配控制(VMC):對齊預訓練矩陣和輔助矩陣的方差,控制適應分佈,以實現更有效的 log2 量化。
- IntLoRA 的兩種實現:
- IntLoRAMUL:學習量化的低秩參數,並通過整數乘法與量化的預訓練權重無縫合併。
- IntLoRASHIFT:引入 log2 量化,並通過對量化的預訓練權重進行位移來進行下游適應。
主要發現
- IntLoRA 在多個下游適應任務上,包括主題驅動生成、風格定制生成和可控生成,均取得了與原始 LoRA 相當甚至更好的性能。
- IntLoRA 在模型微調、存儲和推理方面均顯著提高了效率。
- IntLoRA 能夠在低比特寬度量化設置下保持良好的性能,而現有方法在這種情況下通常會出現顯著的性能下降。
主要結論
IntLoRA 為量化擴散模型的微調提供了一種新穎且高效的範例,在保持良好性能的同時顯著提高了效率,使其更適用於個人化定制和資源受限的環境。
局限與未來研究
- 本研究主要關注權重量化,未來可以進一步探索激活量化。
- IntLoRA 的性能受到輔助矩陣分佈選擇的影響,未來可以進一步研究更優的策略。
- 未來可以將 IntLoRA 應用於其他類型的生成模型,例如大型語言模型。
Statistieken
IntLoRAMUL 在 4 位元設置下,於主題驅動生成任務中,DINO 分數比 IR-QLoRA 高出 0.1190。
IntLoRAMUL 在 4 位元分割到圖像任務中,FID 分數比 IR-QLoRA 低 4.96。
在 SDXL 骨幹 4 位元量化設置下,IntLoRA 的適應權重採用 INT 類型,顯著降低了存儲成本。
Citaten
"To address this inconsistency, a potential solution is to also transfer the adaptation weights to integer arithmetic."
"The contribution of this work can be summarized as follows: (i) we introduce IntLoRA, which achieves integer PEFT to address the arithmetic inconsistency, thereby advancing the efficiency of diffusion model adaptations; (ii) we propose the adaptation-quantization separation to facilitate quantization-friendly pre-trained weights, and further develop the multiplicative low-rank adaptation for independent quantizers, complemented by variance matching control for effective distribution manipulation; (iii) our IntLoRA enables the adaptation of quantized diffusion models through hardware-friendly integer multiplication or bit-shifting, resulting in significant efficiency gains in fine-tuning, storage, and inference. Extensive experiments validate the superiority of our method."