核心概念
大規模言語モデル(LLM)のファインチューニングにおいて、勾配ブースティングとランク1適応を組み合わせた新しいフレームワーク「XGBLoRA」は、従来のLoRAよりも少ないパラメータで同等以上の性能を実現する。
要約
XGBLoRA: LLM効率的なファインチューニングのための極端な勾配ブースティングランク1適応
本論文では、大規模言語モデル(LLM)のファインチューニングにおいて、パラメータ効率と性能の両立を目指す新しいフレームワーク、eXtreme Gradient Boosting LoRA (XGBLoRA)を提案する。
LLMは自然言語処理において目覚ましい成果を収めているが、その巨大なパラメータ数は、ファインチューニングにおける計算コストやメモリ使用量の増大という課題をもたらす。この課題に対処するため、パラメータ効率の高いファインチューニング(PEFT)手法が注目されている。中でも、LoRAは、事前学習済みモデルの重みを凍結し、低ランク行列を導入することで、パラメータ数を大幅に削減しながらモデルを新しいタスクに適応させることができる。
しかし、LoRAは、効率性と有効性のジレンマに直面している。任意のターゲット行列に適合させるためには、適応行列のランクは埋め込みサイズの半分以上である必要がある。しかし実際には、性能と効率のバランスを取るために、はるかに小さいランクが使用されることが多い。この理論上の最適値と実際の使用法との間のずれは、性能のギャップにつながる。ランクを上げて上記の理論的要件を満たすと、メモリ使用量と計算の複雑さが増し、LoRAを使用するメリットが薄れてしまう。