本論文では、パラメータ効率的なファインチューニング(PEFT)手法の新しいパラダイムとして、直接的な更新変換(UT)パラダイムを提案している。UTパラダイムでは、オリジナルのパラメータと更新パラメータの間の相関を保ちつつ、パラメータを直接的に更新する。
具体的な手法としてHadamard更新変換(HUT)を提案している。HUTは、2つの低ランク行列を用いたHadamard変換を使って、オリジナルの重み行列を効率的に更新する。これにより、より表現力の高い更新メカニズムを実現しつつ、計算量を大幅に削減できる。
理論的な分析と、RoBERTaとGPT-2を用いた広範な実験により、HUTの有効性が示されている。HUTは、他のPEFT手法と比べて同等以上の性能を示しつつ、計算量を大幅に削減できることが確認された。
Vers une autre langue
à partir du contenu source
arxiv.org
Questions plus approfondies