本論文は、事前学習済みビジョントランスフォーマーをダウンストリームタスクに効果的に適応させるためのパラメータ効率的なファインチューニング手法を提案している。
まず、特異値分解(SVD)の観点から既存のPEFT手法を分析し、事前学習モデルの一般化能力の保持と効果的なタスク適応の間のトレードオフを明らかにした。
その上で、Residual-based Low-Rank Rescaling (RLRR)と呼ばれる新しい手法を提案した。RLRRは、事前学習済みパラメータ行列を凍結したうえで、低ランクベースの再スケーリングと移動を行う。これにより、パラメータ調整の柔軟性を高めつつ、事前学習モデルからの過度の逸脱を防ぐことができる。
広範な実験の結果、RLRRは既存手法と比較して優れた性能を示し、かつ新規パラメータ数も抑えられることが確認された。これは、事前学習モデルの一般化能力の保持と効果的なタスク適応のバランスを取ることができたことを示唆している。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Wei Dong,Xin... at arxiv.org 03-29-2024
https://arxiv.org/pdf/2403.19067.pdfDeeper Inquiries