多くの大規模モデルは膨大なデータセットで事前トレーニングされており、特定のタスクに対して全体のパラメータを微調整することは計算上困難であるため、研究者はパラメータ効率的な手法を開発しています。本研究では、畳み込みカーネルをフィルター原子に分解し、そのフィルター原子だけを微調整することで、タスク固有表現を抽出します。さらに、フィルター原子を再帰的に分解することで過完備なフィルター空間を生成し、必要に応じてチューニング用のパラメータ空間を拡張します。このアプローチは従来のチューニング手法よりも高い精度を実現しました。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Wei Chen,Zic... at arxiv.org 03-04-2024
https://arxiv.org/pdf/2403.00269.pdfDeeper Inquiries