多くの大規模モデルは膨大なデータセットで事前トレーニングされており、特定のタスクに対して全体のパラメータを微調整することは計算上困難であるため、研究者はパラメータ効率的な手法を開発しています。本研究では、畳み込みカーネルをフィルター原子に分解し、そのフィルター原子だけを微調整することで、タスク固有表現を抽出します。さらに、フィルター原子を再帰的に分解することで過完備なフィルター空間を生成し、必要に応じてチューニング用のパラメータ空間を拡張します。このアプローチは従来のチューニング手法よりも高い精度を実現しました。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問