本論文では、パラメータ効率的なファインチューニング(PEFT)の新しい手法であるSynapse & Neuron (SAN)を提案している。SAN は、現在の層の特徴に対する調整を次の層のパラメータにも伝播させることで、より効率的で汎用的なファインチューニングを実現する。
具体的には、SAN は各層の出力に対する学習可能なスケーリング係数を導入し、これを次の層のパラメータにも適用する。これは、生物学的神経ネットワークにおける長期増強(LTP)と長期抑圧(LTD)の現象に着想を得たものである。
SAN の特徴は以下の通り:
SAN は、ViT、Swin Transformer、ConvNeXtなどの様々なバックボーン上で優れた性能を示し、パラメータ効率も高い。これらの結果から、SAN が PEFT の新しい強力なアプローチであることが示された。
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Gaole Dai, Y... klokken arxiv.org 09-12-2024
https://arxiv.org/pdf/2409.06706.pdfDypere Spørsmål