本論文では、AdapterSwapと呼ばれる手法を提案している。AdapterSwapは、大規模言語モデル(LLM)の継続学習を実現するパラメータ効率的なアプローチである。主な特徴は以下の通り:
実験では、4種類の大規模言語モデルを用いて、アクセス制御、データ削除、忘却への対処能力を確認した。結果、AdapterSwapが効率的な継続学習を実現し、従来手法よりも優れた性能を示すことが分かった。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by William Fles... at arxiv.org 04-15-2024
https://arxiv.org/pdf/2404.08417.pdfDeeper Inquiries