本論文では、AdapterSwapと呼ばれる手法を提案している。AdapterSwapは、大規模言語モデル(LLM)の継続学習を実現するパラメータ効率的なアプローチである。主な特徴は以下の通り:
実験では、4種類の大規模言語モデルを用いて、アクセス制御、データ削除、忘却への対処能力を確認した。結果、AdapterSwapが効率的な継続学習を実現し、従来手法よりも優れた性能を示すことが分かった。
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by William Fles... klokken arxiv.org 04-15-2024
https://arxiv.org/pdf/2404.08417.pdfDypere Spørsmål