本論文は、大規模言語モデル(LLM)の継続的事前学習を行うLLM-ADEフレームワークを提案している。LLM-ADEは、モデル内部の重要なブロックを選択的に微調整・拡張することで、新しいデータを効率的に統合しながら既存の知識を保持する。
具体的には以下の手順を踏む:
LLM-ADEは、リソース効率的かつ堅牢な継続学習を実現し、大規模言語モデルの実用性を高める有望なアプローチである。
Sang ngôn ngữ khác
từ nội dung nguồn
arxiv.org
Thông tin chi tiết chính được chắt lọc từ
by Stephen Choi... lúc arxiv.org 04-22-2024
https://arxiv.org/pdf/2404.13028.pdfYêu cầu sâu hơn