本論文は、大規模言語モデル(LLM)の継続的事前学習を行うLLM-ADEフレームワークを提案している。LLM-ADEは、モデル内部の重要なブロックを選択的に微調整・拡張することで、新しいデータを効率的に統合しながら既存の知識を保持する。
具体的には以下の手順を踏む:
LLM-ADEは、リソース効率的かつ堅牢な継続学習を実現し、大規模言語モデルの実用性を高める有望なアプローチである。
إلى لغة أخرى
من محتوى المصدر
arxiv.org
الرؤى الأساسية المستخلصة من
by Stephen Choi... في arxiv.org 04-22-2024
https://arxiv.org/pdf/2404.13028.pdfاستفسارات أعمق