情報の急速な生成と普及により、大規模言語モデル(LLM)は巨額の開発コストにもかかわらずすぐに時代遅れになります。この重要なニーズに対処するため、オンライン学習が実世界アプリケーションでLLMを利用する際の重要性が高まっています。しかし、未知の文書コーパスと現代LLMの大きなパラメータ空間を考慮すると、効率的な適応が不可欠です。これらの課題に対処するため、強力な知識保持を備えたLLM向けの効率的かつ効果的なオンライン適応フレームワークであるMemory of Amortized Contexts(MAC)が提案されています。MACは新しい文書から情報を抽出し、記憶銀行に格納されたコンパクト変調から関連情報を取得します。また、アモーティゼーションベースのメタ学習を利用して情報変調を学習し、質問に基づいて文書を集約して単一変調に適応します。
翻译成其他语言
从原文生成
arxiv.org
更深入的查询