本論文では、Llama-3-8B-Instructの文脈長を8Kから80Kに拡張する効率的な手法を提案している。
具体的には以下の3つの長文脈タスクのデータを、GPT-4を使って合成した:
これらの合成データ3.5Kと、RedPajamaとLongAlpacaのデータを合わせた20Kのデータセットを使ってQLoRAによる効率的な fine-tuning を行った。
fine-tuning の結果得られたLlama-3-8B-Instruct-80K-QLoRAモデルは、Needle-In-A-Haystack、トピック検索、LongBench、InfBenchなどの長文脈タスクで優れた性能を示した。一方で、MMLU のゼロショット評価では短文脈能力が若干低下したものの、他の同規模モデルよりも高い性能を維持している。
全リソース(データ、モデル、データ生成パイプライン、トレーニングコード)を公開し、長文脈LLMの研究を促進する。
Til et annet språk
fra kildeinnhold
arxiv.org
Viktige innsikter hentet fra
by Peitian Zhan... klokken arxiv.org 05-01-2024
https://arxiv.org/pdf/2404.19553.pdfDypere Spørsmål