本論文では、Llama-3-8B-Instructの文脈長を8Kから80Kに拡張する効率的な手法を提案している。
具体的には以下の3つの長文脈タスクのデータを、GPT-4を使って合成した:
これらの合成データ3.5Kと、RedPajamaとLongAlpacaのデータを合わせた20Kのデータセットを使ってQLoRAによる効率的な fine-tuning を行った。
fine-tuning の結果得られたLlama-3-8B-Instruct-80K-QLoRAモデルは、Needle-In-A-Haystack、トピック検索、LongBench、InfBenchなどの長文脈タスクで優れた性能を示した。一方で、MMLU のゼロショット評価では短文脈能力が若干低下したものの、他の同規模モデルよりも高い性能を維持している。
全リソース(データ、モデル、データ生成パイプライン、トレーニングコード)を公開し、長文脈LLMの研究を促進する。
In eine andere Sprache
aus dem Quellinhalt
arxiv.org
Wichtige Erkenntnisse aus
by Peitian Zhan... um arxiv.org 05-01-2024
https://arxiv.org/pdf/2404.19553.pdfTiefere Fragen