Core Concepts
大規模言語モデルを検索増強生成に最適化するための情報洗練トレーニング方法を提案します。
Abstract
この論文では、大規模言語モデル(LLMs)の訓練が検索されたテキストを効果的に活用する方法を明確にし、RAGシステムの性能向上を実証しています。INFO-RAGは、ゼロショット予測で11つのデータセットで広範なタスクでLLaMA2のパフォーマンスを平均9.39%向上させます。INFO-RAGは、コンテキスト学習とRAGの堅牢性でも優位性を示し、SOTA RAGフレームワークと組み合わせてそのパフォーマンスをさらに向上させることができます。
Stats
INFO-RAGはLLaMA2のパフォーマンスを平均9.39%向上させました。
INFO-RAGは11つのデータセットで広範なタスクで使用されました。
INFO-RAGはコード生成タスクでも優れた結果を示しました。
INFO-RAGはゼロショット予測において有利な結果をもたらしました。
INFO-RAGはコンテキスト学習とRAGの堅牢性でも優位性を示しました。
Quotes
"Retrieval-augmented generation (RAG) enhances large language models (LLMs) by incorporating additional information from retrieval."
"We propose an information refinement training method named INFO1-RAG that optimizes LLMs for RAG in an unsupervised manner."
"Our paper aims to fundamentally improve the ability of LLMs to utilize retrieved texts while preserving the generalizability of LLMs for various RAG tasks in zero-shot setting."