Core Concepts
RAG models reduce generation risks with conformal risk analysis.
Abstract
大規模言語モデル(LLM)の印象的な能力にもかかわらず、信頼性の問題が存在し、Retrieval-augmented language models(RAG)は外部知識を基に生成を向上させることが示されている。本論文では、C-RAGフレームワークを提案し、RAGモデルの生成リスクを証明する。具体的には、RAGは単一のLLMよりも低い生成リスクを達成し、様々なNLPデータセットでその有効性を実証している。
Stats
RAGは単一のLLMよりも低いconformal generation riskを達成する。
C-RAGは外部知識からのin-context学習によって生成リスクを効果的に軽減する。
多次元RAG構成はsound and tightなconformal generation risksを維持する。