自己回収は、大規模言語モデル(LLMs)を活用して情報アクセス方法が変わり、IRシステムが重要な役割を果たすことを示唆しています。この論文では、自己回収というエンドツーエンドのLLM駆動型情報検索アーキテクチャが提案されています。具体的には、コーパスをLLM内部パラメータに内部化し、必要な能力を直接生成することが可能です。実験結果は、自己回収が従来のリトリーバーおよびLLMsに比べて11%のMRR@5向上を達成していることを示しています。また、RAGタスクでのエンドツーエンドのパフォーマンスも良好であり、LLMsは高信頼性かつ追跡可能な生成を実現します。
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문