本研究は、言語モデルが生成コンテキストと検索コンテキストを統合する際の課題を明らかにすることを目的としている。
まず、生成コンテキストと検索コンテキストが矛盾する質問-コンテキストのデータセットを構築した。これにより、言語モデルの出力がどちらのコンテキストに由来するかを追跡できる。
実験の結果、GPT-4/3.5やLlama2といった言語モデルは、生成コンテキストを検索コンテキストよりも過度に重視する傾向が明らかになった。この偏りの主な要因として、以下の2点が明らかになった:
一方で、言語モデルの内部知識との整合性(確認バイアス)は、この偏りの主要因ではないことが示された。
本研究の分析結果は、言語モデルによる多様なコンテキストの統合メカニズムの理解を深め、現行の言語モデル拡張手法の改善につながる重要な洞察を提供する。
לשפה אחרת
מתוכן המקור
arxiv.org
תובנות מפתח מזוקקות מ:
by Hexiang Tan,... ב- arxiv.org 03-27-2024
https://arxiv.org/pdf/2401.11911.pdfשאלות מעמיקות