核心概念
大規模言語モデルを用いたゼロショット文書ランキングでは、従来の二値の関連性ラベルでは部分的に関連性のある文書を正確に区別できないが、細かな関連性ラベルを使うことで、より正確な順位付けが可能になる。
摘要
本研究では、大規模言語モデルを用いたゼロショット文書ランキングにおいて、従来の二値の関連性ラベル(「関連」「非関連」)ではなく、「高関連」「やや関連」「非関連」といった細かな関連性ラベルを使うことを提案している。
具体的には以下の通り:
- 従来の二値の関連性ラベルでは、部分的に関連性のある文書を正確に区別できないが、細かな関連性ラベルを使うことで、より正確な順位付けが可能になる。
- 細かな関連性ラベルを使うことで、言語モデルがより微妙な関連性の違いを捉えられるようになる。
- 実験の結果、細かな関連性ラベルを使うことで、従来手法に比べて順位付けの精度が大幅に向上することが示された。
- 特に、上位の文書を正確に区別できるようになることが、精度向上の主な要因と考えられる。
统计
従来の二値の関連性ラベルでは、部分的に関連性のある文書を正確に区別できない。
細かな関連性ラベルを使うことで、より微妙な関連性の違いを捉えられるようになる。
実験の結果、細かな関連性ラベルを使うことで、従来手法に比べて順位付けの精度が大幅に向上した。
引用
"Studies on human subjects show that using binary options sometimes leads to biased answers (Rivera-Garrido et al., 2022). Instead, providing reasonably fine-grained options can lead to more reliable results (Roitero et al., 2018; Birkett, 1986; Rivera-Garrido et al., 2022; Johnston et al., 2017)."
"Our evaluation on 8 BEIR (Thakur et al., 2021) datasets demonstrates that simply adding intermediate relevance labels significantly boosts LLM ranking performance across different datasets, regardless of the actual ground-truth label granularity."