本研究では、20以上の最新のTransformerモデルを用いた長文書類ランキングの包括的な評価を行った。MS MARCO Documentsコレクションとロバスト04コレクションを使用し、FirstPベースラインと比較した。
初期の実験では、長文書類ランキングモデルはFirstPに劣るか、せいぜい5%程度の改善しか示さなかった。この原因を分析したところ、関連パッセージが文書の先頭に集中する位置バイアスが存在することが分かった。
そこで、関連パッセージが文書の先頭512トークン以降に存在するMS MARCO FarRelevantコレクションを新たに作成した。このコレクションを用いた実験では、以下の知見が得られた:
これらの結果は、位置バイアスが長文書類の処理による恩恵を減じるだけでなく、モデルのバイアス学習を招き、分布シフトのある状況でのゼロショット性能を大幅に低下させることを示唆している。
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Leonid Boyts... om arxiv.org 03-27-2024
https://arxiv.org/pdf/2207.01262.pdfDiepere vragen