HLTCOEチームは、PLAID、mT5リランカー、文書翻訳を用いて、TREC 2023 NeuCLIRトラックに参加した。PLAIDでは、様々なモデルと訓練手法を検討し、英語クエリと文書の自動翻訳を組み合わせたTranslate-Train、Translate-Distillモデルを提案した。また、マルチリンガルTranslate-Trainモデルを開発し、単一のモデルで全ての言語ペアに対応できるようにした。
大規模言語モデルを用いたゼロショット文書ランキングでは、従来の二値の関連性ラベルでは部分的に関連性のある文書を正確に区別できないが、細かな関連性ラベルを使うことで、より正確な順位付けが可能になる。
長文書類ランキングモデルの性能は、標準的なコレクションでは小さな改善しか示さないが、関連パッセージの位置バイアスが大きく変化するコレクションでは大きな差が現れる。