Core Concepts
本論文では、相互パッセージ注意を用いた新しいクロスエンコーダ「Set-Encoder」を提案する。Set-Encoderは、パッセージ間の相互作用を順列不変に捉えることができ、かつ効率的な学習と推論が可能である。
Abstract
本論文では、クロスエンコーダによるパッセージ再ランキングの課題に取り組んでいる。従来のクロスエンコーダは、パッセージ間の相互作用をモデル化できるが、入力パッセージの順序に依存してしまうという問題があった。
そこで本論文では、新しいクロスエンコーダ「Set-Encoder」を提案している。Set-Encoderは、パッセージを並列に処理し、各パッセージの特殊トークン[CLS]間の相互注意を用いることで、パッセージ間の相互作用を順列不変に捉えることができる。
さらに、Set-Encoderはfused-attention kernelを用いることで、より多数のパッセージを効率的に処理できる。
実験の結果、Set-Encoderは従来のクロスエンコーダと同等の性能を示しつつ、パラメータ数が大幅に少ない。また、順列不変性により、複数の入力順列を再ランキングする必要がなくなるため、より効率的な推論が可能となる。
Stats
提案手法Set-Encoderは、従来のクロスエンコーダと同等の性能を示しつつ、パラメータ数が大幅に少ない。
Set-Encoderは順列不変性を持つため、複数の入力順列を再ランキングする必要がなくなり、より効率的な推論が可能となる。
Quotes
"Set-Encoder: Permutation-Invariant Inter-Passage Attention for Listwise Passage Re-Ranking with Cross-Encoders"
"Cross-encoders are effective passage re-rankers. But when re-ranking multiple passages at once, existing cross-encoders inefficiently optimize the output ranking over several input permutations, as their passage interactions are not permutation-invariant."
"To tackle these issues, we propose the Set-Encoder, a new cross-encoder architecture that (1) introduces inter-passage attention with parallel passage processing to ensure permutation invariance between input passages, and that (2) uses fused-attention kernels to enable training with more passages at a time."