核心概念
密集検索モデルの性能は、モデルサイズと学習データサイズに関する明確な累乗則に従うことが明らかになった。
要約
本研究は、密集検索モデルのスケーリング効果を調査したものである。
密集検索モデルの性能を評価するために、対比的パープレキシティを提案した。これは、検索結果の順位付けロスと同様の構造を持ち、連続的な値を出力するため、スケーリング則の分析に適している。
様々なサイズのモデルと学習データを用いた実験を行った結果、密集検索モデルの性能はモデルサイズと学習データサイズに関する明確な累乗則に従うことが明らかになった。
データ拡張手法を用いて学習データの品質を変化させた実験も行い、提案したスケーリング則が学習データの品質に依らず成り立つことを示した。
得られたスケーリング則を用いて、リソース制約下での最適なモデルサイズと学習データサイズの割り当て方法を示した。
統計
密集検索モデルの性能は、モデルサイズ𝑁に対して𝐿(𝑁) = 𝐴/𝑁^𝛼 + 𝛿𝑁の累乗則に従う。
密集検索モデルの性能は、学習データサイズ𝐷に対して𝐿(𝐷) = 𝐵/𝐷^𝛽 + 𝛿𝐷の累乗則に従う。