Core Concepts
データ分割戦略の違いが、新しいテストデータに対するモデルの一般化性に大きな影響を与える。ランダムな分割は、個々のモデルの性能と順位の一般化性を高める。
Abstract
本研究は、19の言語から成る多様なデータセットを用いて、データ分割戦略が形態論的分割モデルの一般化性に与える影響を調査した。主な知見は以下の通り:
ランダムな分割は、新しいテストデータに対するモデルの数値的な性能を正確に推定し、より良い性能を示す。一方、敵対的な分割は、テストデータに対するモデルの性能を過小評価する。
ランダムな分割は、モデルの順位付けの一般化性をより高める。すなわち、評価セットでの順位付けが新しいテストデータでも安定して維持される。
これらの傾向は、新しいテストデータが元のトレーニングデータと大きく異なる場合により顕著に現れる。
総合的に、ランダムな分割は、新しいデータに対するモデルの一般化性を高める上で、より適切な戦略であると示唆される。
Stats
新しいテストデータに対するモデルの性能は、ランダムな分割の方が敵対的な分割よりも高い。
新しいテストデータに対するモデルの順位付けは、ランダムな分割の方が敵対的な分割よりも一般化性が高い。