核心概念
中国語の言語的最小ペアの大規模ベンチマークであるZhoBLiMPを用いた評価により、言語モデルは、約5億パラメータのモデルと10億トークンの訓練データで、中国語の文構造の大部分を学習できることが示された。
要約
ZhoBLiMP:中国語における言語モデルの言語的最小ペアを用いた体系的評価
Liu, Y., Shen, Y., Zhu, H., Xu, L., Qian, Z., Song, S., ... & Hu, H. (2024). ZhoBLiMP: a Systematic Assessment of Language Models with Linguistic Minimal Pairs in Chinese. arXiv preprint arXiv:2411.06096.
本研究では、大規模言語モデル(LLM)が中国語の文法をどの程度習得しているかを、広範囲な言語現象をカバーする新しいベンチマークデータセットを用いて評価することを目的とする。