Core Concepts
英語のみのデータでチューニングされた大規模言語モデルでも、適切な設定とデータサイズがあれば、他言語の命令に対しても正しい言語で、包括的で有用な応答を生成できる。ただし、事実性の低さが課題となる。
Abstract
本研究は、大規模言語モデル(LLM)の命令チューニング(IT)における言語間ゼロショット転移を系統的に調査している。
主な発見点は以下の通り:
英語のみのデータでチューニングされたLLMでも、適切な設定とデータサイズがあれば、他言語の命令に対して正しい言語で、包括的で有用な応答を生成できる。
ただし、事実性の低さが課題となる。また、稀に言語の誤り、流暢性の低さ、論理的な矛盾などが見られる。
多言語ベースモデルの使用や、多言語ITデータの利用は、言語の正確さと流暢さを改善するが、事実性の向上には繋がらない。
ITデータサイズが小さいと、英語への過剰適応が起こり、他言語への転移が大幅に低下する。
ハイパーパラメータ、特に学習率の調整が、多言語ITの成功に重要な役割を果たす。
本研究は、LLMの多言語命令理解能力を深く分析し、今後の研究の方向性を示唆している。
Stats
英語で命令チューニングされたLLMでも、他言語の命令に対して正しい言語で応答できる割合は65%である。
命令の言語を指定する修飾子は、英語では80%、他言語では79%の確率で正しく実行される。
出力をHTML形式で書くよう指示すると、英語では57%、他言語では14%しか正しく実行されない。
Quotes
"英語のみのデータでチューニングされたLLMでも、適切な設定とデータサイズがあれば、他言語の命令に対して正しい言語で、包括的で有用な応答を生成できる。"
"ただし、事実性の低さが課題となる。また、稀に言語の誤り、流暢性の低さ、論理的な矛盾などが見られる。"