大規模な言語モデル(LLMs)の訓練において、指示データの複雑性が重要であり、Tree-Instruct方法は指示データの複雑性を効果的に向上させることが示された。この手法は、指示データを操作する際に木構造を使用することで、元のガイダンスフレームワーク内で効果的に変更を行うことが可能である。実験結果から、指示データの複雑性が増すほど、大規模言語モデルの能力も向上し、少数の複雑な指示が多数の単純な指示よりも優れた結果をもたらすことが確認された。また、カリキュラム学習は効果的ではなく、単純なサンプルよりも複雑なサンプルに焦点を当てる方が良い結果をもたらすことが明らかになった。
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Yingxiu Zhao... о arxiv.org 03-01-2024
https://arxiv.org/pdf/2308.05696.pdfГлибші Запити