Core Concepts
文脈ワンショットデモンストレーションを活用することで、ターゲット言語への適応性を向上させ、ゼロショットおよびフューショットの多言語テキスト分類タスクにおいて優れた性能を発揮する。
Abstract
本研究では、In-Context Tuning (ICT)を活用した新しい手法「In-Context Cross-lingual Transfer (IC-XLT)」を提案している。
まず、ソース言語(英語)でICTを用いてモデルを学習する。次に、ターゲット言語のワンショットデモンストレーションを入力に付加することで、推論時にターゲット言語への適応を行う。
実験の結果、IC-XLTはゼロショットおよびフューショットの多言語テキスト分類タスクにおいて、従来手法よりも優れた性能を示した。特に、ソース言語のデータが限られる場合でも、IC-XLTはターゲット言語のデモンストレーションを効果的に活用し、高い精度を達成できることが分かった。
また、ターゲット言語のデータ量が少ない場合でも、IC-XLTはより大量のソース言語データを使う従来手法と同等の性能を発揮できることが示された。
Stats
ターゲット言語のデータ量が少ない場合でも、IC-XLTはゼロショットおよびフューショットの多言語テキスト分類タスクにおいて高い精度を達成できる。
IC-XLTは、ソース言語のデータ量が限られる場合でも、従来手法と同等の性能を発揮できる。
Quotes
"IC-XLTは、ターゲット言語のデモンストレーションを効果的に活用し、ゼロショットおよびフューショットの多言語テキスト分類タスクにおいて優れた性能を発揮する。"
"特に、ソース言語のデータが限られる場合でも、IC-XLTはターゲット言語のデモンストレーションを活用し、高い精度を達成できる。"
"IC-XLTは、ターゲット言語のデータ量が少ない場合でも、従来手法と同等の性能を発揮できる。"