本研究では、In-Context Tuning (ICT)を活用した新しい手法「In-Context Cross-lingual Transfer (IC-XLT)」を提案している。
まず、ソース言語(英語)でICTを用いてモデルを学習する。次に、ターゲット言語のワンショットデモンストレーションを入力に付加することで、推論時にターゲット言語への適応を行う。
実験の結果、IC-XLTはゼロショットおよびフューショットの多言語テキスト分類タスクにおいて、従来手法よりも優れた性能を示した。特に、ソース言語のデータが限られる場合でも、IC-XLTはターゲット言語のデモンストレーションを効果的に活用し、高い精度を達成できることが分かった。
また、ターゲット言語のデータ量が少ない場合でも、IC-XLTはより大量のソース言語データを使う従来手法と同等の性能を発揮できることが示された。
翻譯成其他語言
從原文內容
arxiv.org
深入探究