核心概念
多言語大言語モデル(LLM)を用いて、低リソース言語の翻訳性能を向上させる手法Mufu(Multilingual Fused Learning)を提案する。Mufu prompts では、複数の多言語翻訳候補と校正対象を組み合わせることで、LLMに対して翻訳の推論と校正を行わせる。これにより、低リソース言語の翻訳精度を大幅に向上させることができる。
摘要
本研究では、低リソース言語翻訳のためのMufu(Multilingual Fused Learning)手法を提案している。
Mufu prompts では、以下の要素を含む:
LLMは、これらの情報を活用して、入力の品質評価、多言語間の意味合わせ、関連する入力からの抜粋、不適切な箇所の修正などの推論を行う。これにより、低リソース言語の翻訳精度が大幅に向上する。
実験では、Mufu prompts を用いてファインチューニングしたモデルが、教師モデルや既存の大規模翻訳モデルを上回る性能を示した。特に低リソース言語の翻訳において顕著な改善が見られた。また、蒸留によりモデルの推論コストを下げつつ、低リソース言語翻訳の性能を維持できることも示された。
本手法は、多言語推論の応用例として位置づけられ、低リソース言語の支援に貢献できる可能性がある。ただし、補助翻訳の品質が極端に低い場合は性能が低下するなどの課題も残されている。
統計資料
提案された修正案は2011年に両院で可決された。
提案された修正案は2011年に両院で承認された。
提案された修正案は2011年に両院で通過した。
提案された修正案は2011年に両院で承認された。
提案された修正案は2011年に両院で可決された。
提案された修正案は2011年に両院で承認された。
引述
"Mufu prompts では、複数の多言語翻訳候補と校正対象を組み合わせることで、LLMに対して翻訳の推論と校正を行わせる。"
"Mufu は、低リソース言語の翻訳精度を大幅に向上させることができる。"
"Mufu prompts を用いてファインチューニングしたモデルが、教師モデルや既存の大規模翻訳モデルを上回る性能を示した。"