Temel Kavramlar
ゼロショット文脈学習では、事前学習された大規模言語モデルが与えられた指示のみで課題を実行できる現象が知られている。しかし、これらのモデルは、ゼロショットタスクに対して適切に較正されていないことが知られている。この問題に対処するための最も効果的なアプローチの1つは、対照的な復号目的関数を採用することである。本研究では、機械翻訳の弱点に対処するために設計された指数関数的減衰を伴う反言語モデル目的関数を提案する。
Özet
本研究では、ゼロショット機械翻訳の性能を改善するための反言語モデル(Anti-LM)復号手法を提案している。
まず、ゼロショット文脈学習では、事前学習された大規模言語モデルが指示のみで課題を実行できる現象が知られているが、これらのモデルはゼロショットタスクに対して適切に較正されていないことが問題となっている。
対照的な復号目的関数は、この問題に対処するための最も効果的なアプローチの1つである。本研究では、機械翻訳の弱点に対処するために設計された指数関数的減衰を伴う反言語モデル(Anti-LM)目的関数を提案している。
この手法は、テスト入力文xに直接基づいて対照的な対数尤度を計算し、それを生成確率から減算することで、ソース言語の継続を抑制する。また、減衰係数を導入することで、将来の生成ステップでの影響を徐々に減らしていく。
提案手法は、3つのモデルタイプ、3つの言語方向、グリーディー復号とビームサーチの両方で評価されている。その結果、提案手法は他の最先端の復号目的関数よりも優れており、一部の設定では標準の目的関数から最大20 BLEUポイントの改善が得られることが示された。
İstatistikler
提案手法は、標準の目的関数から最大20 BLEUポイントの改善を達成した。
提案手法は、他の最先端の復号目的関数よりも優れた性能を示した。