Core Concepts
大規模言語モデルの力を活用し、反復的なプロセスを通じて、より自然な翻訳と校正を実現する。
Abstract
本研究では、大規模言語モデル(LLM)を活用した反復的な翻訳の洗練手法を提案している。
LLMを用いて翻訳を行い、その翻訳結果を入力として再度LLMに問い合わせることで、翻訳の質を向上させる。
複数回の反復を通じて、文字列ベースの評価指標は低下するものの、ニューラルネットワークベースの評価指標は同等以上の結果を示す。
人間評価では、初期のLLM翻訳や人間翻訳参照よりも、洗練された出力の方が「翻訳調」が低減されていることが示された。
洗練プロセスを初期翻訳と合理的な初期訳に基づいて行うことの重要性が確認された。
Stats
新しい規制では、カンパニア州の屋内公共施設でマスクの着用が義務付けられ、違反者には最大1000ユーロの罰金が科される。
GPTの初期翻訳は文字列ベースの評価指標が高いが、ニューラルネットワークベースの評価指標は洗練された出力と同等以上の結果を示す。
人間評価では、洗練された出力の方が「翻訳調」が低減されていることが示された。
Quotes
「大規模言語モデルは、指示の理解と自然言語タスクの実行において驚くべき性能を示してきた。」
「反復的な翻訳の洗練により、単なる翻訳を超えてより自然な翻訳と校正を実現できることを示す。」
「洗練プロセスを初期翻訳と合理的な初期訳に基づいて行うことの重要性が確認された。」