この研究では、大規模言語モデル(LLM)のテキスト書き換え能力を活用し、機械翻訳(MT)の出力に対して外部からのフィードバックを与えることで、MT の品質を向上させる方法を提案している。
具体的には以下の点が明らかになった:
プロンプティングによって、様々なタイプのフィードバック(一般的なフィードバック、スコアベースのフィードバック、細粒度のフィードバック)を与えることで、自動評価指標上で一貫した改善が見られた。特に10ショットのプロンプティングでは、モデルサイズの違いによる性能差が縮小した。
細粒度のフィードバックを使ったファインチューニングにより、自動評価指標と人間評価の両方で大幅な改善が得られた。ファインチューニングにより、LLMがフィードバックを効果的に活用できるようになった。
分析の結果、ファインチューニングされたモデルは、プロンプトで指摘された誤りを修正するだけでなく、より自然な翻訳出力を生成することが分かった。
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Dayeon Ki,Ma... at arxiv.org 04-12-2024
https://arxiv.org/pdf/2404.07851.pdfDeeper Inquiries