Core Concepts
外部コンテキストに敏感な言語モデルを使用して、個人化された翻訳を実現する方法を探求します。
Abstract
この記事は、外部コンテキストに敏感な言語モデルを使用して、個人化された翻訳の文脈特異性を評価する方法に焦点を当てています。豊富なキャラクターと映画の注釈を活用して、スケーラブルな方法でLM(言語モデル)を個人化することが可能かどうかも検討されています。結果は、非文脈的モデルと比較してパープレキシティが最大6.5%低下し、メタデータ経由で表現される人口統計学的特徴の組み合わせによって一般化されることが示されました。さらに、専門家や機械翻訳で使用される仮説トークンの文脈特異性を測定するために個人化LMが使用されました。その結果、専門家の翻訳が文脈固有である程度保存されることが示唆されました。
Stats
パープレキシティが最大6.5%低下しました。
2つのコーパス全体で一貫した結果が得られました。
個人化LMは専門家や機械翻訳で使用される仮説トークンの文脈特異性を測定するために利用されました。
Quotes
"外部コンテキストへの適応は、個々のダイアログにおけるユニークな対話内容への予測精度向上を提供します。"
"メタデータ情報はNLPタスク(分類や翻訳)向上に役立つことが示唆されています。"
"我々は豊富なメタデータ情報を活用したLM(言語モデル)開発および評価手法に取り組んでいます。"