大規模言語モデルを使って、外部からのフィードバックに基づいて機械翻訳の出力を改善することができる。
ロシア・ウクライナ戦争の影響を軽減するために、ウクライナ語とチェコ語の間の機械翻訳システム「Charles Translator」を開発した。
深層LSTMを用いることで、Transformerの層間の情報統合を選択的に管理し、パフォーマンスの向上と収束性の確保を実現する。
検索手法の違いが、さまざまな機械翻訳アーキテクチャの翻訳性能に及ぼす影響を体系的に分析した。
大型言語モデルの出現により、機械翻訳分野に新しい局面が訪れている。これらのモデルは言語理解力が豊富であり、プロンプトベースの手法など革新的な手法も提供するため、機械翻訳の更なる向上に寄与する可能性がある。
最小ベイズリスク復号の性能は、サンプルが真の分布をどの程度近似しているかに依存する。
カザフ語、英語、ロシア語、トルコ語の4言語間の機械翻訳のために開発された大規模パラレルコーパス「KazParC」を紹介し、それを使用して開発された高性能な機械翻訳モデル「Tilmash」の性能を報告する。
文法的な類似性に基づいて文脈例を選択することで、機械翻訳の性能を向上させることができる。
バックトランスレーションは理論的には一般的に機能しないはずだが、言語間の深い類似性によって実際には成功する。
多言語翻訳モデルの表現は、対応する二言語翻訳モデルの表現と比べて、より少ない次元を利用している。これは、多言語翻訳モデルが言語固有の情報をより多く表現する必要があるためと考えられる。