本研究では、リソース不足のアフリカ言語に対するCOMETメトリックの強化に取り組む。非専門家向けの簡略化されたMQMアノテーションガイドラインを作成し、13の言語を対象とした機械翻訳評価データセットAFRIMTEを作成した。さらに、リソース豊富な言語からの転移学習と、アフリカ言語に特化したマルチリンガルプリトレーンモデルを活用して、アフリカ言語の機械翻訳評価(AFRICOMET)とリファレンスフリーの品質推定(AFRICOMET-QE)のベンチマークシステムを構築した。
大規模言語モデルを活用して、英語とインド言語の機械翻訳の品質を参照なしで評価する手法を提案する。
文脈情報を利用することで、参照なしの機械翻訳評価指標の性能を大幅に向上させることができる。
人間評価の安定性を高めるための最適な設定を明らかにし、機械翻訳の評価に適用することで、信頼性の高い人間評価を実現する。