本研究では、7,000以上の言語の中でも特に少数言語を含む200言語に対応する単一の大規模多言語神経機械翻訳モデルを開発した。従来の研究は主に高資源言語の翻訳品質改善に注力していたが、それでは長期的に見て言語間の格差が拡大してしまう。そこで本研究では、低資源言語にも注目し、転移学習を活用したスパースな専門家混合モデルを提案した。さらに、過剰適合を防ぐための建築的・訓練上の改善も行った。開発したモデルの性能を、自動ベンチマーク(FLORES-200)、人間評価メトリクス(XSTS)、言語横断的な有害性検出器を用いて評価した結果、従来の最先端モデルに比べて平均44%の翻訳品質向上を実現した。本研究の成果は非商用利用のために公開されており、汎用的な翻訳システムの開発に向けた重要な基盤を提供するものである。
To Another Language
from source content
www.nature.com
Key Insights Distilled From
by Mart... at www.nature.com 06-05-2024
https://www.nature.com/articles/s41586-024-07335-xDeeper Inquiries