Conceitos essenciais
ARとNARモデルの協力学習により、両方の性能を同時に向上させる新しい方法を提案します。
Resumo
この論文では、Autoregressive(AR)モデルとNon-autoregressive(NAR)モデルの協力学習に焦点を当て、トークンレベルの相互学習とシーケンスレベルの対比的学習を採用しています。提案されたDCMCL方法は、ARおよびNARモデルの両方を同時に改善することができます。実験結果は、提案手法が従来手法や統合モデルよりも優れた性能を示すことを示しています。
Estatísticas
ARおよびCMLMモデルのBLEUスコアがそれぞれ最大1.38および2.98向上しました。
DCMCL方法は、現在の最高統合モデルよりも最大0.97 BLEUスコアで優れています。
実験ではWMT14/WMT21英語-ドイツ語、WMT16英語-ロマニア語、IWSLT14英語-ドイツ語、IWSLT15英語-ベトナム語の4つの広く使用される基準で効果的であることが確認されました。
提案手法は低リソースデータセットでも有効であり、IWSLT原稿ではARおよびNARモデルをそれぞれ最大1.38および2.98 BLEUスコア向上させました。
Discoは特にARモデルの改善に有効であり、CMLMと比較して改善幅が大きいことが示されました。
DCMCL方法は他のメトリックでも従来手法を上回っています。
データセットサイズが大きい場合でも提案手法は拡張可能です。
ハイブリッド教師付きDCMCLフレームワーク(DCMCLHYB)も性能向上に寄与します。
Citações
"Previous works utilized AR models to enhance NAR models by reducing the training data’s complexity or incorporating the global information into AR models by virtue of NAR models."
"In this paper, we propose a novel generic collaborative learning method, DCMCL, where AR and NAR models are treated as collaborators instead of teachers and students."
"Extensive experiments on four widely used benchmarks show that the proposed DCMCL method can simultaneously improve both AR and NAR models with up to 1.38 and 2.98 BLEU scores respectively."