Główne pojęcia
機械翻訳を継続的なトレーニング目的として使用することが、クロスリンガル表現学習を向上させるのに失敗する可能性があることを示す。
Streszczenie
この論文は、多言語事前学習とクロスリンガルアプリケーションを結ぶために機械翻訳を使用する利点について調査しています。結果は、期待に反して、機械翻訳を継続的なトレーニング目的として使用することが、複数のクロスリンガル自然言語理解タスクでクロスリンガル表現学習を向上させるのに失敗したことを示しています。これは将来のクロスリンガル転移学研究に重要な影響を与えます。
1. 導入
- 事前学習された多言語モデル(LM)の成功例が強調されており、それらはしばしば明示的なクロスリンガル監督なしで複数の言語から事前学習されています。
- 機械翻訳(MT)システムは歴史的にインターリングア(MTシステムが利用している言語非依存表現空間)のコンセプトに関連付けられています。
- MTモデルは言語非依存な意味特徴を把握することが期待されます。
2. 実験プロトコル
- 多言語LMおよびMTシステム、クロスリンガルタスク、実験で使用されたデータセットについて詳細に記述します。
3. 結果と分析
- CPモデル(mBARTベースの多言語MT)は他のLMよりもmBARTにより類似した言語表現を学んでいます。
- ダウンストリームパフォーマンスへの代表性類似性と強く結びつく強力な接触点を確立することはできません。
Statystyki
複数の公開事前学習済みモデルでダウンストリームタスク全体のパフォーマンス比較
Cytaty
"Explicit alignments such as linear mapping and L2 alignment between source and target languages do not necessarily improve the quality of cross-lingual representations."
"We conclude that MT encourages behavior that is not necessarily compatible with high performances in cross-lingual transfer learning."