Core Concepts
言語アダプターを強化する新しい訓練不要の手法である言語算術を提案する。
Abstract
本論文では、言語アダプターを強化する新しい手法である「言語算術」を提案している。言語アダプターは、多言語学習モデルの言語固有の知識をモジュール化するために使用される。しかし、言語アダプターは言語間の正の転移を制限してしまう。
そこで本研究では、タスク算術の概念を言語に適用した「言語算術」を提案する。言語算術は、既存の言語アダプターに関連言語の知識を追加することで、訓練不要で言語アダプターを強化する。
評価実験では、ゼロショット学習や低リソース環境での性能向上を示している。また、言語ベクトルとタスクベクトルの違いについても分析を行っている。言語ベクトルはタスクベクトルと比べて直交性が低いことが明らかになった。このことから、タスク算術の拡張手法をそのまま言語に適用するのは適切ではないことが示唆された。
Stats
言語アダプターを訓練するのに必要なトークン数は、低リソース言語では10万トークン程度、高リソース言語では10億トークン程度である。
言語算術を適用することで、ゼロショット学習時に最大3 F1スコアの改善が得られた。
低リソース言語では、言語算術によりF1スコアを最大5ポイント改善できた。
Quotes
「言語算術は、既存の言語アダプターに関連言語の知識を追加することで、訓練不要で言語アダプターを強化する。」
「言語ベクトルはタスクベクトルと比べて直交性が低いことが明らかになった。このことから、タスク算術の拡張手法をそのまま言語に適用するのは適切ではないことが示唆された。」