本研究は、低リソース言語の機械翻訳タスクにおいて、パラメータ効率的なファインチューニング手法の有効性を包括的に検証した。
まず、8種類のパラメータ効率的なファインチューニング手法を用いて、合計15のアーキテクチャを評価した。その結果、6つのアーキテクチャが基準モデルを上回る性能を示し、特にHoulsby+Inversionアダプターが最も優れた性能を発揮することを明らかにした。
次に、データドメインや規模の違いを系統的に検証した。その結果、提案手法は入力ドメインや言語ペアの違いに関わらず、一貫して基準モデルを上回る性能を示すことが分かった。特に、小規模データセットでも大きな性能向上が得られることが確認された。
さらに、アーキテクチャの詳細な分析から、ボトルネック構造を持つアダプターが低リソース言語翻訳に有効であることを示した。一方で、単純な構造変更では性能向上につながらず、アダプターの配置位置が重要であることが分かった。
以上より、本研究は低リソース言語翻訳における効率的なファインチューニング手法の有効性を包括的に実証し、実用的な指針を提示した。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問