Core Concepts
提案されたMixture-of-LoRAs(MoA)アーキテクチャは、大規模言語モデルに対する効率的なマルチタスクファインチューニング手法を提供し、タスク間の干渉とトレーニングの不安定性に対処します。
Abstract
Alibaba Cloudの研究者らが提案したMoAアーキテクチャは、大規模言語モデル(LLMs)におけるマルチタスク学習を向上させる効率的な手法です。この手法では、各LoRAモジュールが新しいドメインに迅速に適応できる柔軟性を持ちます。また、MoAは適切なLoRAエキスパートを選択して問題を解決するためのルーティング戦略を使用します。これにより、異種ドメイン知識の補完性を学び取り、推論プロセスで未知のドメインで問題を解決するための適切なLoRAエキスパートを選択します。
Stats
LoRAモジュール数:8個
ルーターパラメータ数:1.05M