本研究では、ゼロショット対話状態追跡(DST)の課題に取り組むため、Mixture of Prefix Experts(MoPE)を提案している。MoPEは、異なるドメインの類似スロットを通じて接続を確立し、複数の専門家を使用することで、未知のドメインへの転移性能を向上させる。
具体的には、まず、すべてのスロットをクラスタリングし、各クラスタに専門家モデルを割り当てる。これにより、未知のスロットが最も関連する専門家を見つけやすくなる。さらに、パラメータ効率の高いプレフィックスプロンプトチューニングを使用して、各専門家を効率的に訓練する。
実験の結果、MoPEは、100B以上のパラメータを持つ大規模言語モデルと比較しても優れた性能を示し、10B未満のパラメータを持つ他のモデルと比べても大幅な性能向上を達成した。これは、異なるドメインの類似スロットを活用し、複数の専門家を組み合わせることで、未知のドメインに対する予測精度が向上したことを示している。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問