本論文では、密集型多タスク学習のための新しいデコーダ重視の手法であるMLoRE(Mixture of Low-Rank Experts)を提案している。
MLoREの主な特徴は以下の通り:
MoEの構造に一般的な畳み込みパスを追加することで、すべてのタスク間の大域的な関係をモデル化する。これにより、MoEでは捉えきれなかった全タスクの関係性を明示的に表現できる。
専門家ネットワークを低ランク形式の畳み込みに置き換えることで、専門家の数を増やしてもパラメータとコンピューテーションコストが大きく増加しないようにする。これにより、多様な特徴表現を学習できる。
専門家ネットワークとタスク共有の一般的な畳み込みパスを線形結合できるようにし、推論時に再パラメータ化を行うことで計算コストを削減する。
実験では、PASCAL-Contextとnyud-v2のデータセットで、提案手法が従来手法を大きく上回る性能を示している。特に、セマンティックセグメンテーション、人物パーシング、物体境界検出などの指標で大幅な性能向上が確認された。
Egy másik nyelvre
a forrásanyagból
arxiv.org
Mélyebb kérdések