本研究では、事前学習済みの決定トランスフォーマー(GPT-DT)の性能を分析し、その長短所を明らかにしている。
短期的な環境では、GPT-DTが優れた性能を発揮するが、長期的な環境では逆に劣る。この理由を分析した結果、事前学習時に獲得されたマルコフ行列特性を持つ注意ヘッドが、短期的な環境では有効だが長期的な環境では不適切であることが分かった。
そこで本研究では、GPT-DTにアダプティブな注意機構(MoA)を組み合わせた「GPT-DTMA」を提案した。MoAにより、環境に応じて注意ヘッドの重要度を動的に調整できるため、短期的な環境と長期的な環境の両方で優れた性能を発揮できる。
実験の結果、GPT-DTMAは短期的な環境では最高の性能を示し、長期的な環境でもベースラインと同等の性能を達成できることが確認された。本手法は、事前学習済みモデルの適用範囲を広げる一般的なアプローチとして期待できる。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問