核心概念
多次元時系列データの予測精度向上のため、従来のTransformerモデルにテンソル分解を組み込んだ新しい手法「TEAFormer」を提案する。
要約
TEAFormers: 多次元時系列予測のためのテンソル拡張Transformer
本稿は、経済学、金融、気候科学などの分野でますます普及している多次元時系列データ(行列やテンソル変量時系列など)の予測精度向上を目的とした新しい手法「TEAFormer」を提案する研究論文である。
従来のTransformerモデルは、時系列データの処理に優れているものの、多次元構造を効果的に保持できないという課題があった。これは、多次元観測をベクトルに平坦化してしまうため、重要な多次元関係やパターンが失われてしまうためである。本研究では、この課題を解決するために、Transformerフレームワーク内にテンソル拡張と圧縮を組み込み、固有の多次元構造を維持・活用することで、計算コストの削減と予測精度の向上を図ることを目的とする。
本研究では、テンソル拡張と圧縮をTransformerフレームワークに組み込んだ新しい手法であるTEAFormerを提案する。TEAFormerの中核となるTEAモジュールは、テンソル拡張を利用して多視点特徴学習を強化し、テンソル圧縮によって効率的な情報集約と計算負荷の軽減を実現する。TEAモジュールは特定のモデルアーキテクチャではなく、Transformerのアテンションメカニズムやエンコーダ・デコーダ構造と互換性が高く、既存のTransformerアーキテクチャに適応可能な汎用性の高いコンポーネントである。