Core Concepts
医療分野における長期依存性を持つ時系列データを効率的に処理するためのラフトランスフォーマーの導入とその利点。
Abstract
ICLR 2024ワークショップで受け入れられた論文。
ラフトランスフォーマーは、連続時間表現上で動作し、計算コストを大幅に削減する。
マルチビューシグネチャアテンションを提案し、ローカルとグローバルな依存関係を捉える。
ラフトランスフォーマーはバニラアテンションよりも優れた性能を示す。
実験では、ラフトランスフォーマーが他のモデルよりも高いパフォーマンスを達成し、不規則サンプリングに対して頑健であることが示されている。
導入
医療分野の時系列データは長期依存性や不規則なサンプリングで特徴付けられる。
連続時間表現を使用した機械学習手法への関心が高まっている。
方法
ラフトランスフォーマーは連続時間表現上で動作する変種のTransformerアーキテクチャ。
パスシグネチャからマルチビューシグネチャアテンションを導入している。
実験
頻度分類実験では、RFormerがTransformerよりも優れたパフォーマンスを示す。
心拍数データセットでもRFormerが最良のパフォーマンスを達成し、訓練効率も向上している。