Core Concepts
複雑な時空間関係を持つ人間の動きシーケンスに対する効率的な3D人体ポーズ予測モデルを提案し、解釈可能性を向上させる。
Abstract
この研究では、コンテキストベースの解釈可能な時空間グラフ畳み込みネットワーク(CIST-GCN)が提案されています。このアーキテクチャは、姿勢シーケンスから意味のある情報を抽出し、変位と加速度を入力モデルに集約し、最終的に出力変位を予測します。CIST-GCNはHuman 3.6M、AMASS、3DPW、ExPIデータセットで行われた実験により、従来の手法よりも優れた人間の動き予測性能と堅牢性を示しています。この研究は、動き予測の解釈可能性向上のアイデアに焦点を当てており、その洞察について初期評価を提供しています。
Stats
CIST-GCNは前回の手法よりも優れたパフォーマンスを達成しました。
Human 3.6Mで6つの15種類のアクションで最高性能を達成しました。
ExPIデータセットでは12種類中10種類で最高性能を達成しました。
Quotes
"Human motion prediction plays a critical role in autonomous driving, robotics, and safety applications."
"Our architecture extracts meaningful information from pose sequences, aggregates displacements and accelerations into the input model, and finally predicts the output displacements."
"We propose a new architecture that provides not only human motion prediction but also interpretability to some extent given an input sample."