Core Concepts
提案されたFutureDepthビデオ深度推定手法は、新しい最先端の精度を確立し、効率的な動画深度モデルを提供します。
Abstract
本論文では、FutureDepthという新しいビデオ深度推定手法が提案されています。
複数のベンチマークでの実験により、FutureDepthは既存のSOTAモデルを上回り、新たな最先端の精度を確立しています。
FutureDepthは他のビデオ深度推定モデルよりも効率的であり、SOTA単眼モデルと同等またはそれ以上のランタイムを持っています。
Introduction
深さは自動運転やAR/VRなどのアプリケーションにおいて重要です。
カメラ画像から深さを推定することが費用対効果が高く有望です。
Proposed Approach: FutureDepth
FutureDepthは未来予測ネットワーク(F-Net)と再構築ネットワーク(R-Net)を組み合わせた手法です。
F-Netは未来フレームの特徴を予測することで動き情報を抽出し、R-Netはマスク付き自己符号化により多視点対応情報を理解します。
Experiments
NYUDv2、KITTI、DDAD、Sintelなどの複数のデータセットで実験が行われました。
FutureDepthはこれらすべてでSOTA精度を達成しました。
Stats
F-Netは未来フレーム特徴を予測することで動き情報を抽出します。
R-Netはマスク付き自己符号化により多視点対応情報を理解します。