Core Concepts
物体情報を活用することで、オクルージョンや物体境界での精度を大幅に向上させた教師なし光学フロー推定手法を提案する。
Abstract
本論文は、教師なし光学フロー推定手法 UnSAMFlowを提案している。従来の教師なし手法は、オクルージョンや物体境界での精度が低いという課題があった。そこで本手法では、最新の物体分割モデルSAMを活用することで、この課題を解決している。
具体的には以下の3つの新規な適応を行っている:
SAMマスクを用いた自己教師あり的な特徴量増強モジュール
SAMマスクに基づく新しい平滑性損失関数(ホモグラフィー平滑性損失)
SAMマスクを活用した特徴量集約モジュール
これらの適応により、オブジェクト境界の精度が大幅に向上し、KITTI及びSintelデータセットにおいて、従来手法を大きく上回る性能を達成している。また、SAMを活用することで、ドメイン間の汎化性も高いことが示されている。
Stats
従来手法と比べ、KITTI 2015テストセットのエラー率が7.83%と大幅に改善された。
Sintel finalテストセットのEPEが3.93と、従来手法を大きく上回る性能を示した。
Quotes
"Fundamentally, the issues with occlusions and motion boundaries both stem from the low-level nature of optical flow, where object-level information is generally missing."
"To better handle occlusions, it is important to understand the spatial relationships and interactions between objects. Also, optical flow should be smooth only within the same continuous object region, while sharp motion boundaries are allowed near object edges."