本稿では、すべてのソース画像を同時に考慮する、新しい深度範囲フリーのマルチビューステレオ(MVS)フレームワークを提案する。このフレームワークは、深度範囲の事前情報に依存する従来のMVS手法の限界を克服するものである。
従来の学習ベースのMVS手法は、与えられた深度範囲内で深度仮説をサンプリングし、ソース画像から参照ビューへ特徴をワープしてコストボリュームを計算し、それをニューラルネットワークを通じて正規化して最終的な深度マップを得るという、平面掃引アルゴリズムに依存していた。しかし、適切な深度範囲を得ることは、実際のシナリオでは容易ではなく、これらの手法は一般的に深度範囲に敏感であるため、応用が制限されていた。
本稿では、深度範囲の仮定を排除した新しいフレームワークを提案する。ペアワイズで動作する最近のいくつかの手法とは異なり、提案手法は、すべてのソース画像を同時に考慮して、参照画像の深度マップを推定する。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問