本論文では、NYU Depth V2データセットを仮想現実のオブジェクトを用いて人工的に拡張したANYUデータセットを提案している。従来の手法では完全な仮想世界のシーンを使ってデータセットを生成していたが、本手法では実世界のRGB-Dデータにランダムに生成した仮想オブジェクトを組み込むことで、より多様なトレーニングデータを得ることができる。
実験の結果、ANYUデータセットを使ってトレーニングしたモデルは、NYU Depth V2データセットのみを使った場合に比べて、NYU Depth V2およびiBims-1ベンチマークにおいて深度推定精度が向上することが示された。特に最新のVPDモデルでは大幅な性能向上が確認された。また、トレーニングデータの量が少ない場合でも、ANYUデータセットを使うことで精度の劣化を抑えられることが分かった。
このように、仮想現実のオブジェクトを使った人工的な拡張によって、単眼深度推定の精度と汎化性能を向上させることができる。
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問