核心概念
本稿では、2D画像からの詳細な3Dインタラクティブ編集を可能にする、SERFと呼ばれる新しいアルゴリズムを提案する。この手法は、事前学習済み2Dモデルと多視点3D再構成を組み合わせることで、効率的なニューラルメッシュ表現を作成し、正確な3Dセグメンテーションとインタラクティブな編集操作を実現する。
摘要
SERF: 放射輝度場を用いた詳細なインタラクティブ3Dセグメンテーションと編集
本稿では、2D画像から詳細な3Dインタラクティブ編集を可能にする、SERFと呼ばれる新しいアルゴリズムについて解説する。
近年、NeRFに代表されるニューラルレンダリング技術の進歩により、2D画像を用いた3D形状復元技術が飛躍的に向上した。しかし、既存の3D編集手法は、3D空間における詳細なインタラクションと正確な編集の実現において課題を抱えている。これは、効率的な3D表現と効果的な3Dインタラクティブセグメンテーション手法の欠如が主な原因である。
本稿では、これらの課題を解決するために、2D指示に基づくインタラクティブな3Dセグメンテーションと編集を実現するSERFを提案する。
SERFは、以下の4つのステップで構成される。
ニューラルメッシュの構築: 既存の多視点3D再構成アルゴリズムを用いて3Dメッシュ表現を構築し、事前学習済み2Dモデルから抽出された形状および外観特徴量を統合することで、詳細なニューラルメッシュ表現を作成する。
サーフェスレンダリング: ニューラルメッシュ表現と多視点画像の関連付けを確立するために、局所情報を保持し、グローバルな変更に対して堅牢な、新しいサーフェスレンダリングプロセスを導入する。
3Dメッシュセグメンテーション: 2Dセグメンテーションモデルの教師あり学習のみを用い、ユーザー入力に基づいて正確な3Dセグメンテーションを実現する、効率的な3Dセグメンテーション手法を提案する。
3D編集: 提案するビュー合成モデルと3Dメッシュセグメンテーションモデルに基づき、形状編集とテクスチャ編集の2種類の編集操作を実現する。