核心概念
MeshBrushは、事前の患者スキャンデータ(MRIやCTなど)から生成したメッシュに対して、既存の画像変換モデルを活用してリアルな内視鏡ビデオを合成する手法である。メッシュのテクスチャを学習することで、時間的および空間的な一貫性を保ちつつ、高品質な出力を生成できる。
要約
本研究では、内視鏡検査のためのリアルな仮想環境を生成する手法「MeshBrush」を提案している。
患者の事前スキャンデータ(CT)からメッシュを生成し、そのメッシュに対して神経スタイル化を行うことで、リアルな内視鏡ビデオを合成する。
従来の画像変換モデルでは時間的な一貫性が保てないが、MeshBrushではメッシュのテクスチャを学習することで、時間的および空間的な一貫性を保ちつつ、高品質な出力を生成できる。
差分レンダリングを用いて、スタイル変換された画像からメッシュのテクスチャを最適化する。視点依存のヒートマップロスを導入することで、カメラ視点に応じた適切なテクスチャ生成を実現している。
定量的評価では、従来手法と比較して特徴点マッチングの精度が高く、3D再構築タスクにも有効であることを示している。
統計
提案手法は、従来の画像変換モデルと比較して、隣接フレーム間の特徴点マッチング精度が92.1%と高い。
5フレーム間の特徴点マッチング精度は66.1%、10フレーム間では36.1%となっている。
提案手法を用いた3D再構築では、41.3%の画像から32,327点の3Dポイントを再構築できた。