核心概念
単一の観測画像から、ガウシアンスプラットを用いて物体の幾何学的形状とテクスチャを再構築する手法を提案する。
摘要
本研究では、SO(2)等変ガウシアンスカルプティングネットワーク(GSN)を提案し、単一の観測画像から3次元物体を再構築する手法を紹介する。GSNは、入力画像から、ガウシアンスプラットを生成することで、物体の幾何学的形状とテクスチャを表現する。特徴抽出部分を共有することで、高スループットな処理(150FPS以上)を実現している。
実験では、多視点レンダリング損失関数を用いて効率的に学習でき、拡散ベースの高コストな再構築手法と同等の品質を達成できることを示している。また、ロボット操作パイプラインにおけるオブジェクト指向のグラスピングタスクへの適用可能性も実証している。
统计
単一の観測画像から、150FPS以上の高速な処理速度で3次元物体を再構築できる。
多視点レンダリング損失関数を用いることで、拡散ベースの高コストな再構築手法と同等の品質を達成できる。
ロボット操作パイプラインにおけるオブジェクト指向のグラスピングタスクに適用可能である。
引用
"GSNは、入力画像から、ガウシアンスプラットを生成することで、物体の幾何学的形状とテクスチャを表現する。"
"特徴抽出部分を共有することで、高スループットな処理(150FPS以上)を実現している。"
"多視点レンダリング損失関数を用いることで、拡散ベースの高コストな再構築手法と同等の品質を達成できる。"