TimeFormerは、変形可能な3Dガウシアンの時間的関係をTransformerを用いて学習することで、複雑な動きのキャプチャを可能にし、従来手法のレンダリング速度を維持しながら、より高品質な動的シーン再構成を実現する。
本稿では、マルチビュービデオからの動的シーンの効率的かつ高品質な表面再構成を実現する、適応的で時間的に一貫性のあるガウシアンサーフェル(AT-GS)と呼ばれる新しい手法を提案する。
本稿では、4Dガウシアン スプラッティングを用いて動的な内視鏡シーンの時空間ボリュームをモデル化する新しいフレームワーク、ST-Endo4DGSを提案する。この手法は、変形可能な組織のダイナミクスを正確に表現し、複雑な空間的および時間的相関をリアルタイムで捉えることを可能にする。
動的シーン再構成モデルに、変形事前分布を組み込むことで、特に視点と時間の変化に対する汎化性能を向上させることができる。
従来の平面ベースの表現手法では、複雑な動きのキャプチャが困難であった動的シーン再構成において、方向を考慮した表現手法を用いることで、より高忠実度の再構成が可能になる。
動的シーン再構成におけるモーションの複雑さに対処するため、明示的なモーションガイダンスを用いて3Dガウシアンの変形を制約する新しいフレームワーク「MotionGS」を提案する。
本稿では、正確なカメラの軌跡情報なしに動的な内視鏡ビデオからシーンを高速に再構成する、Free-DyGSと呼ばれる、カメラ姿勢フリーな動的シーン再構成フレームワークを提案する。