Główne pojęcia
本文提出了一種名為 MaGS 的新型動態三維物體重建與模擬統一框架,該框架將三維高斯樣條約束在網格表面附近,結合了高斯樣條的渲染靈活性和網格結構的先驗知識,並透過聯合優化網格、高斯樣條和網路,實現了高精度渲染和逼真變形的目標。
Streszczenie
基於網格吸附高斯樣條的動態三維物體重建與模擬:MaGS
三維重建和模擬雖然相互關聯,但目標不同:重建需要靈活的三維表示來適應不同的場景,而模擬則需要結構化的表示來有效地建模運動原理。
本文介紹了網格吸附高斯樣條 (MaGS) 方法來應對這一挑戰。MaGS 將三維高斯樣條約束在網格附近,創建了一種相互吸附的網格-高斯三維表示。這種表示既利用了三維高斯樣條的渲染靈活性,又利用了網格的結構化特性。
為實現這一目標,我們引入了 RMD-Net,這是一種從視頻數據中學習運動先驗以改進網格變形的網路,以及 RGD-Net,它對網格和高斯樣條之間的相對位移進行建模,以在網格約束下增強渲染保真度。為了在不依賴時間數據的情況下泛化到輸入視頻之外的新穎的、用戶定義的變形,我們提出了 MPE-Net,它利用固有的網格信息來引導 RMD-Net 和 RGD-Net。由於網格的通用性,MaGS 與各種變形先驗兼容,例如 ARAP、SMPL 和軟物理模擬。在 D-NeRF、DG-Mesh 和 PeopleSnapshot 數據集上的大量實驗表明,MaGS 在重建和模擬方面均達到了最先進的性能。
主要貢獻
網格吸附高斯樣條表示: 提出了一種新的三維表示方法,將高斯樣條吸附到網格表面,結合了兩種表示的優點。
相對變形網路: 設計了 RMD-Net 和 RGD-Net,分別用於學習網格和高斯樣條的相對變形,提高了渲染精度和變形合理性。
網格姿態嵌入網路: 引入了 MPE-Net,從粗網格中提取姿態信息,避免了對時間數據的依賴,使模擬更加靈活。
與多種變形先驗兼容: MaGS 可以與 ARAP、SMPL 和軟物理模擬等多種網格變形方法結合使用。
優點
高精度渲染: MaGS 可以在保持網格結構的同時,實現高質量的渲染效果。
逼真變形: 透過學習運動先驗和相對變形,MaGS 可以生成更自然、更合理的變形效果。
靈活的模擬: MaGS 不依賴於時間數據,可以進行用戶交互式的模擬,例如拖動、碰撞和基於 SMPL 的運動編輯。
局限性
多物體交互: MaGS 目前主要針對單個物體的重建和模擬,對於多物體交互場景的處理能力有限。
視角要求: MaGS 需要多視角的視頻數據才能進行可靠的網格重建,這對於基於網格的方法來說是一個固有的挑戰。
未來方向
多物體交互: 探索將 MaGS 擴展到多物體交互場景的方法,例如使用場景圖或其他表示方法來處理物體之間的關係。
生成模型: 研究如何將生成模型與 MaGS 結合,以增強其在不確定或不完整視角條件下的能力和魯棒性。
Statystyki
MaGS 在 D-NeRF 數據集上,平均 PSNR 提升了 0.7 dB。
MaGS 在 DG-Mesh 數據集上,僅使用 981 個網格面,而 DG-Mesh 使用了 170,232 個,Dynamic 2D Gaussians 使用了 1,419,454 個。
MaGS 在 DG-Mesh 數據集上,優化時間僅需 47.6 分鐘,而 DG-Mesh 需要 89.3 分鐘,Dynamic 2D Gaussians 需要 72.7 分鐘。