NeuMaDiff 是一種基於超擴散的新型類神經材質合成框架,利用神經場作為低維度表示,並結合多模態條件超擴散模型來學習材質權重的分佈,實現高保真度和多樣化的材質合成。
本文提出了一種名為 gDist 的高效平行演算法,專為在 GPU 上計算 3D 模型間的最大/最小距離而設計,並透過多項優化策略,顯著提升了計算速度和效率。
本文提出了一種新的神經輻射場方法,通過聯合建模平面反射器和顯式投射反射光線來更準確地處理複雜場景中的平面反射,從而實現無偽影且幾何結構準確的新視圖合成。
3D 高斯散點 (3DGS) 技術作為一種新興的實時輻射場渲染技術,在品質和速度方面都具有優異的性能,但其巨大的儲存和記憶體需求限制了其在行動裝置或頭戴式裝置上的應用。為了解決這些挑戰,本文全面概述了為提高 3DGS 效率而開發的壓縮和壓縮技術,並比較和討論了主要方法的優缺點,建立了一個基於關鍵性能指標和資料集的統一標準來評估這些方法。
本文提出了一種基於旋轉系統的演算法,從點雲資料重建表面模型,該方法通過迭代地向初始生成樹添加邊來構建三角網格,並透過拓撲和幾何測試確保網格的正確性和品質。
本文提出了一種名為 PBNBRDF 的新型雙向反射分佈函數 (BRDF) 模型,該模型利用神經網路準確地重建真實世界的材質外觀,同時通過重新參數化和高效的解析積分,強制執行物理特性,如亥姆霍茲互易性和能量被動性,從而提高渲染品質。
本文提出了一種名為 SSS GS 的新方法,透過將 3D 高斯樣條技術與顯式表面外觀模型和隱式次表面散射模型相結合,實現了對具有顯著次表面散射效果物件的逼真實時渲染。
本文提出了一種名為 SERF 的新型演算法,用於基於 2D 指令進行互動式 3D 分割和編輯,透過將多視角 3D 重建與先進的 2D 技術相結合,建立了一個高效的神經網格表示,從而實現精確的 3D 分割和互動式編輯,進一步提高場景重建的準確性,並提供新穎的幾何和外觀編輯功能。
本文提出了一種利用普通 CD 光碟和機器學習方法來重建光源光譜功率分佈(SPD)的低成本方法,並通過模擬和實際案例驗證了該方法在光譜渲染中的有效性。
本文介紹了一種名為「Flatten Anything Model (FAM)」的無監督神經網路架構,它可以透過學習 3D 表面點與 2D 參數域之間的映射關係,實現全域、無邊界限制的表面參數化,並自動學習合理的切割縫。