국소 이웃 점들 간의 거리와 방향 벡터를 추가적인 특징으로 활용하면 3D 물체 분류 성능을 향상시킬 수 있다.
제안된 RESSCAL3D 방법은 점구름 데이터의 해상도 스케일러블 3D 의미 분할을 가능하게 하며, 기존 방법보다 31-62% 빠른 추론 속도를 달성하면서도 성능 저하를 최소화한다.
기존 방식들은 밀집된 3D 특징을 사용하여 계산 비용이 높았지만, 본 연구에서 제안하는 SparseOcc는 완전히 희소한 3D 표현을 사용하여 실시간 성능을 달성하면서도 최신 수준의 정확도를 보여줍니다.
본 연구는 Segment Anything 모델(SAM)과 Neural Radiance Field(NeRF)를 결합하여 복잡한 장면에서 높은 정확도와 일관성을 가진 3D 객체 분할을 달성하는 새로운 프레임워크인 SANeRF-HQ를 제안한다.
2D 픽셀을 3D 공간에서 추적하여 복잡한 3D 움직임과 가림 현상을 효과적으로 처리할 수 있는 방법을 제안한다.
적은 양의 학습 데이터로도 효과적인 3D 장면 분할을 수행할 수 있는 비모수 네트워크 기반의 접근법을 제안한다.
본 연구는 RGB-D 비디오에서 쿼리 픽셀/포인트의 3D 궤적을 온라인으로 동시에 포착할 수 있는 새로운 작업인 장기 장면 흐름 추정(LSFE)을 다룹니다. 제안하는 SceneTracker 네트워크는 반복적인 접근법을 채택하여 최적의 궤적을 근사화하고, 외관 및 깊이 상관관계 특징을 동적으로 색인 및 구축하며, Transformer를 사용하여 궤적 내부와 간의 장기 연결을 탐색하고 활용합니다.
SOLE은 3D 포인트 클라우드에서 직접 의미 관련 마스크를 생성하여 열린 어휘 3D 물체 분할을 실현합니다.
본 연구는 레이블된 데이터셋 없이도 3D 점 구름에서 개방형 3D 장면 그래프를 학습하는 새로운 접근법을 제안한다. 이를 위해 강력한 개방형 2D 비전-언어 기반 모델의 특징을 3D 그래프 신경망에 증류하여, 개방형 객체 클래스와 개방형 관계를 예측할 수 있다.
기하학적 구조를 활용하여 2D 비전-언어 모델 표현을 3D 포인트에 효과적으로 전달하는 집계 기법을 제안한다.