실내 환경에서 로봇이 사람을 앞서 따라가기 위해서는 사람의 미래 자세를 정확하게 예측하는 것이 중요하다. 이를 위해 우리는 주변 환경 정보를 활용하여 사람의 2D 궤적을 먼저 예측하고, 이를 바탕으로 3D 자세를 예측하는 방법을 제안한다.
RGB-D 카메라와 관성 측정 장치가 통합된 웨어러블 로봇 장갑에서 3D 물체 기하학을 분석하여 일상 생활 활동 중 물체 그래스핑을 지원하는 실시간 시스템 PointGrasp를 제안한다.
본 연구는 방사선 필드(RF) 모델과 3D 가우시안 스플래팅을 활용하여 로봇의 위험 평가와 안전 조치를 강화하고, 3D 장면 이해를 심화하는 새로운 접근법을 제안합니다. 이를 위해 추가적인 뷰를 RF 모델에 통합하고, 위험 인지 환경 마스킹(RaEM)을 도입하여 로봇의 경로 불확실성을 최소화하고 안전성을 높입니다.