핵심 개념
시선 정보는 사람의 주의와 의도를 나타내는 중요한 신호이며, 이를 손-물체 상호작용 동역학과 통합하면 인간 동작 예측의 정확성을 높일 수 있다.
초록
이 논문은 시선 주도 손-물체 상호작용 합성이라는 새로운 과제를 제안한다. 이를 위해 다음과 같은 접근법을 제시한다:
- GazeHOI 데이터셋 소개:
- 시선, 손, 물체 간 3D 상호작용을 동시에 포착하는 최초의 데이터셋
- 479개 시퀀스, 812개 부분 시퀀스, 33개 물체로 구성
- 다양한 복잡도의 상호작용 과제 포함
- GHO-Diffusion 모델 제안:
- 시선 정보를 공간-시간 특징과 목표 자세 조건으로 분리하여 활용
- 두 개의 시선 조건부 확산 모델을 쌓아 복잡한 손-물체 동작 합성
- 구형 가우시안 제약을 통해 목표 자세 정렬 정확도 향상
- 접촉 일관성 최적화로 생성된 손 동작 개선
- 실험 결과:
- 제안 방법이 기존 접근법보다 우수한 성능 달성
- 시선 정보 활용, 목표 자세 생성, 확산 모델 설계 등 각 모듈의 효과 검증
통계
시선 정보와 물체 접촉 간 일관성 값은 평균 36.81%이다.
생성된 손 동작의 평균 관절 위치 오차는 17.81mm이다.
생성된 물체 위치의 평균 오차는 165.5mm이다.
인용구
"시선은 사람의 주의와 의도를 나타내는 중요한 신호이며, 이를 손-물체 상호작용 동역학과 통합하면 인간 동작 예측의 정확성을 높일 수 있다."
"현재 데이터셋은 손-물체 상호작용에 초점을 맞추고 있지만, 해당 상호작용에 대응되는 시선 데이터를 포함하지 않는다는 한계가 있다."
"본 연구에서는 시선, 손, 물체 간 3D 상호작용을 동시에 포착하는 최초의 GazeHOI 데이터셋을 소개한다."