본 연구 논문에서는 사용자가 물체를 잡은 상태에서도 같은 손으로 XR 인터페이스와 상호 작용할 수 있도록 하는 '잡기 근접 사용자 인터페이스(GPUI)' 디자인을 위한 새로운 프레임워크인 GraV를 소개합니다.
기존 XR 인터페이스는 사용자가 양손을 모두 사용해야 하는 물리적 작업에는 적합하지 않습니다. 음성이나 시선 추적과 같은 대안이 존재하지만, 각각 소음이 심한 환경에서의 사용 어려움, 높은 지연 시간, 피로 누적과 같은 한계점을 가지고 있습니다. 이에 본 논문에서는 사용자의 손이나 손 주변 공간에 가상 인터페이스를 등록하는 '손 근접 사용자 인터페이스(HPUIs)' 디자인 원칙을 확장하여, 사용자가 물체를 잡은 상태에서도 같은 손으로 인터페이스와 상호 작용할 수 있는 GPUI 디자인을 제안합니다.
물체 경계와 상호 작용 공간의 교차점은 손가락 끝이 닿을 수 있는 물체 표면의 일부를 나타내며, 이는 햅틱 피드백을 제공할 수 있는 기회를 제공합니다.
본 논문에서는 Unity에서 개발된 GraVSim이라는 도구를 소개합니다. GraVSim은 잡는 손의 움직임을 시뮬레이션하고 움직임 비용으로 색상이 지정된 3D 포인트 클라우드 형태로 GraV를 생성합니다.
본 논문에서는 367개의 잡기 상호 작용 공간을 포함하는 GraV 데이터 세트를 제공합니다. 이 데이터 세트는 YCB Affordance 데이터 세트의 잡기 자세와 객체를 사용하여 생성되었으며, 객체 및 잡기 유형으로 레이블이 지정된 CSV, PLY 및 OBJ 파일 형태로 제공됩니다.
본 논문에서는 XR 디자이너, 개발자 및 연구자를 대상으로 GraV의 실용성을 평가하기 위해 디자인 워크샵, 개별 설문 조사 및 그룹 토론을 수행했습니다. 워크샵 결과, 참가자들은 GraV 데이터가 GPUI 디자인에 유용하며, 특히 도달 범위와 변위 비용 정보가 인터페이스 요소 배치 및 상호 작용 디자인에 도움이 된다고 응답했습니다.
본 논문에서 제시된 GraV 프레임워크는 XR 인터페이스 디자인, 특히 사용자가 물체를 잡은 상태에서도 편안하고 효율적으로 상호 작용할 수 있는 GPUI 디자인에 기여할 수 있습니다. GraVSim 시뮬레이션 도구와 GraV 데이터 세트는 디자이너가 다양한 잡기 유형과 객체에 대한 인터페이스를 디자인하는 데 유용한 리소스를 제공합니다.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문