核心概念
사용자의 물리적 객체와의 상호작용을 통해 실시간으로 디지털 정보를 생성하고 업데이트할 수 있는 혼합현실 기반 제작 워크플로우를 제시한다.
摘要
이 연구는 혼합현실(MR) 플랫폼을 활용하여 사용자의 제스처 인식을 통해 물리적 객체와 상호작용하는 새로운 제작 워크플로우를 제안한다. 기존 MR 제작 프로젝트는 주로 디지털 메뉴와 버튼을 사용하여 사용자와 MR 환경 간 상호작용을 제공했지만, 이는 물리적 객체와의 직접적인 상호작용을 제한했다.
이 연구에서는 세 가지 GBMR(Gesture-Based Mixed Reality) 제작 워크플로우를 제시한다:
- 객체 위치 파악: 물리적 객체의 위치를 디지털 공간에 등록하여 로봇 공구 경로를 생성한다.
- 객체 식별: 물리적 구성요소를 식별하고 단계별 조립 지침을 표시한다.
- 객체 보정: 물리적 객체와 디지털 모델 간 불일치를 측정하고 보정한다.
이러한 워크플로우는 UnLog Tower 건설 과정에서 6가지 작업에 활용되었다. 이를 통해 물리적 및 디지털 환경 간 상호작용을 통한 인간-기계 공동 창작의 새로운 기회를 제시한다.
統計資料
로봇 공구 경로 생성을 위해 물리적 로그의 위치를 디지털 공간에 등록했다.
조립 지침을 표시하기 위해 물리적 구성요소의 높이와 길이를 식별했다.
물리적 객체와 디지털 모델 간 0.125인치 이내의 오차를 허용하도록 보정했다.
引述
"사용자의 물리적 객체와의 상호작용을 통해 실시간으로 디지털 정보를 생성하고 업데이트할 수 있는 혼합현실 기반 제작 워크플로우를 제시한다."
"이를 통해 물리적 및 디지털 환경 간 상호작용을 통한 인간-기계 공동 창작의 새로운 기회를 제시한다."