핵심 개념
비디오 기반 연구를 통해 실제 세계 인간-로봇 상호작용에 대한 통찰력을 극대화할 수 있는 VID2REAL HRI 연구 프레임워크를 제안한다.
초록
이 연구는 VID2REAL HRI 프레임워크를 적용하여 자율 주행 로봇의 사회적 행동이 보행자의 인식과 도움 제공에 미치는 영향을 조사했다.
온라인 연구에서는 4가지 로봇 행동 조건(기본, 언어, 신체 언어, 언어 + 신체 언어)이 사회적 지능 인식과 문 열어주기 의도에 미치는 영향을 확인했다. 결과, 언어 + 신체 언어 조건이 가장 높은 사회적 지능 인식과 도움 제공 의도를 보였다. 또한 온라인 연구 결과를 바탕으로 실제 세계 연구에 필요한 최소 표본 크기를 산출했다.
실제 세계 연구에서는 기본 조건과 언어 + 신체 언어 조건을 비교했다. 결과, 언어 + 신체 언어 조건이 유의미하게 더 높은 사회적 지능 인식과 도움 제공 행동을 보였다. 이를 통해 온라인 연구 결과의 타당성을 확인했다.
통계
기본 조건의 사회적 지능 인식 평균은 3.433, 표준편차는 0.680이었다.
언어 + 신체 언어 조건의 사회적 지능 인식 평균은 3.952, 표준편차는 0.630이었다.
인용구
"비디오 기반 연구를 통해 실제 세계 인간-로봇 상호작용에 대한 통찰력을 극대화할 수 있는 VID2REAL HRI 연구 프레임워크를 제안한다."
"온라인 연구 결과를 바탕으로 실제 세계 연구에 필요한 최소 표본 크기를 산출했다."