Core Concepts
대형 언어 모델은 비언어적 단서와 상황 정보를 통합하여 인간의 의도를 효과적으로 예측할 수 있다.
Abstract
이 연구는 대형 언어 모델(LLM)을 활용하여 물체 분류 과제에서 인간의 의도를 예측하는 방법을 제안한다. 제안된 시스템은 두 단계의 추론 과정을 거친다.
첫째, 지각 추론 단계에서는 사용자의 손 동작, 자세, 표정 등의 비언어적 단서를 인식하고 해석한다. 둘째, 과제 추론 단계에서는 사용자의 음성 명령, 환경 정보, 그리고 지각 추론 단계의 결과를 종합하여 사용자의 의도를 예측한다.
실험 결과, 제안된 시스템은 물체 분류 과제에서 사용자의 의도를 효과적으로 예측할 수 있었다. 특히 대형 언어 모델 중 GPT-4가 가장 우수한 성능을 보였다. 이는 대형 언어 모델이 비언어적 단서와 상황 정보를 통합하여 인간의 의도를 이해할 수 있음을 보여준다.
Stats
사용자가 오른쪽 손으로 사과를 가리키고 있습니다.
사용자가 로봇 앞에 서 있습니다.
사용자의 표정이 행복하거나 즐거워 보입니다.
Quotes
"대형 언어 모델은 비언어적 단서와 상황 정보를 통합하여 인간의 의도를 효과적으로 예측할 수 있다."
"제안된 시스템은 물체 분류 과제에서 사용자의 의도를 효과적으로 예측할 수 있었다."
"대형 언어 모델 중 GPT-4가 가장 우수한 성능을 보였다."