이 논문은 목표 인식(GR) 문제에 대한 설명 가능한 모델을 제안한다. 기존의 GR 접근법은 관찰된 행동으로부터 가장 그럴듯한 목표 추론에 초점을 맞추었지만, 이 연구는 추론 과정을 이해할 수 있는 방식으로 설명하는 것에 초점을 맞춘다.
인간-에이전트 연구를 통해 사람들이 목표 인식을 설명할 때 사용하는 핵심 개념을 파악했다. 이를 바탕으로 가중치 증거(WoE) 개념을 활용하여 eXplainable Goal Recognition (XGR) 모델을 개발했다. XGR 모델은 "왜" 그리고 "왜 그렇지 않은지"에 대한 설명을 생성할 수 있다.
모델은 8개의 GR 벤치마크에서 계산적으로 평가되었고, 3개의 사용자 연구를 통해 평가되었다. 연구 결과, XGR 모델은 사용자의 이해, 신뢰 및 의사결정을 크게 향상시키는 것으로 나타났다. 이는 인간-에이전트 협업을 개선할 수 있는 모델의 잠재력을 보여준다.
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Abeer Alsheh... às arxiv.org 09-19-2024
https://arxiv.org/pdf/2409.11675.pdfPerguntas Mais Profundas