Core Concepts
설명 가능한 AI(XAI) 기술을 활용하면 사용자가 모델 기반 시선 상호작용 시스템을 더 잘 이해하고 효과적으로 사용할 수 있다.
Abstract
이 연구는 혼합현실(XR) 환경에서 시선 기반 상호작용을 위한 설명 가능한 AI(XAI) 인터페이스를 개발하고 평가했다. 연구팀은 실시간 센서 데이터를 활용하는 XAI 인터페이스를 설계했으며, 이를 시각 검색 과제에 적용하여 사용자 연구를 수행했다.
연구 결과, XAI 인터페이스를 사용한 참가자들이 더 정확한 선택을 했으며(F1 score 10.8% 증가), 시간이 지남에 따라 더 효과적인 시선 행동을 보였다. 참가자들은 실시간 설명, 단순한 설명, 사용자 맞춤형 설명 등을 선호했다. 이러한 결과는 XAI가 사용자가 모델 기반 상호작용 시스템을 더 잘 이해하고 효과적으로 사용할 수 있도록 돕는다는 것을 시사한다.
Stats
XAI 조건의 참가자들의 F1 score는 0.92(SD=0.09)로, 대조군 0.83(SD=0.14)보다 유의미하게 높았다(t(29)=2.206, p<0.05).
XAI 조건의 참가자들의 시선 속도는 0.57(SD=0.036)로, 대조군 0.62(SD=0.048)보다 유의미하게 낮았다(t(29)=3.13, p<0.05).
XAI 조건의 참가자들의 고정 시간은 1.07(SD=0.36)로, 대조군 0.79(SD=0.29)보다 유의미하게 높았다(t(29)=2.17, p<0.05).
Quotes
"사용자는 실시간 설명, 단순한 설명, 사용자 맞춤형 설명 등을 선호했다."
"XAI 인터페이스를 사용한 참가자들이 더 정확한 선택을 했으며, 시간이 지남에 따라 더 효과적인 시선 행동을 보였다."