이 연구는 AI 보조 의사결정 상황에서 인간의 자기 확신 적절성과 AI 의존성 적절성의 관계를 탐구한다.
첫 번째 연구에서는 인간의 자기 확신 적절성과 AI 의존성 적절성 간의 관계를 조사했다. 결과는 인간의 자기 확신이 부적절할 경우 AI에 대한 부적절한 의존으로 이어질 수 있음을 보여준다.
이를 바탕으로 두 번째 연구에서는 인간의 자기 확신을 보정하기 위한 세 가지 메커니즘(Think the Opposite, Thinking in Bets, Calibration Status Feedback)을 제안하고 평가했다. Think와 Feedback은 참여자의 자기 확신 수준을 실제 정확도와 잘 일치시켰지만, Think는 복잡성과 정신적 부담이 높아 사용자 선호도가 낮았다.
세 번째 연구에서는 자기 확신 보정이 AI 보조 의사결정에 미치는 영향을 조사했다. 자기 확신 보정은 사람들의 더 합리적인 AI 의존 행동, 과소 의존 감소, 그리고 과제 수행 향상으로 이어졌다.
이 연구는 인간-AI 협업 의사결정에서 자기 확신 적절성의 핵심 역할을 밝혀내고, 자기 확신 보정 방법론을 제안함으로써 관련 연구에 기여한다.
To Another Language
from source content
arxiv.org
Key Insights Distilled From
by Shuai Ma,Xin... at arxiv.org 03-15-2024
https://arxiv.org/pdf/2403.09552.pdfDeeper Inquiries