이 연구는 AI 보조 의사결정 상황에서 인간의 자기 확신 적절성과 AI 의존성 적절성의 관계를 탐구한다.
첫 번째 연구에서는 인간의 자기 확신 적절성과 AI 의존성 적절성 간의 관계를 조사했다. 결과는 인간의 자기 확신이 부적절할 경우 AI에 대한 부적절한 의존으로 이어질 수 있음을 보여준다.
이를 바탕으로 두 번째 연구에서는 인간의 자기 확신을 보정하기 위한 세 가지 메커니즘(Think the Opposite, Thinking in Bets, Calibration Status Feedback)을 제안하고 평가했다. Think와 Feedback은 참여자의 자기 확신 수준을 실제 정확도와 잘 일치시켰지만, Think는 복잡성과 정신적 부담이 높아 사용자 선호도가 낮았다.
세 번째 연구에서는 자기 확신 보정이 AI 보조 의사결정에 미치는 영향을 조사했다. 자기 확신 보정은 사람들의 더 합리적인 AI 의존 행동, 과소 의존 감소, 그리고 과제 수행 향상으로 이어졌다.
이 연구는 인간-AI 협업 의사결정에서 자기 확신 적절성의 핵심 역할을 밝혀내고, 자기 확신 보정 방법론을 제안함으로써 관련 연구에 기여한다.
To Another Language
from source content
arxiv.org
Дополнительные вопросы