이 논문은 대규모 언어 모델(LLM)의 사회적 오귀속 문제를 다룬다. LLM은 다양한 역할과 인격을 시뮬레이션할 수 있는 능력을 가지고 있어, 설계자와 사용자 간에 이에 대한 인식 차이가 발생할 수 있다. 이는 감정 조종, 부적절한 행동 강화, 인식적 불공정, 부적절한 책임 귀속 등의 위험을 초래할 수 있다.
이를 해결하기 위해 저자들은 사회적 투명성 프레임워크에 '어떤 사회적 귀속이 LLM에 할당되었는지, 그리고 사용자가 어떤 귀속을 부여하는지'를 명확히 하는 5번째 'W 질문'을 추가할 것을 제안한다. 이를 통해 LLM의 실제 기능과 사용자의 인식 사이의 격차를 해소하고, LLM 기반 기술의 윤리적 개발과 사용을 촉진할 수 있다.
저자들은 이를 지원하기 위한 두 가지 방법을 제시한다. 첫째, 적절하고 부적절한 역할 및 인격 귀속에 대한 분류법을 개발하여 사용자를 안내한다. 둘째, 대화 중 사회적 오귀속을 탐지하고 완화하는 알고리즘을 구현한다.
他の言語に翻訳
原文コンテンツから
arxiv.org
深掘り質問