이 연구는 대화형 언어 모델(GLM)에서 사용자의 재발권을 높이기 위한 방법을 제안한다. 현재 플랫폼들은 콘텐츠 모더레이션을 위해 독성 점수를 사용하지만, 이는 소수 집단에 대한 편향을 반영하여 해당 집단에 불균형적인 피해를 줄 수 있다. 연구진은 사용자가 개인적 허용 수준을 설정할 수 있는 동적 임계값 시스템을 제안했다. 이를 통해 사용자는 모델 출력에 대한 통제권을 높일 수 있다.
30명의 참가자를 대상으로 한 파일럿 연구에서, 참가자들은 대부분 재발권 메커니즘을 활용했으며 이를 통해 대화 에이전트의 사용성이 향상되는 것으로 나타났다. 그러나 참가자들은 여전히 모델 출력을 수정하는 데 어려움을 겪었다. 이는 재발권 메커니즘의 설계와 사용자 경험에 대한 추가 연구가 필요함을 시사한다. 향후 연구에서는 소수 집단의 관점을 더 잘 반영하고, 언어 모델의 편향을 해결하기 위한 사용자 주도적 접근법을 탐구해야 할 것이다.
Naar een andere taal
vanuit de broninhoud
arxiv.org
Belangrijkste Inzichten Gedestilleerd Uit
by Jennifer Chi... om arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14467.pdfDiepere vragen