핵심 개념
사용자가 생성 언어 모델의 출력에 대한 개인 맞춤형 허용 기준을 설정할 수 있도록 하여, 언어 재활용 과정을 지원하고 사용자 주도권을 높이는 방법을 제안한다.
초록
이 연구는 생성 언어 모델(GLM)의 출력에 대한 독성 점수 기반 필터링에 대한 대안을 제시한다. 현재 플랫폼에서 사용되는 고정 임계값 기반 필터링은 소수 집단에 대한 편향성과 언어 재활용 과정을 저해할 수 있다. 이에 저자들은 사용자가 개인 맞춤형 허용 기준을 설정할 수 있는 동적 임계값 기반 필터링 메커니즘을 제안한다.
이 메커니즘에서 사용자는 GLM 출력에 대한 미리보기와 향후 필터링 여부를 결정할 수 있다. 이를 통해 사용자는 자신의 선호와 가치관에 맞게 GLM 출력을 조절할 수 있다.
저자들은 30명의 참가자를 대상으로 한 파일럿 연구를 수행했다. 결과적으로 제안된 구제책 메커니즘은 사용성 향상과 사용자 주도권 증진에 도움이 될 수 있음을 시사한다. 그러나 사용자가 실제로 GLM 출력을 수정하는 데 어려움을 겪었다는 점도 발견되었다. 향후 연구에서는 사용자 경험과 언어 재활용 과정에 대한 깊이 있는 이해가 필요할 것으로 보인다.
통계
대화 당 평균 메시지 수: 대조군 24개, 실험군 21개
대화 당 평균 단어 수: 대조군 1,234개, 실험군 1,189개
대화 당 평균 문자 수: 대조군 7,890자, 실험군 7,654자
대화 중 평균 안전 응답 횟수: 대조군 4.8회, 실험군 2.4회
인용구
"챗봇이 중국어로 답변하기 시작했고, 내가 영어로 답변해도 계속 중국어로 답변했습니다."
"챗봇이 갑자기 무례하고 무시하는 태도를 보였고, 단어 대신 밈으로 답변했습니다."