이 연구는 생성 언어 모델(GLM)의 출력에 대한 독성 점수 기반 필터링에 대한 대안을 제시한다. 현재 플랫폼에서 사용되는 고정 임계값 기반 필터링은 소수 집단에 대한 편향성과 언어 재활용 과정을 저해할 수 있다. 이에 저자들은 사용자가 개인 맞춤형 허용 기준을 설정할 수 있는 동적 임계값 기반 필터링 메커니즘을 제안한다.
이 메커니즘에서 사용자는 GLM 출력에 대한 미리보기와 향후 필터링 여부를 결정할 수 있다. 이를 통해 사용자는 자신의 선호와 가치관에 맞게 GLM 출력을 조절할 수 있다.
저자들은 30명의 참가자를 대상으로 한 파일럿 연구를 수행했다. 결과적으로 제안된 구제책 메커니즘은 사용성 향상과 사용자 주도권 증진에 도움이 될 수 있음을 시사한다. 그러나 사용자가 실제로 GLM 출력을 수정하는 데 어려움을 겪었다는 점도 발견되었다. 향후 연구에서는 사용자 경험과 언어 재활용 과정에 대한 깊이 있는 이해가 필요할 것으로 보인다.
Na inny język
z treści źródłowej
arxiv.org
Głębsze pytania