이 연구는 생성 언어 모델(GLM)의 출력에 대한 독성 점수 기반 필터링에 대한 대안을 제시한다. 현재 플랫폼에서 사용되는 고정 임계값 기반 필터링은 소수 집단에 대한 편향성과 언어 재활용 과정을 저해할 수 있다. 이에 저자들은 사용자가 개인 맞춤형 허용 기준을 설정할 수 있는 동적 임계값 기반 필터링 메커니즘을 제안한다.
이 메커니즘에서 사용자는 GLM 출력에 대한 미리보기와 향후 필터링 여부를 결정할 수 있다. 이를 통해 사용자는 자신의 선호와 가치관에 맞게 GLM 출력을 조절할 수 있다.
저자들은 30명의 참가자를 대상으로 한 파일럿 연구를 수행했다. 결과적으로 제안된 구제책 메커니즘은 사용성 향상과 사용자 주도권 증진에 도움이 될 수 있음을 시사한다. 그러나 사용자가 실제로 GLM 출력을 수정하는 데 어려움을 겪었다는 점도 발견되었다. 향후 연구에서는 사용자 경험과 언어 재활용 과정에 대한 깊이 있는 이해가 필요할 것으로 보인다.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Jennifer Chi... kl. arxiv.org 03-22-2024
https://arxiv.org/pdf/2403.14467.pdfDybere Forespørgsler