이 연구는 자동 생성된 시험 콘텐츠에서 공정성 문제를 식별하는 방법을 탐구합니다. 자연어 생성 도구는 강력하고 효과적이지만, 언어 모델은 편향성과 공정성 문제를 보여왔기 때문에 많은 사용 사례에 적용하기 어렵습니다.
연구진은 특정 도메인과 경험에만 초점을 맞추거나 정서적으로 불편할 수 있는 콘텐츠를 식별했습니다. 이러한 콘텐츠는 시험 점수에 부정적인 영향을 미칠 수 있습니다. 621개의 생성된 텍스트 데이터셋을 구축하고 공정성 여부를 주석 처리했습니다.
다양한 분류 방법을 실험했는데, 프롬프트 자체 수정과 few-shot 학습을 결합한 방법이 가장 좋은 성능을 보였습니다. 이 방법은 in-domain 테스트 세트에서 0.791의 F1 점수를 달성했습니다. 반면 작은 BERT 및 토픽 기반 모델은 out-of-domain 데이터에서 경쟁력 있는 성능을 보였습니다.
Ke Bahasa Lain
dari konten sumber
arxiv.org
Wawasan Utama Disaring Dari
by Kevin Stowe,... pada arxiv.org 04-24-2024
https://arxiv.org/pdf/2404.15104.pdfPertanyaan yang Lebih Dalam