이 연구는 데이터 편향 문제를 다루고 있다. 최근 Alexa와 ChatGPT와 같은 AI 시스템에서 사회적 편향이 발생했다는 뉴스를 통해 이 문제가 지속되고 있음을 보여준다.
연구진은 6개의 영어 GLUE/SuperGLUE 벤치마크 데이터셋과 이탈리아어, 네덜란드어, 독일어, 스웨덴어 각 1개씩의 데이터셋을 평가했다. 이를 위해 최신 다국어 사전 훈련 모델인 mT5와 mBERT를 사용하여 편향 분류 작업을 수행했다.
실험 결과, 모든 데이터셋에서 편향이 발견되었다. 특히 영어 데이터셋에서 가장 높은 편향 수준이 나타났는데, 이는 영어 데이터가 가장 많이 사용되어 사전 훈련된 모델 때문인 것으로 보인다.
또한 연구진은 독성 댓글에도 편향이 존재한다는 가정을 확인하기 위해 MAB 데이터셋의 200개 샘플을 무작위로 선별하여 주석을 달았다. 그 결과 과반수의 샘플에서 편향이 발견되었다.
이 연구는 다국어 데이터셋에 편향이 존재함을 보여주고, 편향 측정을 위한 새로운 데이터셋과 어휘집을 제공한다. 또한 편향 완화를 위한 전략 수립의 필요성을 시사한다.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문