이 연구는 대규모 언어 모델(LLM)이 다양한 글로벌 관점을 공정하게 반영하는지 평가하기 위한 정량적 프레임워크를 개발했다.
먼저 세계 여론 조사 데이터(PEW, WVS)를 활용하여 GlobalOpinionQA 데이터셋을 구축했다. 이 데이터셋은 전 세계 다양한 국가의 의견을 반영하는 질문과 답변으로 구성되어 있다.
이후 LLM의 응답과 각 국가 참여자의 응답 간 유사도를 측정하는 지표를 정의했다. 이를 통해 3가지 실험을 수행했다:
기본 프롬프팅(DP): LLM의 응답이 특정 국가(미국, 캐나다, 호주, 유럽 및 남미 국가)의 의견과 더 유사한 것으로 나타났다. 이는 LLM에 내재된 편향을 보여준다.
국가별 프롬프팅(CP): 특정 국가(중국, 러시아 등)의 관점을 요구하면 LLM의 응답이 해당 국가의 의견과 유사해지지만, 이는 단순한 고정관념 반영일 수 있다.
언어별 프롬프팅(LP): 질문을 다른 언어(러시아어, 중국어, 터키어)로 번역해도 LLM의 응답은 여전히 서구 국가의 의견과 유사하다.
이 연구는 LLM이 다양한 문화적 관점을 균형 있게 반영하지 못하는 문제를 지적하고, 이를 해결하기 위한 방향을 제시한다. 향후 연구에서는 보다 포용적이고 공정한 LLM 개발을 위한 구체적인 방안을 모색해야 할 것이다.
Іншою мовою
із вихідного контенту
arxiv.org
Ключові висновки, отримані з
by Esin Durmus,... о arxiv.org 04-15-2024
https://arxiv.org/pdf/2306.16388.pdfГлибші Запити