Keskeiset käsitteet
언어 모델은 주요 인물 정보 검색 시 성별에 따른 편향성을 보이며, 이는 모델 성능 향상에도 불구하고 완전히 해소되지 않는다. 성별 편향성은 모델의 정확도, 허구 생성률, 응답 거절률 등 다양한 측면에서 나타난다.
Tiivistelmä
이 연구는 GPT-3.5와 GPT-4 언어 모델의 주요 인물 정보 검색 성능을 평가하고, 성별에 따른 편향성을 분석했다. 세 가지 과제(기업가, 배우, 노벨상 수상자)를 통해 모델의 정확도, 허구 생성률, 응답 거절률을 측정했다.
GPT-3.5의 경우 전반적으로 낮은 정확도를 보였으며, 성별에 따른 편향성이 관찰되었다. 예를 들어 여성 노벨상 수상자의 경우 더 높은 정확도를 보였다. GPT-4는 성능이 향상되었지만, 성별 편향성이 완전히 해소되지는 않았다. 특히 응답 거절률에서 성별 차이가 나타났다.
추가 분석을 통해 허구 생성 시 남성 이름이 더 많이 생성되는 패턴을 발견했다. 이는 프롬프트의 단어(기업 이름, 산업 분야 등)와 성별 연관성에 기인한 것으로 보인다. GPT-4의 경우 이러한 편향성이 감소했지만, 완전히 해소되지는 않았다.
이 연구는 언어 모델의 성별 편향성을 다각도로 평가하고, 새로운 공정성 지표(Response Concentration Score)를 제안했다. 이를 통해 언어 모델의 성능 향상과 공정성 제고를 위한 시사점을 제공한다.
Tilastot
여성 노벨상 수상자는 남성 수상자에 비해 GPT-3.5에서 더 높은 정확도를 보였다.
GPT-4에서는 남성 기업가에 대한 응답 거절률이 여성 기업가보다 더 높았다.
GPT-3.5에서 생성된 허구 이름의 경우 남성 이름이 더 많았으며, 이는 프롬프트의 단어(기업 이름, 산업 분야 등)와 성별 연관성에 기인한 것으로 나타났다.
Lainaukset
"GPT-4의 성능 향상에도 불구하고, 성별 편향성은 완전히 해소되지 않았다."
"응답 거절률에서 성별 차이가 나타났는데, GPT-4는 남성 주요 인물에 대해 더 많이 거절했다."
"허구 생성 시 남성 이름이 더 많이 생성되는 패턴은 프롬프트의 단어와 성별 연관성에 기인한 것으로 보인다."