核心概念
대형 언어 모델은 정치적으로 편향된 반응을 제공하는 경향이 있으며, 특히 낙태, 총기 규제, LGBTQ+ 문제와 같은 민감한 주제에서 더욱 두드러진다. 이러한 편향성은 모델의 훈련 데이터와 아키텍처에 내재된 문제일 수 있다.
要約
이 연구는 대형 언어 모델의 정치적 성향을 체계적으로 조사하였다. 주요 결과는 다음과 같다:
-
대형 언어 모델은 전반적으로 보수적인 관점보다는 진보적인 관점에 더 가까운 경향을 보인다. 특히 낙태, 총기 규제, LGBTQ+ 문제 등에서 두드러진다.
-
모델에 특정 직업 역할을 부여하면 대부분의 직업에서 진보적인 성향이 나타난다. 의료, 교육 분야에서 가장 진보적인 반응을 보인다.
-
모델에 민주당 정치인 역할을 부여하면 대부분 진보적인 반응을 보이지만, 공화당 정치인 역할을 부여해도 여전히 진보적인 반응이 나타난다. 이는 모델이 보수적인 관점을 충분히 반영하지 못함을 보여준다.
-
모델 자체도 자신의 반응이 정치적으로 편향되어 있다고 인식하고 있다. 특히 Llama-2와 GPT-4가 상대적으로 정치적 중립성을 잘 유지하고 있다고 평가했다.
이러한 결과는 대형 언어 모델이 정치적 편향성을 가지고 있으며, 이는 훈련 데이터와 모델 아키텍처의 문제일 수 있음을 시사한다. 사용자는 이러한 편향성을 인지하고 언어 모델을 정치적 정보의 유일한 출처로 의존하지 않도록 주의해야 한다.
統計
미국 유권자의 90%가 현재 가장 정치적으로 분열된 시기에 살고 있다고 믿고 있다.
대형 언어 모델은 전체 미국 인구의 약 30%와 정치적 성향이 유사하다.
Llama-2와 GPT-4는 자신의 반응이 정치적으로 중립적이라고 생각하는 비율이 각각 93%와 91%로 가장 높다.
引用
"LLMs tend to favor more liberal responses to queries. This suggests a consistency in their behavior, indicating that they have a predisposition for generating liberal-leaning content when prompted with additional information."
"The key concern raised here is that this consistency could indicate a systemic issue within the models' training data or architecture."