Core Concepts
대규모 언어 모델과 인간 사이의 17개 지속가능발전목표에 대한 태도 차이를 조사하고 분석하여 이를 해결하기 위한 전략과 권장사항을 제시한다.
Abstract
이 연구는 대규모 언어 모델(LLM)과 인간의 17개 지속가능발전목표(SDG)에 대한 태도 차이를 포괄적으로 검토하고 분석한다.
첫째, LLM과 인간의 SDG에 대한 이해와 감정, 문화적/지역적 차이, 과제 목적의 차이, 의사결정 과정에서 고려되는 요인 등의 차이를 살펴본다.
둘째, LLM의 SDG에 대한 태도를 간과할 경우 발생할 수 있는 위험과 해로운 영향, 예를 들어 사회적 불평등 심화, 인종차별 악화, 환경 파괴, 자원 낭비 등을 분석한다.
마지막으로 LLM의 적용을 규제하고 SDG의 원칙과 목표에 부합하도록 하는 전략과 권장사항을 제시한다. 이를 통해 더 공정하고 포용적이며 지속가능한 미래를 만들어갈 수 있을 것이다.
Stats
LLM 훈련 데이터의 편향성과 불균형으로 인해 SDG에 대한 이해와 감정, 문화적 차이를 충분히 반영하지 못하고 있다.
LLM은 데이터 기반 분석에 치중하여 지역 문화와 사회적 복잡성을 간과할 수 있다.
LLM은 윤리적 가치와 사회적 책임을 충분히 고려하지 못하여 SDG 달성에 부정적인 영향을 미칠 수 있다.
LLM의 에너지 소비와 환경 영향은 SDG 달성에 장애가 될 수 있다.
Quotes
"LLM은 인간의 도덕적 가치와 선호도에 일치하도록 개발되어야 하며, 유해한 콘텐츠 대신 유익한 콘텐츠를 생성하도록 해야 한다."
"LLM의 개발과 배포에 대한 효과적인 거버넌스 체계가 필요하며, 이를 통해 책임감 있게 사용되도록 해야 한다."
"LLM의 기술적, 윤리적, 사회적 차원을 종합적으로 고려하여 지속가능발전에 기여할 수 있도록 해야 한다."