언어 모델은 점점 더 많은 사람들이 사용하는 인공지능 기술이 되고 있지만, 소수의 기업이 독점적으로 접근할 수 있는 대규모 데이터와 자원을 가지고 있어 형평성과 혁신을 저해할 수 있다. 언어 모델을 공동체가 관리하고 운영하는 공동재로 다룰 수 있다면 더 나은 접근성, 형평성, 투명성을 가질 수 있다.
대규모 언어 모델의 추론 능력을 향상시키고, 공정성과 안전성 문제를 해결하며, 설명 가능성을 높이고, 멀티모달리티를 다루는 데 인과 추론 방법론이 활용될 수 있다. 또한 대규모 언어 모델은 인과 관계 발견과 인과 효과 추정에 기여할 수 있다.
대규모 언어 모델(LLM)은 번역, 요약, 감정 분석 등 다양한 응용 분야에서 뛰어난 성과를 보이고 있으며, 혐오 표현 탐지 분야에서도 주목받고 있다. 본 연구는 LLM의 혐오 표현 탐지 성능을 종합적으로 평가하고, 이들의 강점과 한계를 분석하여 향후 발전 방향을 제시한다.
대형 언어 모델의 추상화 능력을 활용하여 복잡한 추론 문제를 해결할 수 있다.