Core Concepts
토큰화 방식이 성 포용적 언어 모델의 성능에 큰 영향을 미치며, 데이터 부족으로 인한 토큰화 문제가 모델의 성 편향적 행동을 초래한다.
Abstract
이 논문은 성 포용적 언어 기술의 한계를 다룹니다. 대규모 언어 모델(LLM)이 성 다양성을 반영하지 못하는 문제, 특히 대명사 사용에서의 한계를 다룹니다.
주요 내용은 다음과 같습니다:
LLM이 성 다양성을 반영하지 못하는 이유는 데이터 부족 때문이며, 이는 토큰화 과정에서 드러납니다.
바이트 페어 인코딩(BPE) 토큰화 기법은 자주 등장하지 않는 대명사(neopronouns)를 과도하게 분절하여 모델이 이를 제대로 학습하지 못하게 합니다.
이러한 토큰화 문제는 모델의 대명사 사용 능력 저하로 이어져 성 편향적 행동을 초래합니다.
저자들은 토큰화 균등화(pronoun tokenization parity) 기법과 사전 학습된 대명사 지식 활용 방법을 제안하여 이 문제를 해결하고자 합니다.
실험 결과, 제안 기법들이 기존 방식 대비 성 다양성 반영 성능을 크게 향상시킴을 보여줍니다.
Stats
바이트 페어 인코딩(BPE) 토큰화 기법은 자주 등장하지 않는 대명사(neopronouns)를 과도하게 분절한다.
대명사 토큰화 균등화(pronoun tokenization parity) 기법을 적용하면 대명사 사용 정확도가 14.1%에서 58.4%로 향상된다.
Quotes
"토큰화 방식이 LLM의 성 편향적 행동에 큰 영향을 미친다는 것을 처음으로 밝혔다."
"데이터 부족으로 인한 토큰화 문제가 모델의 대명사 문법 이해 능력 저하로 이어져 성 편향적 행동을 초래한다."