핵심 개념
사전 훈련된 언어 모델인 BERT와 GPT-3를 활용하여 게임 내 악성 대화를 효과적으로 탐지할 수 있다.
초록
이 연구는 온라인 게임 플레이어들 사이에서 발생하는 악성 대화 문제를 해결하기 위해 사전 훈련된 언어 모델의 활용 가능성을 탐구했다.
데이터 수집 단계에서는 DOTA 2 게임의 채팅 데이터를 OpenDota API를 통해 수집하고, 이를 비악성, 경미한 악성, 악성 대화로 분류했다. 수집된 데이터에는 불균형이 존재했기 때문에 과소 표집 기법을 적용해 데이터셋을 균형화했다.
이후 BERT(Base-uncased), BERT(Large-uncased), GPT-3 모델을 활용해 게임 내 악성 대화 탐지 성능을 평가했다. 그 결과, GPT-3 모델이 83%의 가장 높은 정확도를 보였고, BERT(Large-uncased)와 BERT(Base-uncased)가 각각 82%, 80%의 정확도를 나타냈다.
이를 통해 사전 훈련된 언어 모델이 게임 내 악성 대화 탐지에 효과적으로 활용될 수 있음을 확인했다. 향후 연구에서는 데이터 수집 범위를 다양한 게임 플랫폼으로 확장하고, 다른 언어 모델 변형을 시도할 필요가 있다.
통계
"47%의 인터넷 사용자가 온라인 괴롭힘과 학대를 경험했다."
"72%의 게임 플레이어가 다른 플레이어를 향한 악성 행동을 목격했다."
"게임 내 부정적인 대화는 플레이어의 집중력, 즐거움, 몰입감에 부정적인 영향을 미친다."
"특정 게임 장르는 학업 성과와 대인 관계에 부정적인 영향을 미친다."
인용구
"게임 내 악성 행동을 탐지하고 완화하는 것이 중요하다."
"플레이어 피드백에 따르면 악성 행동 탐지 기능 강화가 문제 해결에 필수적이다."
"사전 훈련된 언어 모델은 온라인 혐오 발언과 게임 내 모욕적인 대화 문제 해결에 도움이 될 수 있다."