Core Concepts
대규모 언어 모델(LLM)의 텍스트 생성 능력이 발전함에 따라, 이로 인한 허위 정보 유포, 개인 정보 유출 등의 우려가 대두되고 있다. 본 연구는 통계적, 신경망, 사전 학습 모델 등 다양한 방법론을 활용하여 다영역 및 다언어 AI 생성 텍스트를 효과적으로 탐지하는 방법을 제안한다.
Abstract
본 연구는 SemEval-2024 Task 8에 참여하여 AI 생성 텍스트 탐지 기술을 종합적으로 분석하였다.
통계적 모델 실험에서는 로지스틱 회귀, SVM, MLP, LightGBM 등 다양한 모델을 활용하였다. 특히 앙상블 모델인 Naive Bayes, SGDClassifier, LightGBM의 조합이 가장 우수한 성능을 보였다.
신경망 모델 실험에서는 CNN, RNN, LSTM 등을 FastText 임베딩과 결합하여 평가하였다. CNN+FastText 모델이 가장 높은 정확도를 달성하였다.
사전 학습 모델 실험에서는 BERT, RoBERTa, DistilRoBERTa 등 다양한 모델을 활용하였다. RoBERTa Base OpenAI Detector 모델이 단일 모델 중 가장 우수한 성능을 보였다.
실험 결과, 통계 모델이 개발 데이터에서 다소 낮은 성능을 보였지만 테스트 데이터에서 우수한 일반화 능력을 보였다. 반면 사전 학습 모델은 개발 데이터에서 높은 성능을 보였지만 테스트 데이터에서 성능이 저하되는 경향을 보였다. 이는 학습 데이터와 테스트 데이터의 출처 차이로 인한 과적합 문제로 추정된다.
본 연구는 AI 생성 텍스트 탐지를 위한 다양한 접근법을 제시하고, 실험 결과와 향후 과제를 논의함으로써 해당 분야의 발전에 기여할 것으로 기대된다.
Stats
단일 언어 데이터의 경우 로지스틱 회귀 모델이 n-gram 수준의 TF-IDF 임베딩을 사용하여 71.2%의 정확도를 달성하였다.
다언어 데이터의 경우 BERT Multilingual Base 모델이 버전 2의 전처리 데이터를 사용하여 73.8%의 정확도를 달성하였다.
다중 분류 과제에서는 RoBERTa Base OpenAI Detector 모델이 83.7%의 정확도를 달성하였다.
Quotes
"대규모 언어 모델(LLM)의 개방형 텍스트 생성 기술은 허위 정보, 개인 정보 유출 등 다양한 우려를 야기하고 있다."
"현재 AI 생성 텍스트와 인간 작성 텍스트의 구분은 여전히 어려운 과제이다. 문법성, 응집성, 유창성, 실세계 지식 활용 측면에서 두 텍스트 간 유사성이 크기 때문이다."