본 연구는 SemEval-2024 Task 8에 참여하여 AI 생성 텍스트 탐지 기술을 종합적으로 분석하였다.
통계적 모델 실험에서는 로지스틱 회귀, SVM, MLP, LightGBM 등 다양한 모델을 활용하였다. 특히 앙상블 모델인 Naive Bayes, SGDClassifier, LightGBM의 조합이 가장 우수한 성능을 보였다.
신경망 모델 실험에서는 CNN, RNN, LSTM 등을 FastText 임베딩과 결합하여 평가하였다. CNN+FastText 모델이 가장 높은 정확도를 달성하였다.
사전 학습 모델 실험에서는 BERT, RoBERTa, DistilRoBERTa 등 다양한 모델을 활용하였다. RoBERTa Base OpenAI Detector 모델이 단일 모델 중 가장 우수한 성능을 보였다.
실험 결과, 통계 모델이 개발 데이터에서 다소 낮은 성능을 보였지만 테스트 데이터에서 우수한 일반화 능력을 보였다. 반면 사전 학습 모델은 개발 데이터에서 높은 성능을 보였지만 테스트 데이터에서 성능이 저하되는 경향을 보였다. 이는 학습 데이터와 테스트 데이터의 출처 차이로 인한 과적합 문제로 추정된다.
본 연구는 AI 생성 텍스트 탐지를 위한 다양한 접근법을 제시하고, 실험 결과와 향후 과제를 논의함으로써 해당 분야의 발전에 기여할 것으로 기대된다.
다른 언어로
소스 콘텐츠 기반
arxiv.org
더 깊은 질문