Core Concepts
RoBERTa 모델의 다양한 레이어에 저장된 언어 정보를 활용하여 기계 생성 텍스트를 효과적으로 탐지할 수 있다.
Abstract
이 논문은 SemEval 2024 Task 8: 다중 생성기, 다영역, 다언어 블랙박스 기계 생성 텍스트 탐지 대회에 제출된 저자들의 접근 방식을 설명한다.
저자들은 RoBERTa 모델의 모든 레이어 출력을 가중 평균하여 사용함으로써, 단순히 마지막 레이어의 [CLS] 토큰만을 사용하는 것보다 더 나은 성능을 달성할 수 있었다. 이를 통해 어휘, 구문, 의미 정보 등 다양한 언어 정보를 효과적으로 활용할 수 있었다.
또한 저자들은 AdaLoRA 기법을 사용하여 모델 파라미터를 효율적으로 미세 조정하였다. 이를 통해 과도한 미세 조정으로 인한 문제를 방지하고 일반화 성능을 높일 수 있었다.
실험 결과, 저자들의 모델은 자체 검증 데이터셋에서 우수한 성능을 보였지만, 공식 테스트 데이터셋에서는 기준 모델보다 다소 낮은 성능을 보였다. 이는 아직 미지의 도메인과 생성기에 대한 일반화 능력이 부족한 것으로 보인다. 향후 LSTM과 같은 모델을 활용하여 더 복잡한 특징과 패턴을 포착하는 것이 도움이 될 것으로 예상된다.
Stats
기준 모델 대비 Subtask A에서 약 13%p, Subtask B에서 약 1%p 낮은 성능을 보였다.
자체 검증 데이터셋에서는 Subtask A의 정확도가 0.9900, Subtask B의 정확도가 0.979를 기록했다.
공식 테스트 데이터셋에서는 Subtask A의 정확도가 0.7538, Subtask B의 정확도가 0.7398을 기록했다.