이 논문에서는 BERT 언어 모델을 활용한 문장 분류 작업에서 일반적으로 사용되는 단일 출력층 이외의 다양한 분류 헤드 구조를 자동으로 탐색하는 방법을 제안한다.
먼저, 풀링 유형(max, mean, [CLS]), 기반 아키텍처 동결 여부, 완전 연결 신경망, 합성곱 신경망, 인코더 블록 등 다양한 분류 헤드 구조 옵션을 정의하였다. 이를 바탕으로 Bayesian Optimization과 Hyperband Scheduling 기반의 AutoML 파이프라인을 통해 최적의 분류 아키텍처를 자동으로 탐색하였다.
실험 결과, 제안한 BERTtuned 모델은 기존 BERTbase 모델 대비 GLUE 벤치마크 데이터셋에서 평균 0.9%의 정확도 향상을 보였다. 특히 소규모 데이터셋에서 3%의 큰 성능 향상을 달성하였다. 이는 다양한 분류 헤드 구조 옵션을 탐색함으로써 BERT 언어 모델의 성능을 효과적으로 높일 수 있음을 보여준다.
翻译成其他语言
从原文生成
arxiv.org
更深入的查询