核心概念
BERT 모델에 언어 특징을 추가하여 복잡한 언어 구조를 이해하고 정확한 답변을 예측할 수 있다.
摘要
이 연구에서는 BERT 모델을 기반으로 언어 특징을 추가하여 SQuAD 2.0 질문 답변 시스템의 성능을 향상시켰다.
- BERT 모델은 많은 자연어 처리 과제에서 좋은 성과를 보였지만, 복잡한 언어 구조에서 오류가 발생하는 경우가 있었다.
- 이를 해결하기 위해 개체명, 품사, 구문 의존성, 불용어 등의 언어 특징을 BERT 모델에 추가하였다.
- 실험 결과, BERT 베이스 모델 대비 EM 점수와 F1 점수가 각각 2.17과 2.14 향상되었다.
- BERT 대형 모델에 적용했을 때는 성능 향상이 크지 않았지만, 훈련 비용이 큰 BERT 대형 모델 대신 BERT 베이스 모델에 언어 특징을 추가하는 것이 효과적일 수 있다.
- 오류 분석 결과, 언어 특징을 활용하면 BERT 모델이 복잡한 언어 구조에서 "답변 없음"을 잘못 예측하는 경우를 개선할 수 있다.
- 하지만 여전히 답변 존재 여부를 정확하게 판단하는 것이 과제로 남아있다.
统计
BERT 베이스 모델의 EM 점수는 71.59, F1 점수는 74.72이었다.
제안한 모델의 EM 점수는 73.76, F1 점수는 76.86으로 각각 2.17과 2.14 향상되었다.
BERT 대형 모델의 EM 점수는 78.51, F1 점수는 81.34이었고, 제안한 모델의 EM 점수는 78.17, F1 점수는 81.20이었다.
引用
"BERT 모델은 많은 자연어 처리 과제에서 좋은 성과를 보였지만, 복잡한 언어 구조에서 오류가 발생하는 경우가 있었다."
"제안한 모델의 EM 점수와 F1 점수가 BERT 베이스 모델 대비 각각 2.17과 2.14 향상되었다."