toplogo
登入

문맥 정보를 활용한 합성 데이터셋을 이용한 개체명 인식 모델 학습


核心概念
문서 수준의 문맥 정보를 활용하여 개체명 인식 성능을 향상시킬 수 있다.
摘要

이 논문은 개체명 인식(NER) 작업에서 문서 수준의 문맥 정보를 활용하는 방법을 제안한다. 최근 사전 학습된 트랜스포머 모델은 NER 작업에서 높은 정확도를 보이지만, 긴 문서에 적용할 경우 입력 길이 제한으로 인한 성능 저하가 발생한다. 이를 해결하기 위해 문서 수준의 관련 문맥을 검색하여 입력에 추가하는 방법을 제안한다.

논문에서는 먼저 Alpaca라는 지시 기반 대규모 언어 모델을 활용하여 합성 문맥 검색 데이터셋을 생성한다. 이 데이터셋을 이용하여 BERT 기반의 신경망 문맥 검색기를 학습한다. 이 문맥 검색기는 주어진 문장에 대해 관련 문맥 문장을 검색하고 순위를 매긴다.

실험 결과, 제안한 신경망 문맥 검색기는 비지도 문맥 검색 방법보다 우수한 성능을 보였으며, 수동으로 주석된 데이터셋을 이용해 학습한 재순위화 모델과 유사하거나 더 나은 성능을 보였다. 또한 생성에 사용한 언어 모델의 크기가 최종 성능에 큰 영향을 미치지 않는 것으로 나타났다.

edit_icon

客製化摘要

edit_icon

使用 AI 重寫

edit_icon

產生引用格式

translate_icon

翻譯原文

visual_icon

產生心智圖

visit_icon

前往原文

統計資料
문맥 검색 성능이 향상되면 개체명 인식 F1 점수가 약 1점 정도 향상된다. 제안한 신경망 문맥 검색기는 비지도 문맥 검색 방법보다 전반적으로 우수한 성능을 보인다.
引述
"문서 수준의 문맥 정보는 개체명 구분에 유용하지만, 트랜스포머 모델의 입력 길이 제한으로 인해 활용하기 어렵다." "지시 기반 대규모 언어 모델을 활용하여 합성 문맥 검색 데이터셋을 생성할 수 있다."

深入探究

문맥 문장 간의 상호작용을 고려하여 문맥 검색 성능을 더 향상시킬 수 있는 방법은 무엇일까?

문맥 검색 성능을 향상시키기 위해 문맥 문장 간의 상호작용을 고려하는 방법 중 하나는 상호작용을 반영한 다단계 문맥 검색 접근 방식을 채택하는 것입니다. 이는 각 후보 문맥을 입력 문장에 반복적으로 추가하고, 남은 후보들을 해당 새로운 입력에 대해 순위를 매기는 방식입니다. 이를 통해 후보 문맥 간의 관계를 고려하고, 더욱 관련성 높은 문맥을 선택할 수 있습니다. 또한, 상호작용을 고려한 모델을 훈련시키기 위해 다양한 문맥 간의 상호작용을 반영하는 데이터셋을 사용하는 것도 효과적일 수 있습니다.
0
star