Core Concepts
대규모 언어 모델을 활용하여 러시아어 뉴스 기사에서 언급된 개체에 대한 감성을 효과적으로 추출할 수 있다.
Abstract
이 논문은 대규모 언어 모델(LLM)을 활용하여 러시아어 뉴스 기사에서 언급된 개체에 대한 감성을 분석하는 연구를 다룹니다.
실험에서는 다음과 같은 접근법을 사용했습니다:
제로샷 실험: 다양한 LLM 모델을 활용하여 러시아어 RuSentNE-2023 데이터셋과 영어로 번역된 RuSentNE-2023en 데이터셋에 대한 감성 분석을 수행했습니다.
파인튜닝 실험: Flan-T5 모델을 RuSentNE-2023en 데이터셋에 대해 파인튜닝하여 성능 향상을 확인했습니다. 특히 Three-Hop-Reasoning(THoR) 기법을 적용하여 추론 능력을 높였습니다.
실험 결과, 제로샷 접근법으로도 기존 BERT 기반 모델과 유사한 성능을 달성할 수 있었습니다. 파인튜닝 실험에서는 Flan-T5 모델이 기존 최고 성과를 넘어서는 결과를 보였습니다. 특히 THoR 기법을 적용한 Flan-T5xl 모델이 가장 좋은 성능을 보였습니다.
Stats
러시아 뉴스 기사에서 언급된 개체에 대한 감성 분석 성능이 기존 최고 수준을 넘어섰다.
Flan-T5xl 모델에 THoR 기법을 적용한 경우 F1(PN) 지표가 68.20으로 가장 높은 성능을 보였다.
Quotes
"대규모 언어 모델을 활용하여 러시아어 뉴스 기사에서 언급된 개체에 대한 감성을 효과적으로 추출할 수 있다."
"Flan-T5xl 모델에 THoR 기법을 적용한 경우 F1(PN) 지표가 68.20으로 가장 높은 성능을 보였다."