Core Concepts
大規模言語モデルを用いて、ロシア語ニュース記事中のターゲットに対する感情を抽出する手法を提案し、その有効性を示す。
Abstract
本論文では、ロシア語ニュース記事におけるターゲット感情分析に大規模言語モデルを適用する手法を提案している。
まず、ゼロショット学習の実験を行った。閉鎖型モデル(GPT-4、GPT-3.5)と開放型モデル(Mistral、DeciLM、Microsoft-Phi-2、Gemma、Flan-T5)を用いて、ロシア語の元の記事(RuSentNE-2023)と英語に自動翻訳した記事(RuSentNE-2023en)に対して感情分析を行った。その結果、英語の記事に対してはGPT-4が最も良い性能を示したが、ロシア語の元の記事に対しては性能が低下した。開放型モデルの中では、Mistralが最も良い性能を示した。
次に、Flan-T5モデルの fine-tuning を行った。2つの手法を検討した:
プロンプトチューニング
3段階の推論フレームワーク(THoR)
その結果、THoRを用いた fine-tuning により、ベースモデルに比べて5%以上の性能向上が得られた。特に、Flan-T5xlモデルがRuSentNE-2023の最高結果を上回る成績を収めた。
エラー分析では、以下のような課題が明らかになった:
文中に複数のエンティティが登場し、感情が一部のエンティティにのみ向けられている場合、モデルが正しいエンティティを特定できない
文中のネガティブな出来事に言及しつつ、対象エンティティに対する肯定的な感情を表現している場合、モデルがネガティブな感情を予測してしまう
文中のエンティティに対する感情が文外の別のエンティティに向けられている場合、モデルがそれを正しく捉えられない
今後の課題として、推論能力の向上や、より大規模なモデルの活用などが挙げられる。
Stats
ロシア語ニュース記事中の感情分析タスクにおいて、大規模言語モデルを用いた手法は、従来の手法と比べて5%以上の性能向上が得られた。