Keskeiset käsitteet
本研究は、単語レベルおよび文レベルのソフトモメンタムコントラスティブ学習を提案し、事前学習時に感情情報を効果的に取り入れることで、感情関連タスクの性能を向上させる。
Tiivistelmä
本研究は、感情を考慮したプリトレーニングのためのソフトモメンタムコントラスティブ学習(SoftMCL)を提案している。
主な特徴は以下の通り:
-
感情の強さを表す連続値のバランス評価を、CL の正例と負例の類似度を測る際の監督信号として導入する。これにより、単純な感情極性分類ではなく、より細かな感情情報を学習できる。
-
単語レベルと文レベルの両方でCLを行い、感情情報を多角的に学習する。
-
モメンタムキューを導入し、バッチサイズの制限を受けずに多様な負例サンプルを活用できるようにする。
実験の結果、提案手法は感情関連タスクにおいて既存手法を上回る性能を示した。特に、単語レベルと文レベルのCLを組み合わせることで、より良い感情表現が得られることが確認された。また、モメンタムキューの導入により、ハードウェアの制限を受けずに高品質な負例サンプルを活用できることが示された。
Tilastot
感情の強さを表す連続値のバランス評価は、単語レベルではE-ANEWから、文レベルではEmoBank から取得している。
単語レベルのCLでは、E-ANEWに含まれる感情語から256個をランダムサンプリングしている。
文レベルのCLでは、[CLS]トークンの隠れ表現を用いて、文間の感情類似度を測定している。
Lainaukset
"The pre-training for language models captures general language understanding but fails to distinguish the affective impact of a particular context to a specific word."
"Recent works have sought to introduce contrastive learning (CL) for sentiment-aware pre-training in acquiring affective information."
"Instead of hard labels, we introduce valence ratings as soft-label supervision for CL to fine-grained measure the sentiment similarities between samples."