本研究は、大規模言語モデルの感情認識タスクにおける既存知識の影響を調査した。
まず、大規模言語モデルの感情認識性能を従来の機械学習ベースのモデルと比較したところ、大幅に劣る結果となった。特に大規模なモデルほど既存知識の影響が強く、提示された教示に適応できないことが明らかになった。
次に、既存知識の影響を定量的に評価するための実験を行った。モデルの予測結果と、ゼロショット推論による既存知識の予測結果との類似度を比較したところ、大規模モデルほど既存知識に引き寄せられる傾向が強いことが示された。
さらに、モデルの予測の一貫性を調べたところ、既存知識に基づく予測の方が一貫性が高いことがわかった。一方で、教示に基づく予測の一貫性は必ずしも高くないことが明らかになった。
最後に、モデルの既存知識に基づく予測を教示に組み込むと、モデルの性能が向上することが示された。これは、既存知識を活用できる場合には良好な結果が得られる可能性を示唆している。
以上の結果から、大規模言語モデルの感情認識タスクにおける既存知識の強い影響力が明らかになった。感情認識のような主観的なタスクでは、モデルの既存知識が適切でない場合、教示による学習では十分な性能が得られない可能性がある。今後は、既存知識の影響を軽減する手法の開発が重要な課題となる。
Para outro idioma
do conteúdo fonte
arxiv.org
Principais Insights Extraídos De
by Georgios Cho... às arxiv.org 03-27-2024
https://arxiv.org/pdf/2403.17125.pdfPerguntas Mais Profundas