Core Concepts
集約されたラベルのみを提供されたモデルは、高い不一致データインスタンスに対して低い信頼度を示す。
Abstract
人間の注釈者間での意見の相違が自然に存在する主観的なタスクにおいて、集約されたラベルだけを提供されたモデルは、高い不一致テキストインスタンスが難しい理由は、従来の集約モデルが主観的なタスクから有用なシグナルを抽出する能力が低いためであることを示す研究。最近の研究から着想を得て、生の注釈から学習する効果性を実証し、複数の正解(Multi-GT)アプローチを使用して分類することに焦点を当てる。実験では、高い不一致インスタンスに対する信頼度が向上したことが示されています。
Stats
モデルの信頼度が高い不一致サンプルで改善されました。
3つの異なるデータセットで大きな相関があります。
Quotes
"Datasets labeled by human annotators play a critical role in many supervised Natural Language Processing (NLP) tasks."
"Researchers have raised awareness about the harms of aggregating labels especially in subjective tasks that naturally contain disagreements among human annotators."