Core Concepts
異なるアノテーター間の一貫性とバイアスを解決する新しい対比回帰フレームワークを提案します。
Abstract
大規模データセットは深層学習モデルの開発に重要。
注釈作業は時間とコストがかかる。
異なるアノテーター間の一貫性とバイアスはモデルトレーニングに有害。
新しい対比回帰フレームワークで不連続注釈問題に取り組む。
2つの戦略を採用して、内部アノテーター一貫性とアノテーション者間不一致を考慮。
顔表情予測タスクおよび画像品質評価タスクで効果的なフレームワークを確認。
1. 導入
大規模ラベル付きデータセットが必要。
ラベリング作業は非常に時間とコストがかかる。
複数のアノテーターによってラベル付けされることが一般的。
2. 関連する作業
クラウドソース注釈から生じる不整合問題に取り組む方法が提案されている。
3. 方法論
3.1 問題記述
K人のアノテーターによって全データセットXがラベル付けされている。
3.2 マージンランキングロスに関する事前知識
3.3 不連続対比回帰(DCR)
不連続マージンランキングロス:異なるアノテーション者間で一貫性を保つために拡張されたマージンランキングロス。
相対順位への正則化:予測値を正規分布N(0,1)に制約することで、トレーニングを安定化させます。
GRLで不変表現を学習:GRLを使用して、バイアス非依存表現を学習します。
4. 実験結果
4.1 実装詳細
4.2 評価基準
4.3 主な結果
5. 結論
Stats
大規模データセットは深層学習モデルの開発に重要です。
複数のアノテーション者が通常必要です。