Core Concepts
特徴密度を活用した新しい一貫性学習フレームワークであるDensity-Descending Feature Perturbation(DDFP)が、決定境界を探索し、モデルの汎化能力を向上させることが示されました。
Abstract
この研究では、半教師付きセマンティックセグメンテーションにおける新しい特徴レベルの一貫性学習戦略であるDensity-Descending Feature Perturbation(DDFP)が提案されました。DDFPは、低密度領域に摂動された特徴を作成し、決定境界を探索してモデルの汎化性能を向上させます。この手法は、正規化フローに基づく軽量な密度推定器によって実現されます。様々なデータ設定で行われた包括的な実験では、DDFPが効果的にモデルのパフォーマンスを向上させ、他の種類の特徴レベル摂動設計を凌駕していることが示されています。
Stats
DDFPは競合手法よりも+29.18%〜+13.63%高いパフォーマンスを達成しました。
DDFPはPascal VOCおよびCityscapesデータセットで最先端のパフォーマンスを発揮しました。
デフォルト設定では、ステップサイズ4で最適な結果が得られました。
Quotes
"Our DDFP significantly improves supervised baseline by +11.36%, +5.66%, +5.45% and +2.99% on 1/16, 1/8, 1/4 and 1/2 splits."
"Extensive experiments under various data settings have shown that our DDFP can effectively boost model performance and outperform other types of feature-level perturbation designs."