本論文は、データ拡張(DA)の新しいアプローチであるEntAugmentを提案している。従来のDAは、ランダムな強度で一律に適用されていたが、EntAugmentは各サンプルの難易度と深層学習モデルの学習進捗に応じて、データ拡張の強度を動的に調整する。
具体的には、EntAugmentでは、モデルの出力確率分布のエントロピーを指標として、サンプルの難易度を評価する。難易度の高いサンプルには控えめな拡張を、難易度の低いサンプルには強い拡張を適用することで、過剰な変形や過剰適合のリスクを低減する。
さらに、EntLossと呼ばれる新しい正則化項を提案し、従来の交差エントロピー損失関数と組み合わせることで、モデルの分布とデータ分布の整合性を高め、一般化性能の向上に寄与する。
広範な実験の結果、EntAugmentとEntLossを単独あるいは組み合わせて適用することで、CIFAR-10/100、ImageNetなどのベンチマークデータセットにおいて、既存の最先端手法を上回る性能を達成できることが示された。さらに、計算コストの増加も最小限に抑えられており、実用的な効率性も備えている。
A otro idioma
del contenido fuente
arxiv.org
Ideas clave extraídas de
by Suorong Yang... a las arxiv.org 09-11-2024
https://arxiv.org/pdf/2409.06290.pdfConsultas más profundas